Die kinetische Energie eines Moleküls wird in der klassischen Mechanik als ϵkin=12mv2\epsilon_{\text{kin}} = \frac{1}{2}mv^2 beschrieben, wobei mm die Masse des Moleküls und vv seine Geschwindigkeit ist. Eine wichtige Annahme bei der Analyse dieser Energien ist die isotrope Verteilung der Geschwindigkeit vv, was bedeutet, dass die Verteilung der Geschwindigkeit in allen Richtungen gleich ist. Die kinetische Energie kann dann als Erwartungswert der quadratischen Geschwindigkeit formuliert werden: E(ϵkin)=kTE(\epsilon_{\text{kin}}) = kT, wobei kk die Boltzmann-Konstante und TT die Temperatur ist.

Diese Art der Analyse ist grundlegend für viele Bereiche der Physik, insbesondere in der statistischen Mechanik, wo die Verteilungen von Größen wie Geschwindigkeit und Energie eine zentrale Rolle spielen. Im Folgenden betrachten wir die Eigenschaften von Wahrscheinlichkeitsverteilungen und wie man mit diesen Größen arbeitet.

In der Wahrscheinlichkeitsstatistik ist eine der grundlegenden Aufgaben, die Verteilung einer Zufallsgröße zu verstehen. Diese Verteilung wird durch eine Dichtefunktion f(x)f(x) oder eine Wahrscheinlichkeitsmassefunktion p(x)p(x) beschrieben. Die zentralen Eigenschaften dieser Verteilungen sind die Momente, die aus den erwarteten Werten der Potenzen der Zufallsvariablen berechnet werden. Ein Beispiel hierfür ist die Berechnung des zweiten Moments, das die Varianz darstellt und wichtige Informationen über die Streuung der Werte liefert.

Für eine kontinuierliche Verteilung ist das nn-te Moment der Zufallsvariablen xx als μn=E(xn)=xnf(x)dx\mu_n = E(x^n) = \int_{ -\infty}^{\infty} x^n f(x) \, dx definiert. Diese Momente sind entscheidend, da sie Informationen über die Form der Verteilung, ihre Symmetrie, die Schiefe (Skewness) und die Kurtosis liefern. Besonders hervorzuheben sind die sogenannten zentralen Momente, die die Momente relativ zum Erwartungswert μ\mu darstellen. Das erste zentrale Moment ist immer null, da der Erwartungswert selbst der Mittelpunkt der Verteilung ist. Das zweite zentrale Moment ist die Varianz, und höhere Momente bieten Informationen über die "Spitzigkeit" der Verteilung.

Ein weiteres wichtiges Konzept sind die charakteristischen Funktionen einer Verteilung. Die charakteristische Funktion φ(t)\varphi(t) einer Verteilung f(x)f(x) ist definiert als φ(t)=E(eitx)=eitxf(x)dx\varphi(t) = E(e^{itx}) = \int_{ -\infty}^{\infty} e^{itx} f(x) \, dx. Sie ist eine Fourier-Transformation der Wahrscheinlichkeitsdichte und liefert eine weitere Möglichkeit, die Momente einer Verteilung zu berechnen. Die charakteristische Funktion hat mehrere nützliche Eigenschaften: Sie ist eine kontinuierliche Funktion, deren Betrag immer kleiner oder gleich eins ist, und sie ermöglicht die Berechnung von Momenten durch die Ableitung von φ(t)\varphi(t) nach tt. Ein wichtiger Aspekt dieser Methode ist, dass die Momente einer Verteilung eindeutig ihre charakteristische Funktion bestimmen.

Das Verständnis der charakteristischen Funktion ist besonders wichtig, wenn es darum geht, die Verteilungen von Summen oder linearen Kombinationen von Zufallsvariablen zu berechnen. Wenn zum Beispiel z=x+yz = x + y die Summe zweier unabhängiger Zufallsvariablen xx und yy ist, dann gilt die einfache Relation φz(t)=φx(t)φy(t)\varphi_z(t) = \varphi_x(t)\varphi_y(t), die es ermöglicht, die Verteilung von zz durch die bekannten charakteristischen Funktionen von xx und yy zu berechnen.

Ein weiteres Beispiel, das häufig in der statistischen Analyse auftaucht, ist die Berechnung der Effizienzfluktuationen eines Detektors. Wenn ein Detektor auf durchschnittlich 90% der durchgehenden Elektronen reagiert, dann können die Schwankungen in der registrierten Zahl von Elektronen durch die Binomialverteilung beschrieben werden. In vielen Fällen, bei denen stochastische Prozesse aus unabhängigen und identischen Elementarprozessen bestehen, folgt die relative Schwankung einer typischen 1/N1/\sqrt{N}-Abhängigkeit von der Anzahl der Prozesse NN.