Statistische Mechanik/ Binomial-, Gauß-, Poisson-Verteilungen und Entropie

Aus testwiki
Zur Navigation springen Zur Suche springen

In einem System befinden sich N unterscheidbare Teilchen. Diese können sich mit der Wahrscheinlichkeit p (0p1) in einem Zustand 1 sowie mit der Wahrscheinlichkeit q=1p in einem Zustand 2 befinden. Diese Zustände könnten z.B. der Grundzustand und ein energetisch angeregter Zustand in einem Atom sein. Oder aber wir betrachten ein Gefäß, das aus zwei Kammern besteht, die über eine Öffnung miteinander verbunden sind. Bei einem Gas (bestehend aus N identischen Teilchen) in diesem Gefäß könnten wir dann die Frage stellen, wie groß die Wahrscheinlichkeit ist, eine bestimmte Anzahl von Teilchen in der einen (1. Zustand) oder der anderen Kammer (2. Zustand) vorzufinden. Die Wahrscheinlichkeit, gerade n Teilchen im 1. Zustand (und somit Nn im zweiten) vorzufinden, ist nach Binomi:


ϱN(n)=(Nn)pnqNn


mit


n=0NϱN(n)=n=0N(Nn)pnqNn=(p+q)N=1.


Der sog. Binomialkoeffizient


(Nn)=N!n!(Nn)!


gibt Auskunft über die Anzahl der Möglichkeiten, unterscheidbare Teilchen auf die zwei Zustände zu verteilen. Es gibt nämlich N!(Nn)!=N(N1)...(Nn+1) Möglichkeiten, den 1. Zustand mit n aus den N Teilchen zu besetzen (bzw. den 2. Zustand mit Nn aus den N Teilchen zu bevölkern). Die Anzahl der möglichen Vertauschungen der n Teilchen im 1. Zustand untereinander, d.h. n!, soll aber nicht mitgezählt werden, weshalb noch durch n! dividiert werden muss.


Wir können uns zudem fragen, wie viele Teilchen im Mittel im 1. Zustand zu erwarten sind. Einen solchen Erwartungs- oder Mittelwert der Teilchenzahl n im 1. Zustand definieren wir dabei wie folgt:


μ=n=n=0NnϱN(n)=n=0Nn(Nn)pnqNn.


An dieser Stelle bemerken wir, dass wir npn=p(p)qpn schreiben können, wenn wir q bei der partiellen Differenziation festhalten:


μ=n=p(p)qn=0N(Nn)pnqNn=p(p)qn=0NϱN(n)=p(p)q(p+q)N.
=[Np(p+q)N1]q=1p=Np.


Außerdem können wir uns noch die Frage stellen, wie groß die Schwankungen (bzw. das Schwankungsquadrat) um diesen Mittelwert sind:


σ2=(nn)2=n2n2=n2μ2


und benötigen hierzu also noch die Größe n2:


n2=n=0Nn2ϱN(n)=(pp)q2(p+q)N=[pppp(p+q)N=Np(p+q)N1]q=1p
=[Nppp(p+q)N1]q=1p=[Np(p+q)N1+N(N1)p2(p+q)N2]q=1p
=Np+N(N1)p2.


Hiermit erhalten wir für das Schwankungsquadrat:


σ2=n2μ2=Np(1p)=Npq.


Über diese Mittelwert-Bildungen haben wir uns einen guten Überblick verschafft, wie sich das betrachtete N-Teilchensystem im Mittel verhält. Die Wahrscheinlichkeit p dafür, dass sich ein Teilchen im 1. Zustand befindet, muss dabei »von außen« vorgegeben werden. Doch wie können wir im physikalischen Alltag zu verlässlichen Werten hierfür gelangen? Ein naheliegender Ansatz wäre, die Wahrscheinlichkeit p durch eine relative Häufigkeit zu ersetzen, z.B. indem wir messen, wie viele Teilchen sich im Mittel im 1. Zustand befinden, und wählen dann für p:


p=μN.


Um einen verlässlichen Schätzwert für den Mittelwert μ zu erhalten, sollten wir aber möglichst Systeme mit großen Teilchenzahlen, d.h. mit N1, betrachten, damit die relativen Schwankungen um μ möglichst gering werden:


σμ=NpqNp1N0N1.


Außerdem haben wir noch das Problem, dass die Binominal-Verteilung mit ihren Summenbildungen recht unhandlich ist. Wenn wir uns im Wesentlichen nur dafür interessieren, wie sich die Verteilung in der Nähe des Mittelwertes der Besetzungszahlen des 1. Zustands verhält, betrachten wir sie also vorzugsweise für Werte von n in der Umgebung von μ:


nn=μ=NppnN.


Hierzu drücken wir die Binominal-Verteilung statt in n in einer neuen Variablen x=nN aus und verwenden die Stirling-Formel n!=2πn(ne)n, die ja für große Teilchenzahlen eine gute Näherung für Fakultäten zu sein verspricht:


ϱN(n)=N!n!(Nn)!pnqNn
2πeNeNnen1N(1nN)nN1(1nN)Nn(nN)npnNNq(1nN)N
=12πN(1x)x[(px)x(q1x)1x]N.


An dieser Stelle sind wir eigentlich schon einen Schritt zu weit gegangen: Der Term


N(1x)x=N(1nN)nNN(1p)p=Nqp=σ2


ist wegen x=nNp näherungsweise das Schwankungsquadrat, das wir gleichermaßen als bekannt voraussetzen möchten, d.h. neben dem Mittelwert μ wird im Folgenden auch noch dessen Schwankungsquadrat σ2 als vorgegeben betrachtet. Unter diesen Voraussetzungen ergibt sich folgende Näherung für die Poisson-Verteilung:


ϱN(n)ϱ(x)=12πσ2[(px)x(q1x)1x]N.


Da ja nach Voraussetzung xp gelten soll, werden wir


lnϱ(x)=ln2πσ2Nxln(xp)N(1x)ln(1xq)


um diesen Punkt herum per Taylor entwickeln:


lnϱ(x)lnϱ(p)+(xp)(xlnϱ)(p)+12(xp)2(2x2lnϱ)(p).


Mittels lnϱ(x) und den Ableitungen


(xlnϱ)(x)=Nln(xp)+Nln(1xq),
(2x2lnϱ)(x)=Nx(1x)


an der Stelle x=p, d.h.


lnϱ(p)=ln2πσ2,
(xlnϱ)(p)=0,
(2x2lnϱ)(p)=Npq=N2σ2,


erhalten wir für jene Entwicklung um diese offensichtliche Maximumstelle μ=Np (denn die erste Ableitung von lnϱ(x) verschwindet an dieser Stelle und die zweite Ableitung ist negativ):


lnϱ(x)ln2πσ212σ2(Nx=nNp=μ)2


bzw.


ϱN(n)ϱ(n)=12πσ2exp[12σ2(nμ)2].


Dies ist die berühmte Gauss'sche Glockenkurve um einen Mittelwert μ mit einem Schwankungsquadrat σ2. Dass diese Gauss'sche Wahrscheinlichkeitsverteilung wieder auf Eins normiert ist, erkennt man durch Integration der Kurve über alle (kontinuierliche vielen) Werte n links und rechts des Mittelwertes μ:


dnϱ(n)=12πσ2dnexp[12σ2(nμ)2]=
1πdξeξ2=1πΓ(12)=1,


wobei die Substitution ξ=12σ2(nμ)dn=2σ2dξ angewandt wurde.


Die Gauss'sche Glockenkurve ist nicht die einzig mögliche Approximation der Binomialverteilung. Wenn man erneut vom Mittelwert ausgeht und diesmal verlangt, dass dieser konstant bleiben soll statt eine Funktion von p zu sein, d.h. μ=Np=const., dann folgt daraus p1 für große Teilchenzahlen, d.h. N1. Wenn wir jetzt in der Binomialverteilung p=μN einsetzen, Faktoren abspalten, die im Limes N entweder Eins werden oder über die Euler-Formel (1±1N)NNe±1 auf die Euler'sche Zahl e führen, dann erhalten wir


ϱN(n)=N!n!(Nn)!pnqNn
1n![NNN1NN2NN(n1)N]=N!(Nn)!1Nn(1μN)n(1μN)NμnN1n!μneμ=ϱμ(n),


weil die einzelnen Faktoren in der eckigen Klammer im Limes N gegen Unendlich jeweils gegen Eins gehen. Gleiches gilt für den Faktor (1μN)nN1, da ja n eine endliche Größe ist (d.h. nicht gegen Unendlich geht), während sich hinter der Folge (1μN)NNeμ eine Exponentialfunktion verbirgt (s. mathematische Ergänzunge).


Die Poisson-Verteilung ϱμ(n) ist dabei tatsächlich wieder auf Eins normiert:


n=0ϱμ(n)=eμn=01n!μn=eμ=1,


wobei wir hier die Taylor-Reihe für die Exponentialfunktion verwendet haben. Nach den getroffenen Voraussetzungen muss zudem der Mittelwert von n wieder gleich μ sein, was wir hier überprüfen werden:


n=n=0nϱμ(n)=n=1nϱμ(n)=
μeμn=11(n1)!μn1=μeμn=01n!μn=eμ=μ.


Eine erstaunliche Eigenschaft der Poisson-Verteilung ist, dass wegen


n2=n=0n2ϱμ(n)=n=0n(n1)ϱμ(n)+n=0nϱμ(n)=μ=μ+n=2n(n1)ϱμ(n)
=μ+μ2eμn=21(n2)!μn2=eμ=μ+μ2


auch das Schwankungsquadrat


σ2=n2n2=μ


gleich dem Mittelwert ist.


Wenn beim Zweizustandssystem die Wahrscheinlichkeiten für ein Teilchen, sich im ersten oder im 2. Zustand zu befinden, gleich ist, d.h. p=q=12 gilt, dann ergibt sich aus der Poisson-Verteilung unmittelbar


ϱN(n)=12N(Nn),


die somit etwas darüber aussagt, mit welcher Wahrscheinlichkeit sich genau n aus den N Teilchen im ersten Zustand befinden. Dabei können die N Teilchen insgesamt 2N mögliche Zustände einnehmen (nämlich jedes Teilchen zwei). Anders ausgedrückt, erwartet man also, dass es WN(n)=2NϱN(n)=(Nn) von den insgesamt 2N Möglichkeiten gibt, um genau n (unterscheidbare) Teilchen im ersten Zustand vorzufinden. Wir können uns nun die Frage stellen, bei welchem n die Anzahl der Möglichkeiten, Teilchen im ersten Zustand vorzufinden, maximal wird. Hierzu ist es mathematisch am einfachsten, lnWN(n) zu bilden, um dann die Stirling-Formel anzuwenden und anschließend das Maximum jener Funktion zu suchen. D.h. wir erhalten zunächst


lnWN(n)=lnN!n!(Nn)!=lnN!lnn!ln(Nn)!
NlnNNnlnn+n(Nn)ln(Nn)+(Nn)
=NlnNnlnn(Nn)ln(Nn)=NnNlnnNN(Nn)Nln(Nn)N
=Nϱ1lnϱ1Nϱ2lnϱ2=Ni=12ϱilnϱilnWN(ϱ1,ϱ2),


wobei wir die Größen ϱ1=nN0 und ϱ2=NnN0 eingeführt haben, die etwas darüber aussagen, mit welchem Bruchteil der Teilchen N der erste bzw. zweite Zustand besetzt sind. Ihre Summe ergibt offensichtlich wieder Eins: i=12ϱi=1.


Da bei der Suche des Maximums von lnWN(ϱ1,ϱ2) die Teilchenzahl konstant gehalten wird, können wir uns dabei genauso gut auch auf die Funktion lnΩ(ϱ1,ϱ2)=i=12ϱilnϱi beschränken. Mit Hilfe der der Methode der Lagrange-Multiplikatoren wird die Nebenbedingung i=12ϱi=1 berücksichtigt:


f(ϱ1,ϱ2)=lnΩ(ϱ1,ϱ2)+λ(1i=12ϱi)=i=12ϱilnϱi+λ(1i=12ϱi),


wobei λ der eingeführte Lagrange-Multiplikator ist. Von dieser Funktion f(ϱ1,ϱ2) ist also das Maximum gesucht.


Besitzt das betrachtete System nicht nur zwei sondern z Zustände, die mit n1,,nz Teilchen besetzt sein sollen, wobei wieder i=1zni=N gelten muss, dann wären wir von einem sog. Multinomialkoeffizienten,


WN(n1,,nz)=N!n1!nz!


und einer Multi- oder Polynomialverteilung ausgegangen:


ϱN(n1,,nz)=WN(n1,,nz)p1n1pznz


mit 0pi1,i=1,,z und i=1zpi=1. In der Mathematik wird (z.B. per vollständige Induktion) gezeigt, dass erneut

n1++nz=NϱN(n1,,nz)=(p1++pz)N=1


gilt, wobei die erste Summe bedeuten soll, dass über alle möglichen Kombinationen der Besetzungszahlen n1,,nz summiert wird, bei der die Summe über diese Besetzungszahlen wiederum gleich der gesamten Teilchenzahl N ist.


Wenn die Besetzung der z Zustände wieder gleich wahrscheinlich wäre, resultierte für die Wahrscheinlichkeiten jeweils pi=1z. Weil es insgesamt zN Möglichkeiten gibt, die Zustände mit N Teilchen zu bevölkern, und p1n1pznz=(1z)n1++nz=(1z)N ist, gälte dann entsprechend auch WN(n1,,nz)=zNϱN(n1,,nz).


Wir hätten schließlich die 0ϱi=niN1,i=1,,z Größen als »relative Besetzungszahlen« definiert und wären zu


lnWN(ϱ1,,ϱz)Ni=1zϱilnϱi


mit i=1zϱi=1 gelangt. Die relativen Besetzungszahlen der Zustände 1,,z erinnern in ihrer Definition und ihren Eigenschaften also sehr an »relative Häufigkeiten« oder sogar Wahrscheinlichkeiten.


Gesucht sei jetzt also die wahrscheinlichste Besetzung der Zustände 1,,z. Da die Gesamtzahl der Teilchen eine Konstante ist, genügt es wieder, das Maximum einer Funktion lnΩ(ϱ1,,ϱz)=i=1zϱilnϱi unter der Nebenbedingung i=1zϱi=1 zu suchen. Um die Nebenbedingung zu berücksichtigen, können wir ja wieder auf die Methode der Langrange-Multiplikatoren zurückgreifen, indem wir einen Langrange-Multiplikator λ einführen. D.h. wir suchen das Maximum der Funktion


f(ϱ1,,ϱz)=lnΩ(ϱ1,,ϱz)+λ(1i=1zϱi)=i=1zϱilnϱi+λ(1i=1zϱi)


Für z=2 erhalten wir natürlich wieder unser Ausgangsbeispiel für nur zwei Zustände.


Wir werden im Folgenden die Funktion f(ϱ1,,ϱz) nach den ϱi,i=1,,z variieren und diese Variation gleich Null setzen, um nach den Extremwerten der Funktion Ausschau zu halten. Die Variationen der ϱi können wir dabei sogar als voneinander unabhängig betrachten, da wir ja ihre Abhängigkeiten untereinander (über i=1zδϱi=0) durch das Einführen des Lagrange-Multiplikators als weiteren Parameter bereits berücksichtigt haben. D.h. wir können aus 0=i=1zAiδϱi folgern, dass ihre Koeffizienten Ai,i=1,,z einzeln verschwinden, d.h. Ai=0,i=1,,z gilt. Mit anderen Worten: Die Variationen δϱi,i=1,,z der relativen Besetzungzahlen ϱi,i=1,,z sind linear unabhängig. Dies erleichtert die Durchführung der Extremwertsuche ungemein:


0=δf(ϱ1,,ϱz)=(δi=1zϱilnϱi)λi=1zδϱi
=i=1z(lnϱiδϱi+ϱiδlnϱi=1ϱiδϱi)λi=1zδϱi
=i=1z(lnϱi+(1+λ))δϱi.

D.h. wir können folgern, dass die Koeffizienten der δϱi,i=1,,z einzeln verschwinden müssen:


0=lnϱi+(1+λ),


woraus ϱi=eλ1 resultiert. Den Parameter λ können wir aus der Nebenbedingung bestimmen:


1=i=1zϱi=zeλ1,


was eλ1=1z und somit ϱi=1z ergibt. Die relativen Besetzungszahlen ϱi=1z fallen also mit den Besetzungswahrscheinlichkeiten pi=1z hinsichtlich ihres Wertes zusammen. Im Limes großer Teilchenzahlen (den wir ja annehmen mussten, um die Stirling-Formel anwenden zu dürfen) und bei der angesetzten gleichen Besetzungswahrscheinlichkeit aller z Zustände sind somit die relativen Besetzungszahlen in Besetzungswahrscheinlichkeiten übergegangen. Dies gilt zumindest, wenn wie hier das Maximum der Anzahl aller Besetzungsmöglichkeiten gesucht wurde. Dass es sich bei der gefundenen Lösung um ein Maximum (und nicht etwa um ein Minimum) handelt, geht z.B. aus der Gaußverteilung hervor, die ja (wie bereits zuvor festgestellt) unter gewissen Voraussetzungen in diesem Limes eine Näherung der Binomial-Verteilung darstellt und als »Glockenkurve« ein ausgeprägtes Maximum (aber kein Minimum) besitzt.


In der statistischen Mechanik wird gerne die gleiche Wahrscheinlichkeit aller Zustände eines Systems angenommen. Gleichermaßen wird die sog. »Entropie« S postuliert, die sich von der oben bereits eingeführten Größe lnΩ(ϱ1,,ϱz)=i=1zϱilnϱi nur noch durch einen Faktor kB unterscheidet, der die sog. »Boltzmannkonstante« darstellen soll:


S=kBlnΩ(ϱ1,,ϱz)=kBi=1zϱilnϱi,


wobei i=1zϱi=1 gelte.