Statistische Mechanik

Aus testwiki
Zur Navigation springen Zur Suche springen

Vorlage:Band Vorlage:StatusBuch

Einleitung

Die statistische Mechanik schlägt eine Brücke zwischen den Mikrozuständen und makroskopischer Eigenschaften physikalischer Systeme. Makroskopische Systeme setzen sich aus sehr vielen Einzelkomponenten zusammen, deren Dynamik in der Regel aufgrund der hohen Komplexibilität nicht exakt gelöst werden kann. Dennoch können makroskopische Zustandsvariablen aus den statischen Verteilungen der Mikrozustände abgeleitet werden. Der in der phänomologischen Thermodynamik eingeführte Begriff der Entropie kann mathematisch definiert werden und aus den mikroskopischen Zuständen abgeleitet werden. Die statistische Mechanik findet in vielen Gebieten der Physik und benachbarten Naturwissenschaften Anwendung.

Ergodenhypothese

Der Phasenraum

Ein klassisches Vielteilchensystem mit f Freiheitsgraden wird durch die Hamiltonfunktion H(q1,...,qf,p1,...,pf) beschrieben, die eine Funktion der generalisierten Koordinaten und Impulse darstellt. Als Phasenraum bezeichnet man die Zusammenfassung der Koordinaten und Impulse zu einem 2f dimensionalen Raum Γ. Die zeitliche Entwicklung des Systems ist bei Festlegung aller Anfangskoordinaten und Anfangsimpulsen, also einem Punkt im Phasenraum, eindeutig durch die Hamliton'schen Bewegungsgleichungen qi˙=Hpi und pi˙=Hqi festgelegt.

Die zeitliche Entwicklung der Phasenraumdichte ρ(q1,...,qf,p1,...,pf,t), d.h. eine Verteilung von Mikrozuständen, liefert das Liouville'sche Theorem:

ρt={H,ρ}

Die aus der klassischen Mechanik bekannte Poissonklammer ist wie folgt definiert

{f,g}=i=1f(fpigqifqigpi).

Gleichgewicht und Ensemble-Mittel

Man spricht von thermodynamischen Gleichgewicht wenn ρ nicht explizit von der Zeit abhängt, also

ρt=0

gilt. Eine makroskopische Größe A ergibt sich dann durch Mittelwertbildung über den Phasenraum

A=Γρ(q1,...,qf,p1,...,pf)A(q1,...,qf,p1,...,pf)dqfdpf

Man kann sich das Ensemble als unendlich viele Realisierungen eines Systems vorstellen, deren Mikrozustände gerade entsprechend der Phasenraumdichte verteilt sind.

Zeitmittelwerte

Man kann auch eine Größe A(x1(t),x2(t),,xN(t)), welche als Funktion der Trajektorien xi(t) des i-ten Teilchens in Abhängigkeit von der Zeit t abhängt, über die Zeit mitteln. Wir können formal eine Zeitmittelung wie folgt definieren:

<<A>>:=limT1T0TA(x1(t),x2(t),,xN(t))dt.

Das Ergodentheorem besagt nun folgendes: Bei einem System im thermischen Gleichgewicht stimmt die Zeitmittelung mit der Ensemblemittelung überein, also

<A>=<<A>>.

Grundlagen der Wahrscheinlichkeitstheorie

In diesem Abschnitt soll ein kurzer Abriß der Wahrscheinlichkeitstheorie gemacht werden, da die Statistische Mechanik auf dem Fundament dieser mathematischen Theorie basiert. Die grundlegenden Begriffe lassen sich einfacher anhand von diskreten Ereignissen formulieren.

Ein diskreter Wahrscheinlichkeitsraum (Ω,p) besteht aus einer abzählbaren Menge Ω und einer Abbildung
p:Ω[0,1].
Die Abbildung p soll normiert sein, d.h. ωΩp(ω)=1

p(ω) ist die Wahrscheinlichkeit von ω. Eine Untermenge EΩ heißt Ereignis.

Beispiel: Der faire Münzwurf besteht aus der Ereignismenge Ω={Kopf,Zahl} mit den Wahrscheinlichkeiten p(Kopf)=p(Zahl)=0.5

Beispiel: Im Stern-Gerlach Versuch (1922) wurden Silberatome in Form eines Atomstrahls in einem inhomogenen Magnetfeld abgelenkt. Nachdem die Atome das Magnetfeld durchlaufen haben wurden sie auf einem Schirm detektiert. Dabei wurde entgegen den Erwartungen der klassischen Physik zwei diskrete Auftreffpunkte auf dem Schirm aufgenommen. Hier ist der Ereignisraum aus Ω={oben,unten}, d.h. Atom trifft am oberen oder unteren Punkt auf den Schirm auf. p gibt die entsprechende Wahrscheinlichkeit an.

Sei (Ω,p) eine Wahrscheinlichkeitsraum dann heißt eine Abbildung A:Ω eine Zufallsvariable
A:=ωΩA(ω)p(ω) heißt Erwartungswert und
var(A):=(AA)2=A2A2 Varianz, sofern die Summen konvergieren


Ensembles in der statistischen Mechanik

Ein Zugang des Ensemble-Begriffs geschieht über die Postulierung folgender Eigenschaften der Verteilungsfunktion:

  1. ρ soll dem System angepasste makroskopische Nebenbedingungen erfüllen.
  2. Alle anderen Größen sollen durch ρ statistisch maximal unbestimmt sein

Nebenbedingungen im ersten Punkt können etwa konstante Teilchenzahl, Druck, Temperatur, Volumen usw. sein. Was im zweiten Teil mit statistisch maximal unbestimmt gemeint ist, wird nun im folgenden diskutiert. Dazu betrachtet man zunächst ein eine diskrete Ereignismenge E={ω1,...,ωn} , deren Elemente jeweils die statistischen Gewichte p1,...,pn besitzen. Mit dem Eintreten eines bestimmten Ereignisses gewinnt man Information, die umso größer ist, je unwahrscheinlicher das Ereignis ist. Die Unkenntnis des mikroskopischen Systems quantifiziert man mit der sogenannten Ignoranzfunktion I, die folgende Eigenschaften erfüllen soll:

  1. I(p1,...,pn) ist eine stetige und symmetrische Funktion der Wahrscheinlichkeiten der Ereignisse.
  2. In der Gleichverteilung, d.h. pi=1n soll I maximal werden und monoton mit der Anzahl der Ereignisse n wachsen.
  3. I soll additiv bei Vergröberung sein

Den letzten Punkt, kann man verstehen, indem man die Zusammenfassung verschiedener Ereignisse betrachtet, also σ1={ω11,...,ωm11}σ2={ω12,...,ωm22},...,σk={ω1k,...,ωmkk}. Zu diesen Blöcken von Ereignissen gehört ebenfalls wieder eine Ignoranzfunktion I(q1,...,qk). Die Forderung nach Additivität in (3) lautet nun:
I(p1,...,pn)=I(q1,...,qk)+μ=1kqiI(p1μqi,...,pmiμqi) Der Satz von Shannon besagt, dass diese drei Forderungen die Ignoranzfunktion bis auf eine Konstante festlegen:

I(p1,...,pn)=κi=1npilnpi,κ>0

Anhand folgender Beispiele soll nun die Methode erläutert werden und gezeigt werden, wie man aus makroskopischen Nebenbedingungen Rückschlüsse auf die Verteilungsfunktionen ziehen kann.
Beispiel: Wir verifizieren Postulat 2 und zeigen, dass die Gleichverteilung die statistisch maximal unbestimmte Verteilung unter der einzigen Nebenbedingung der Normierung ist. Also wir fordern I=max unter der Nebenbedingung pi=1. Dieses Problem führt auf die Gleichung

i(κi=1npilnpiλipi)=0

formuliert werden, wobei λ ein Lagrange'scher Multiplikator ist. Ableiten führt zu κ(lnpi+1)=λ, also lnpi=const, also pi=1n.
Wie später gezeigt wird, kann die Ignoranzfunktion mit der Entropie S und κ mit der Boltzmannkonstante identifiziert werden.

Der Shannon'sche Satz ist zunächst nur für diskrete Verteilungen definiert. Die Verteilungsfunktion über dem Phasenraum eines N-Teilchensystems hängt allerdings von kontinuierlichen Variablen ab. Um den Formalismus der maximalen Entropie auf kontinuierliche Systeme anzuwenden, führt man ein Referenzphasenvolumen Δ ein und diskretisiert den Phasenraum somit in 2f dimensionale Würfel. Die Ignoranz ist jetzt ein Funktional der Phasenraumdichte ρ:

I[ρ]=κΓdqfdpfρ(q,p)ln(Δρ(q,p)).

Mithilfe einer Variablentransformation qq und pp ist leicht einzusehen, dass S bis auf eine additive Konstante unabhängig von der Wahl des Referenzvolumens ist.

Wenden wir uns dem Problem zu, die Verteilungsfunktion des mikrokanonischen Ensembles, in dem die konstante Energie als Nebenbedingung gefordert wird, mithilfe des Prinzip der maximalen Entropie abzuleiten.

Einfache Modellsysteme

Phasenübergänge und kritische Phänomene

Quantenstatistik

Grundlagen der Statistischen Mechanik im Nichtgleichgewicht

Boltzmann-Gleichung

Computersimulationsmethoden der statistischen Mechanik

Mathematische Ergänzungen

ja:統計力学