Theoretische Physik F Statistische Physik

Institut für Theoretische Festkörperphysik Prof. Dr. Gerd Schön Theoretische Physik F Statistische Physik Sommersemester 2010 2 Statistische Phys...
1 downloads 0 Views 2MB Size
Institut für Theoretische Festkörperphysik Prof. Dr. Gerd Schön

Theoretische Physik F Statistische Physik

Sommersemester 2010

2

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

3

Vorwort Das vorliegende Skriptum zur Vorlesung "Theoretische Physik F (Statistische Physik)" enthält den geplanten Stoff dieser letzten der theoretischen Kursvorlesungen. Das Ziel dieser Vorlesung soll sein, soviel wie möglich von dem theoretischen Werkzeug zu vermitteln, dessen Kenntnis man von ausgebildeten Physikern und Physikerinnen erwartet. Dabei denke ich als Beispiel an Kolloquien im Bereich der Festkörperphysik. Die Vortragenden sollen davon ausgehen können, dass ihre Zuhörer eine gewisse Grundausbildung und Allgemeinwissen besitzen, so dass sie mit den entsprechenden Schlagwörtern die physikalischen Probleme und Lösungsmethoden beschreiben können. Dies ist viel Stoff, zum Teil ist es auch eine subjektive Wahl. Dazu gehört sicher ein Vielteilchen-Hamilton-Operator für Elektronen und Phononen (Kap. 6), die Boltzmann-Transport Theorie (Kap. 7) und eine Einführung in die Theorie der Phasenübergänge (Kap. 9). Dazu gehören aber auch Eigenschaften des Rauschens und eine master Gleichung für die Besetzungsverhältnisse von Atomen im thermischen Strahlungsfeld mit Übergangsraten, die detailliertes Gleichgewicht erfüllen (Kap. 3), sowie der Kubo-Formalismus für die linearen ResponseFunktionen (Kap. 8). Daneben soll diese Vorlesung aber auch systematisch die Grundlagen dieser Konzepte darstellen. Daher beginne ich mit einer Zusammenfassung der Thermodynamik (Kap. 1) und präsentiere eine detaillierte Herleitung der Konzepte der statistischen Physik in Kap. 4 mit den einfachen Anwendungen in Kap. 5. Bei der Vorbereitung der Vorlesung habe ich eine Reihe von Büchern verwendet. Die wichtigsten sind unten angegeben. Dieses Skriptum ist kein Ersatz für ein Literaturstudium. Darüber hinaus wissen wir, dass wir ein echtes Verständnis nur erreichen, wenn wir uns selbst aktiv mit dem Stoff auseinandersetzen, zum Beispiel durch das Lösen von Übungsaufgaben. Ich hoffe aber, dass dieses Skriptum von Nutzen ist zur ersten Orientierung und als eine Zusammenfassung. Schließlich will ich noch danken. Vor allem Albert Schmid, von dem ich die Statistische Physik gelernt habe, und dessen Skriptum auch hier eingeflossen ist. Meinen Mitarbeitern und ehemaligen Übungsgruppenleitern Christoph Bruder, Jan von Delft, Matthias Eschrig, Jürgen König, Herbert Schoeller, Frank Wilhelm und Ulrich Zülicke, die mit vielen Korrekturen und kritischen Bemerkungen zu diesem Skriptum beigetragen haben. Und Evmarie Schwartz, die mit viel Sorgfalt meine ursprünglich handschriftlichen Notizen in die erste druckbare Form umgesetzt hat.

Karlsruhe, März 2010

G.S.

4

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

Inhalt 1. Thermodynamik (Zusammenfassung) 1.0 Mathematische Vorbemerkungen 1.1 Definitionen, Begriffe, Zustandsgleichungen 1.2 Die Hauptsätze der Thermodynamik 1.3 Der Carnot'sche Kreisprozess 1.4 Die Entropie 1.5 Fundamentale Relation der Thermodynamik 1.6 Thermodynamische Potentiale 1.7 Response Funktionen 1.8 Kontaktvariablen und Stabilität 1.9 Mischungsentropie und Gibbs'sches Paradox 2. Wahrscheinlichkeitstheorie 2.1 Elementare Begriffe 2.2 Binomial-, Gauß- und Poisson-Verteilung 2.3 Random Walk und Diffusion 2.4 Zentraler Grenzwertsatz 2.5 Spektrale Dichte 3. Stochastische Prozesse 3.1 Begriffe, elementare Eigenschaften (Markov Prozesse, ...) 3.2 Master Gleichung 3.3 Detailliertes Gleichgewicht 3.4 Fokker-Planck Gleichung 3.5 Langevin Beschreibung (und äquivalente Fokker-Planck Gleichung) 3.6 Thermische Aktivierung 3.7 Modelle für Dissipation 4. Statistische Mechanik (klassisch und quantenmechanisch) 4.1 Gibbs-Ensemble, klassische Liouville-Gleichung und fundamentales Postulat der klassischen statistischen Mechanik 4.2 Dichtematrix, quantenmechanische Liouville-Gleichung und fundamentales Postulat der Quantenstatistik 4.3 Die Entropie 4.4 Thermodynamik des mikrokanonischen Ensembles 4.5 Gleichverteilungssatz 4.6 Das kanonische Ensemble 4.7 Das großkanonische Ensemble 4.8 Der dritte Hauptsatz 5. Ideale Systeme 5.1 Das (Maxwell-) Boltzmann-Gas 5.2 Identische Teilchen in der Quantenmechanik (Bosonen und Fermionen) 5.3 Das Bose (-Einstein)-Gas 5.4 Bose-Einstein Kondensation 5.5 Hohlraumstrahlung, Photonen 5.6 Phononen 5.7 Das ideale Fermi (-Dirac)-Gas 5.8 Elektronen im Festkörper, Bloch-Zustände und Bandstruktur

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

5.9 5.10

Das entartete Fermi-Gas, Sommerfeld-Entwicklung Pauli Paramagnetismus

6. Systeme mit Wechselwirkung 6.1 Wechselwirkende Teilchen 6.2 Virialentwicklung (van der Waals-Gas) 6.3 Spin-Modelle mit Wechselwirkung 6.4 Das 1-dimensionale Ising-Modell 6.5 Cluster-Entwicklung 6.6 Variationsmethoden 6.7 Numerische Methoden: Monte Carlo 6.8 Feynman'sche Pfadintegrale und Quanten-Monte-Carlo 6.9 Wechselwirkungen in Festkörpern (Born-Oppenheimer) 6.10 2. Quantisierung 6.11 Stoßraten 6.12 Abschirmung der Coulomb-Wechselwirkung in Festkörpern 6.13 Quasiteilchen 7. Boltzmann Transport Theorie 7.1 Die BBGKY Hierarchie und Boltzmann-Gleichung 7.2 Elektron-Elektron Stöße 7.3 Störstellenstreuung, Elektron-Phonon Streuung 7.4 Elektrische Leitfähigkeit 7.5 Wärmeleitfähigkeit und thermoelektrische Effekte 7.6 Onsager-Relationen 7.7 Boltzmann-Gleichung im magnetischen Feld 7.8 Wigner-Funktion 8. Linear Response, Kubo Formalismus 8.1 Schrödinger-, Heisenberg- und Wechselwirkungsbild 8.2 Linear Response 8.3 Fluktuations-Dissipationstheorem 8.4 Kramers-Kronig-Relationen 8.7 Die elektrische Leitfähigkeit 9. Phasenübergänge 9.1 Paramagnetismus 9.2 Molekularfeld-Näherung für das Ising-Modell 9.3 Landau freie Energie (Funktional, MFA, Korrelationsfunktion, Fluktuationen und Ginzburg-Kriterium, Phasenübergang 1. Ordnung) 9.4 Weitere Modelle 9.5 Kritische Exponenten und Universalitätsklassen

5

6

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

Empfohlene Literatur

L.E. Reichl, A Modern Course in Statistical Physics, E. Arnold (Publishers) 1980, 1987 T. Fliessbach, Statistische Physik, BI 1993 H. Haug, Statistische Physik, 2. Auflage, Springer 2006 H. Römer und T. Filk, Statistische Mechanik, VCH Verlag 1994 F. Schwabl, Statistische Mechanik, 2. Auflage, Springer 2004 L.D. Landau und E.M. Lifschitz, Lehrbuch der Theoretischen Physik V, Statistische Physik, Akademie Verlag 1975

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

1

7

Thermodynamik (Zusammenfassung)

Ziel dieses Kapitels ist eine kurze Zusammenfassung der wichtigsten Konzepte der Thermodynamik. Diese ist eine phänomenologisch aufgestellte, am Experiment orientierte, in sich geschlossene Theorie. Als Grundlage genügen die Hauptsätze. Die Statistik, die wir in folgenden Kapiteln behandeln werden, erlaubt es, diese Theorie von mikroskopischen Modellen herzuleiten.

1.0

Mathematische Vorbemerkung

Gegeben sei eine Funktion F(x1,x2,...) der Variablen x1,x2,.... Das Differential von F ist dF = c1(x1,x2, …) dx1 + c2(x1,x2, …) dx2 + … Es ist vollständig, wenn gilt  ∂   ∂  = ∂x c1(x1,x2,...) , ∂x c2(x1,x2,...)  1 x2,…  2 x1,… In dem Fall gilt



.

 ∂F   ∂F  dF = ∂x  dx1 + ∂x  dx2 + ...  1 x2,...  2 x1,...

Konsequenzen: Wenn dF ein vollständiges Differential ist, gelten die folgenden, äquivalenten Aussagen: A



Das Integral F(A) – F(B) =

∫B dF ist unabhängig vom Weg. Nach Wahl einer festen

Referenz, z.B. B=0 mit F(0) = const, hängt das Integral nur vom Endpunkt A ab. •

Das Integral längs eines geschlossenen Weges verschwindet,

∫ dF =0 .

Wir werden es im Folgenden häufig mit vollständigen Differentialen zu tun haben. Dafür wählen wir die Notation: dF. Andere, nicht vollständige Differentiale bezeichnen wir mit δF. Für nichtinfinitesimale Änderungen verwenden wir ∆F. Die Ableitung eines vollständigen Differentials nach einer Variable, z.B. x1, wobei die anderen x2, ... festgehalten werden, c1(x1, x2, ...) = (∂F/∂x1)x ,... und die Variable x1 werden als konju2 gierte Variablen (bzgl. F) bezeichnet.

8 Wir betrachten drei Variablen, die eine Bedingung F(x,y,z) = 0 erfüllen. Dann hängt z von x und y ab, z(x,y), und Funktionen dieser Variablen hängen nur von zwei der Variablen ab, z.B. w = w(x,y). Es gilt

1.1

(a)

∂x ∂y  

∂y  –1 = ∂x    z z

(c)

 ∂x  ∂x ∂w = ∂y  z  z

 ∂y  ∂w  z

(b)

∂x ∂y  

∂y ∂z ∂z  ∂x = –1  x y z

(d)

∂x ∂x  ∂x  ∂w ∂y = ∂y + ∂w  ∂y   z  w  y z

.

Definitionen, Begriffe, Zustandsgleichungen



Thermodynamische Systeme sind makroskopisch, d.h. sie haben sehr viele Freiheitsgrade (von der Ordnung der Teilchenzahl N ≈ A = Avogadro Zahl = 6,023⋅1023).



Ein thermodynamischer Zustand wird beschrieben durch wenige Zustandsgrößen. Diese sind die Temperatur T, die Teilchenzahl N, die Entropie S, die innere Energie U, bei Gasen: das Volumen V und der Druck P, bei magnetischen Systemen: die Magnetisierung M und das Magnetfeld H . Daneben gibt es weitere “Zustandsfunktionen” oder “thermodynamische Potentiale” (s.u.).



Zustandsgrößen sind extensiv, d.h. mengenartig (X = N, V, ...) oder intensiv, d.h. Kontaktvariablen (Y = P, T, ...).



Differentiale von Zustandsgrößen sind vollständig. Z.B. für U(S,V,N) gilt ∂U ∂U ∂U dU =  ∂S  dS + ∂V dV + ∂N dN   V,N   S,N   S,V mit

 ∂ ∂U   ∂ ∂U  ∂V  ∂S   = ∂S ∂V   V,N S  S,N V

,

...

D.h. die innere Energie U(S,V,N) hängt nur vom Zustand ab, nicht aber davon, auf welchem Weg der Zustand erreicht wurde. Gleichbedeutend damit ist ∫ dU = 0 . •

Es gibt auch Größen in der Thermodynamik, die keine Zustandsgrößen sind, z.B. die Wärme δQ. Das bedeutet, dass in einem Kreisprozess i.a. ∫ dQ ≠ 0 . Dies ist eine wichtige Eigenschaft des Carnot'schen Kreisprozesses (s.u.).



Auch die vom System geleistete Arbeit δW ist keine thermodynamische Zustandsgröße.

9 Beispiele: δW = P dV – H ⋅ dM – φ dQ … ↑ ↑ elektrisches Potenzial Ladung



Im thermodynamischen Gleichgewicht erfüllen die Zustandsgrößen eine Zustandsgleichung. Beispiel: Wir betrachten ein System mit fester Teilchenzahl N, aber Druck P, Volumen V und Temperatur T sind variabel. Dann gilt eine Zustandsgleichung F(P,V,T) = 0, die eine Hyperfläche im

T

Fläche = M enge der Gleichgewichtszustände

reversibler Prozeß

Phasenraum festlegt:

V P •

Thermodynamische Prozesse können reversibel verlaufen, d.h. quasistatisch innerhalb der Menge der Gleichgewichtszustände. Oder sie können irreversibel sein. Z.B. eine Relaxation zum Gleichgewicht ist i.a. nicht als Kurve im Phasenraum darstellbar.



Die Vorsilbe “iso-“ bedeutet, dass die entsprechende Größe konstant ist, z.B. isotherm bedeutet T = const. “Adiabatisch“ bedeutet δQ = 0, d.h. keine Wärme wird zugeführt.

Das ideale Gas Genügend verdünnte Gase verhalten sich “ideal”. D.h. sie erfüllen die • thermische Zustandsgleichung (Ideale-Gas-Gleichung) PV =NkT =nRT

k = Boltzmann Konstante = 1,38 ⋅ 10-16 erg/K n = N/A,

R ≡ kA = ideale Gaskonstante = 8,314 Joule/K

Die Zustandsgleichung definiert die “ideale-Gas-Temperatur”. In anderen Worten, ein ideales Gas kann als Thermometer dienen. Weiterhin erfüllen ideale Gase die •

kalorische Zustandsgleichung

f CV = 2 N k .

CV ist die Wärmekapazität bei konstantem Volumen. Je nach der Zahl der internen Freiheitsgrade pro Molekül ist f = 3, 5, ...

10 Das van der Waals Gas (ein Modell für ein reales Gas mit Wechselwirkungen) erfüllt die Zustandsgleichung (mit Konstanten a und b)

(P +

1.2

a N2 ) (V – N b) = N k T . V2

Die Hauptsätze der Thermodynamik

Als Grundlage der Thermodynamik genügen die Hauptsätze. Diese sind: 0. Hauptsatz: Konzept der Temperatur Es gibt eine intensive Zustandsgröße “Temperatur“, so dass Systeme, die miteinander im Gleichgewicht sind, denselben Wert der Temperatur haben. 1. Hauptsatz:

Energiesatz, Äquivalenz von Arbeit und Wärme

Wir betrachten einen beliebigen thermodynamischen Prozess. Dabei werde die Wärme δQ zugeführt, vom System die Arbeit δW geleistet oder die Teilchenzahl geändert. Alle Prozesse ändern die innere Energie (denken Sie an die Äquivalenz von Wärme und Arbeit: 1 cal = 4,19 Joule) dU = δQ – δW + µ dN . Die innere Energie U ist eine Zustandsgröße, aber Q und W nicht! 2. Hauptsatz: (die Definition der Entropie folgt später) •

Die Entropie eines abgeschlossenen Systems nimmt nie ab dS ≥ 0 .



Für reversible Prozesse gilt dS = 0. Äquivalent dazu gilt: Wärme fließt spontan von der höheren zu der niedrigeren Temperatur.

3. Hauptsatz: S(T=0) = 0 • •

Genauer gilt: Die Entropie eines Systems nimmt bei T=0 einen universalen Wert an (unabhängig von anderen Variablen) S(T=0) = const. Die Konstante kann zu 0 gesetzt werden. Äquivalent dazu gilt: Der Entropieunterschied zwischen Zuständen, die durch reversible Prozesse verbunden sind, verschwindet bei T=0.

11 Eine Konsequenz des 3. Hauptsatzes ist, dass der absolute Nullpunkt nicht in einer endlichen Zahl von reversiblen Prozessen erreicht werden kann. Eine mögliche Sequenz von adiabatischen und isothermen Prozessen (charakterisiert durch eine extensive Variable A) ist rechts illustriert.

1.3

Der Carnot'sche Kreisprozess

Wir betrachten ein System zwischen zwei Wärmereservoiren mit den Temperaturen T2 > T1. (Als konkretes Beispiel betrachten wir ein Gas mit Druck P und Volumen V.)

(a)

(b) Carnot’scher Kreisprozess, a) symbolisch, b) im P-V-Diagramm für ein ideales Gas.

Der folgende reversible Kreisprozess wird durchlaufen: 1. Das System ist in thermischem Kontakt mit dem Reservoir T2. Bei einem isothermen Prozess (hier Expansion des Gases) fließt die Wärme Q2 ins System hinein. 2. Das System wird thermisch isoliert. Während eines adiabatischen Prozesses (hier weitere Expansion) sinkt die Temperatur von T2 nach T1. 3. Das System ist in thermischem Kontakt mit dem Reservoir T1. Bei einem isothermen Prozess (hier Kompression des Gases) fließt die Wärme Q1 aus dem System heraus. 4. Das System wird thermisch isoliert. Während eines adiabatischen Prozesses (hier weitere Kompression) steigt die Temperatur von T1 nach T2.

12 Entlang des Kreisprozesses gilt

∫ dU =0 .

Der 1. Hauptsatz sagt dann aus, dass während eines

Kreisprozesses die Arbeit ∆W = Q2 + Q1 = |Q2| – |Q1|

(Für ein Gas ist ∆W =

∫ PdV )

gewonnen wird. Das Verhältnis zwischen gewonnener Arbeit und hineingesteckter Wärme definiert den Wirkungsgrad |Q1| ∆W η := |Q | = 1 – |Q | . 2 2 Wenn der Prozess in umgekehrter Reihenfolge durchlaufen wird, arbeitet die Maschine als Wärmepumpe. Carnot'sches Theorem: Bei vorgegebenen Temperaturen T2 und T1 hat keine Maschine einen höheren Wirkungsgrad als die Carnot-Maschine. Zum Beweis nehmen wir an, es gäbe eine Maschine mit einem Wirkungsgrad η, der größer ist als der einer Carnot Maschine. Dann können wir mit dieser eine Carnot Maschine als Wärmepumpe betreiben. Dies würde bedeuten, dass ohne Zufuhr äußerer Arbeit Wärme von der tieferen Temperatur T1 zur höheren T2 fließt. Dies steht aber im Widerspruch zum 2. Hauptsatz. Eine Konsequenz des Theorems ist, dass der Wirkungsgrad der Carnot'schen Maschine eine universale Funktion der Temperaturen der Reservoire ist ηc = f(T1, T2). Dies eröffnet die Möglichkeit, durch einen Carnot'schen Kreisprozess die Temperatur zu definieren. Die so definierte Skala wird als Kelvin-Skala bezeichnet. T1 |Q1| := 1 – η = c T2 |Q2| . Es ist eine Übungsaufgabe zu zeigen, dass sie mit der idealen-Gas-Temperatur Skala übereinstimmt. Q2 Q1 Für reversibel arbeitende Carnot-Maschinen gilt also T + T = 0. Hier gilt die Konvention, 2 1 den Wärmetransport von der Maschine aus zu messen, d.h. bei dem oben beschriebenen Kreis prozess ist Q2 > 0 und Q1 < 0. Dies kann für beliebige reversible Kreisprozesse verallgemeinert

13 werden, für die gilt

∫

P

δQ = 0. T

Dazu müssen wir uns nur klar machen, dass jeder reversible Kreisprozess als Summe von CarnotProzessen, gekoppelt an verschiedene Reservoire mit verschiedenen Temperaturen, aufgebaut werden kann, wie in der Skizze rechts angedeutet.

V Irreversible Maschine haben einen schlechteren Wirkungsgrad (z.B. einen höheren Wärmeverlust; d.h. die ans kalte Reservoir abgeführte Wärme |Q1| wird größer). Dann gilt 1 – |Q1|/|Q2| = η ≤ ηc = 1 – T1/T2. Bei einem allgemeinen Kreisprozess gilt daher das Clausius'sche Theorem:

∫

δQ ≤0 T

für irreversible Kreisprozesse reversible

Carnot Prozess im S-T-Diagramm.

1.4

Die Entropie

Dies führt uns zur Definition der Entropie. Für reversible Prozesse definieren wir δQ dS := T | reversibel

A δQ

oder S(A) – S(B) = ⌠ ⌡

T

.

B revers.

Für reversible Prozesse gilt

∫

δQ = 0 , d.h. T

größe. Dagegen gilt für irreversible Prozesse

∫ dS = 0 . Damit ist die Entropie eine ZustandsA δQ A δQ ≤ ⌠ ⌠ ⌡ T ⌡ T B B irrever.

revers.

.

14 Zum Beweis können wir den irreversiblen Weg B → A und den A δQ B δQ reversiblen Weg A → B, für den gilt ⌠ T = – ⌠ T , ⌡ ⌡ B A revers.

δQ T

A

revers.

δQ ≤ 0 zusammen ∫ zu einem irreversiblen Kreisprozess mit T irrever. setzen. Im allgemeinen gilt also

dS ≥

irreversibel

reversibel

B

für irreversible Prozesse. reversible

Für abgeschlossene Systeme ist δQ = 0, also gilt für alle Prozesse dS ≥ 0, konsistent mit dem 2. Hauptsatz. Im Gleichgewicht gilt dS = 0. D.h. Die Entropie S ist im Gleichgewicht maximal. Beispiele: Expansion eines idealen Gases. f Bei einem idealen Gas gilt für die innere Energie (siehe Übungen): U = U(T) = 2 N k T a) Zunächst betrachten wir eine reversible, isotherme Expansion V1 → V2 . T = const ⇒ dU = 0 = δQ – P dV V2 V2 ∆Q 1 ⇒ ∆SGas = T = T ⌠ ⌡ P dV = N k ln V1 V1 Die gesamte Entropie bleibt konstant ∆SGesamt = 0. Also gilt ∆SReservoir = – ∆SGas. b) Als nächstes betrachten wir eine freie Expansion V1 → V2 nach einem plötzlichen Entfernen einer Trennwand (Joule'sches Experiment). Hier gilt ∆Q = 0 (plötzlicher Übergang) und ∆W = 0 (keine Arbeit geleistet) ⇒ ∆U = 0 ⇔ T = const Der Endzustand ist derselbe wie bei a). Da S eine Zustandsgröße ist, folgt

V2 ∆SGas = N k ln V . 1

Wegen ∆Q = 0 gilt ∆SReservoir = 0. D.h. die Gesamtentropie nimmt zu, ∆SGesamt > 0.

15 c) Ein Beispiel für eine nichtideale Maschine bildet der folgende nichtreversible Kreisprozess. Zwischen a und b wird die Maschine an das ReserT voir mit der Temperatur T2 nicht perfekt angekoppelt – d.h. T ≤ T2 . Sie nimmt dabei die Wärme b – – Q2 = ⌡ ⌠ T dS = (S2 – S1) T 2 , wobei T 2 ≤ T2 a auf. Zwischen b und a, wenn die Maschine nicht perfekt an das Reservoir mit der Temperatur T1 (also T ≥ T1) gekoppelt ist, gibt sie a – – Q1 = ⌠ ⌡ T dS = (S1 – S2) T 1 , mit T 1 ≥ T1 b ab. Der Wirkungsgrad Q1+Q2 – – η= Q = 1 – T 1/ T 2 ≤ 1 – T1/T2 = ηC 2

|Q 2 |

T _2 T2 _

T1 T1

4.

2.

a

b

|Q1 | S

S

1

2

S

ist also kleiner als der einer Carnot-Maschine zwischen Reservoiren mit Temperaturen T1 und T2.

1.5

Fundamentale Relation der Thermodynamik

Die Entropie S hängt nur von extensiven Variablen ab, d.h. S(U,V,N), und dS ist (bei reversiblen Prozessen) ein vollständiges Differential. Aus den Hauptsätzen folgt dS ≥

1 P µ dU + dV − dN T T T

für

irreversible Prozesse reversible

Extremaleigenschaft: Im Gleichgewicht gilt dS = 0, aber im allgemeinen dS≥ 0. Daraus folgt, dass bei festem U,V,N im Gleichgewicht S(U,V,N) maximal ist. Die konjugierten Variablen bezgl. S sind U und

1  ∂S  P = ∂U , V und T = Τ  V,N

 ∂S  ∂V  

U,N

µ  ∂S  , N und T = – ∂N  

S,V

S, U, V und N sind alles extensive Größen ⇒ S(λU,λV,λN) = λS(U,V,N). Diese Bedingung legt die Integrationskonstanten fest. Daher gilt

und

1 P µ S= T U + T V– T N

Euler Gleichung

0 = S dT – V dP + N dµ

Gibbs-Duhem Relation .

16

1.6

Thermodynamische Potenziale

1. Die innere Energie U hängt nur von extensiven Variablen ab U(S,V,N). dU ist ein vollständiges Differential. Umschreiben der oben angeschriebenen ‚fundamentalen Relation’ liefert die Gibbs'sche Fundamentalform irreversible dU ≤ T dS – P dV + µ dN für reversible Prozesse . Die Euler Gleichung lautet U = TS – PV + µN. Die konjugierten Variablen bezüglich U sind ∂U ∂U , V und P = – ∂V , N und chemisches Potential S und Τ =  ∂S    V,N   S,N

∂U µ = ∂N .   S,V

Da dU ein vollständiges Differential ist, folgen die Maxwell-Relationen  ∂T  ∂P = – ∂S , ∂V   S,N   V,N

∂µ  ∂T  = ∂S ∂N   S,V   V,N

,

 ∂µ   ∂P  – ∂N = ∂V .   S,V   S,N

Minimaleigenschaft: Im Gleichgewicht gilt dU = 0, aber im Allgemeinen gilt dU ≤ 0. Daraus folgt, dass bei festem S,V,N im Gleichgewicht U(S,V,N) minimal ist. Die innere Energie ist das relevante Potenzial für abgeschlossene Systeme, wo Entropie, Volumen und Teilchenzahl fest sind. Im physikalischen Experiment sind oft andere Variablen kontrolliert. Dann ist es angebracht, durch Legendre-Transformationen andere thermodynamische Potenziale einzuführen. 2. Helmholtz freie Energie: Wenn Volumen, Temperatur und Teilchenzahl kontrolliert sind, ist es zweckmäßig, die Helmholtz freie Energie F(T,V,N) zu betrachten F(T,V,N) ≡ U – T S = – P V + µ N dF ≤ –S dT – P dV + µ dN . Konjugierte Variablen bezüglich F sind ∂F  ∂F  T und S(T,V,N) = –∂T , V und P = –∂V ,   V,N   T,N

 ∂F  N und µ = ∂N .   T,V

Es gelten die Maxwell Relationen  ∂S  ∂P =  , ∂V   T,N ∂T V,N

∂µ  ∂S  = –∂T , ∂N   T,V   V,N

 ∂µ   ∂P  = –∂V ∂N   T,V   T,N

17 F ist minimal für ein System im Gleichgewicht mit festem T, V, N. Weitere thermodynamische Potenziale mit analogen Maxwell-Relationen und Minimaleigenschaften sind 3. Enthalpie. Sie ist geeignet für Situationen, wo statt dem Volumen der Druck kontrolliert ist. H(S,P,N) ≡ U + P V

=TS+µN

dH ≤ T dS + V dP + µ dN . 4. Gibbs freie Energie oder freie Enthalpie. Sie beschreibt typische Situation im Chemielabor, wo Druck, Temperatur und Teilchenzahl kontrolliert sind. G(T,P,N) ≡ F + P V = H – T S = µ N dG ≤ –S dT + V dP + µ dN . 5. Großkanonisches Potenzial Dieses Potenzial beschreibt Situationen, wo nicht nur Wärme sondern auch Teilchen mit einem Reservoir ausgetauscht werden. Ω(T,V,µ) ≡ F – µ Ν = – P V dΩ ≤ –S dT – P dV – N dµ . Konjugierte Variablen bzgl. Ω sind ∂Ω T und S = – ∂T    V,µ

,

∂Ω V und P = –∂V   T,µ

,

∂Ω µ und N = –   ∂µ  T,V

∂S ∂N =  ∂T  ∂µ   T,V   V,µ

,

∂P ∂N = ∂V ∂µ   T,V   T,µ

Die Maxwell Relationen sind  ∂S  ∂P ∂V = ∂T   T,µ   V,µ

,

Ω ist minimal für ein System mit gegebenem T, V, µ.

1.7

Response-Funktionen (lineare Antwort)

Die Wärmekapazität verknüpft die zugeführte Wärmemenge δQ mit der Temperaturänderung dT. Zwei Relationen erscheinen möglich C dT = δQ oder C dT = T dS. Eine sinnvolle Definition ist aber nur möglich für reversible Prozesse. Also lautet die Definition

18  ∂S  C x := T    ∂T  x,N

,

x = V oder P

Entweder kann das Volumen (x = V) oder der Druck (x = P) festgehalten werden. Für V = const gilt:

∂F S = –∂T ⇒   V,N

 ∂2 F  CV = –T  2 ∂T  V,N

Für P = const gilt:

∂G S = – ∂T  ⇒   P,N

∂2G Cp = –T  2   ∂T  P,N

∂U Beachte: bei konstantem Volumen gilt auch CV =  ∂T  , aber bei konstantem Druck gilt die   V,N ∂U analoge Relation nicht, d.h. CP ≠  ∂T  .   P,N Die Kompressibilität ist

1 ∂V κy ≡ – V  ∂P    y,N

Der thermische Ausdehnung ist

1 ∂V α ≡ V  ∂T   

,

y = T oder S .

. P,N

Die verschiedenen Response-Funktionen hängen zusammen. Unter Verwendung der Relationen zwischen Ableitungen von Kap. 1.0 sowie einer Maxwell Relation finden wir (N ist fest): ∂S ∂S  ∂S  CP = T ∂T = T ∂T + ∂V  P  V  T d.h.

∂V   ∂S  ∂V  ∂T   = CV + T ∂V  ∂T   P  T P

2 1 ∂V ∂P ∂V CP – CV = T  ∂T  ∂T = – T  ∂T  (∂V/∂P)  P V  P T

=TV

α2 . κT

Zum Beispiel gilt für ein ideales Gas: α = 1/T, κT = 1/P und CP – CV = N k. Eine weitere nützliche Relation verknüpft die Abhängigkeit der Teilchenzahl vom chemischen N2 ∂N Potential und die isotherme Kompressibilität   = V κT .  ∂µ  ∂Ν Bew.: Die Ableitung erfüllt    ∂µ 

∂Ν =  ∂P    T,V

∂P ∂µ

∂Ν = ∂V   T,V

∂P ∂µ T,V

T,V

. Mit Hilfe der Maxwell Relation T,V

∂Ν drücken wir den zweiten Term durch die mittlere Dichte ∂V   T,µ

∂Ν Den ersten Term schreiben wir mit  ∂P   

 ∂P  ∂V T,V

T,P

∂V ∂N T,N

∂Ν  ∂µ 

∂Ν = ∂V  

∂Ν = –1 um als  ∂P    T,P

Mit der Definition der isothermen Kompressibilität folgt 

T,V

T,µ

∂V = – n  ∂P 



T,V

= n2 V κT.

= n aus.



. T,N

19

1.8 Kontaktvariablen und Stabilität Kontaktvariablen : Wir betrachten 2 Teilsysteme A und B getrennt durch eine thermisch leitende, bewegliche, durchlässige Wand.

U = UA + UB = const V = VA + VB = const N = NA + NB = const S = SA + SB ⇒



dUA = – dUB … …

 ∂SA   ∂SB   ∂SA  dUA + ∂U  dUB + ∂V  dVA + ... dS = ∂U   A VA,NA  B VB,NB  A UA,NA µA µB PA PB 1 1 = T – T  dUA + T – T  dVA – T – T  dNA B B B  A  A  A

Im Gleichgewicht ist S maximal, dS = 0. D.h., es muss gelten TA = TB ⇔ Bei Wärmeaustausch sind im Gleichgewicht die Temperaturen gleich. PA = PB ⇔ Bei Volumenaustausch sind im Gleichgewicht die Drücke gleich. µA = µB ⇔ Bei Teilchenaustausch sind im Gl. die chemischen Potentiale gleich. Der Austausch einer extensiven Größe zwischen zwei Teilsystemen führt dazu, dass im Gleichgewicht die konjugierte (Kontakt-) Variable in beiden Teilsystemen angeglichen ist. 2. Ordnung: Bei Austausch von innerer Energie gilt in 2. Ordnung am Maximum d (2)S =

∂ 2 Si ∂ Ti 1 1 2 2 = − ∑ ( dUi ) ∑ 2 ( dU i ) 2 i=A,B ∂Ui 2 i=A,B ∂Ui (2)

Da im Gleichgewicht S maximal ist, muss d

S ≤ 0 gelten. Dies erfordert:

∂U CV = ∂T ≥ 0 . Konsequenz:

F

 ∂2 F  ∂S T  2 = – T ∂T = – CV ≤ 0  V ∂T  V ⇒ die innere Energie F(T,V) ist eine konkave Funktion von T.

T

20 Analog folgt aus den Extremaleigenschaften von F(T,V), dass die Helmholtz freie Energie eine konvexe Funktion von V ist. D.h.

1 1 κT = V 2 ≥0 (∂ F/∂V2)T,N

.

1 ∂2G 1 ∂V Ähnlich gilt V  2  = V  ∂P  = – κT ≤ 0, d.h. G(T,P) ist eine konkave Funktion von P.   T,N  ∂P  T,N Beispiel (siehe Übungen): Beim van der Waals Gas ist die freie Energie erst nach der MaxwellKonstruktion eine konkave Funktion.

1.9

Mischungsentropie und Gibbs'sches Paradox

Die Entropie eines idealen Gases ist V U f/2 S(U,V,N) = N s0 + N k ln [N (N)

]

.

Zum Beweis zeigen wir, dass dieser Ausdruck mit (∂S/∂V) U,N = P/T die thermische ideale-Gas f Gleichung PV = N k T liefert, während aus (∂S/∂U) V,N = 1/T die Relation U = 2 N k T und schließlich die kalorische ideale-Gas Gleichung folgt. Offensichtlich ist die Entropie eine extensive Größe und erfüllt S(λU,λV,λN) = λS(U,V,N). Bei einer Volumenänderung V→ V' ändert V' sich die Entropie also um ∆S = N k ln V . Wir betrachten nun 2 verschiedene Gase N1, N2. Am Anfang sind sie in getrennten Behältern V1, V2. Nach Entfernen der Trennwand ist V = V1 + V2. Die Entropie-

x

x

V1

x x

änderung ist die Mischungsentropie

x

x x x x

x

V V ∆S = N1 k ln V + N2 k ln V > 0 1 2

x x

x x

x

o

V2

o

x

x o

o

o o

o o o

o

o

o

o o o

x x

o

o

o o o

Wenn V1 und V2 nun aber dasselbe Gas (also ununterscheidbare Teilchen) enthalten, darf sich bei gleicher Ausgangstemperatur und -druck, d.h. T1 = T2 und P1 = P2, beim Entfernen der Wand nichts ändern. In der Tat finden wir mit oben angegebener Formel, dass die Mischungsentropie bei gleichen Teilchen verschwindet. Mit N = N1 + N2, V = V1 + V2, U = U1 + U2 und bei gleichgewähltem Anfangsbedingungen V1/N1 = V2/N2 = V/N, U1/N1 = U2/N2 = U/N gilt V U f/2 ∆S = N s0 + N ln [N (N) =0.

V

U

V

U

] – N1 s0 – N1 ln [N11 (N11) f/2 ] – N2 s0 – N2 ln [N22 (N22) f/2 ]

21 Gibbs hatte auf dieses Paradox hingewiesen. In der klassischen Physik darf es keinen Unterschied machen, ob wir unterscheidbare oder ununterscheidbare Teilchen betrachten. Erst in der Quantenmechanik lernen wir die Besonderheit ununterscheidbarer Teilchen kennen. Die N! Zustände, die sich durch Permutation von N ununterscheidbaren Teilchen ergeben, sind (abgesehen von möglichen Vorzeichenwechseln der Vielteilchenwellenfunktion) gleich. Dies ist in dem oben angegebenen Ausdruck für S berücksichtigt. (Bemerkung: In verschiedenen Textbüchern wird das Paradox aufbauend auf einem einfacheren Ausdruck für die Entropie angegeben, der aber nicht extensiv ist, diskutiert.)

22

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität) 23

2.

Grundbegriffe der Statistik

2.1

Elementare Begriffe

Im Folgenden betrachten wir eine oder mehrere stochastische Variablen X oder auch stochastische Funktionen. Eine stochastische Variable kann entweder diskrete Werte {x1, x2, ...} annehmen (z.B. die Zahl der Punkte bei 3 × Würfeln) oder kontinuierliche Werte {x} (z.B. die Koordinate eines Teilchens). Die statistischen Eigenschaften von X sind vollständig beschrieben durch die Wahrscheinlichkeitsverteilung oder Verteilungsfunktion ρ. Sie erfüllt für diskrete Werte

kontinuierliche Werte von X

• Positivität

ρi ≥ 0

ρ(x) ≥ 0

• Norm



∫ dx

ρi = 1

i

ρ(x) = 1 .

Damit finden wir: = ∑ xi ρi

• Mittelwert

= ∫ dx x ρ(x)

i

• n-tes Moment

= ∑ xin ρi

• Standardabweichung

i σ = [ – 2]1/2

= ∫ dx xn ρ(x) und Varianz = σ2

• Die charakteristische Funktion ist φ(k) = = ρ(x) = φ(k) =

∫ dx eikx ρ(x) . Die Umkehrung lautet

dk

∫ 2π e–ikx φ(k) . Die charakteristische Funktion kann nach den Momenten ∞

∑ n=0

(ik)n n n! entwickelt und so aus den Momenten die Verteilungsfunktion bestimmt

werden. Umgekehrt lassen sich aus der charakteristischen Funktion die Momente bestimmen 1 dn φ(k) = n . k=0 i dkn

|

• Kumulanten Entwicklung und Kumulanten-erzeugende Funktion ∞ (ik)n φ(k) = exp{ ∑ n! Cn(X)} = exp S n=1

mit Cn(X) =

1 dn S k=0 in d k n

|

Der Vergleich (nach Entwickeln) liefert die Relation zwischen Kumulanten und Momenten C1(X) = ; C2(X) = σ2

; C3(X) = – 3 + 2 3 ; …

24 Die Kumulanten-Entwicklung konvergiert i.a. schneller als die nach Momenten. Z.B für eine 2 1 1 (x − x ) Gauß-Verteilung ρ(x) = exp[– ] gilt Cn(X) = 0 für n ≥ 3. σ 2π 2 σ2 Mehrere stochastische Variablen Als Beispiel betrachten wir 2 kontinuierliche Variablen X mit möglichen Werten {x} und Y mit den Werten {y}. Im Produktraum X × Y sind die möglichen Werte {(x,y)}. Es gilt

∫ dx ∫ dy ρX×Y (x,y) = 1



Gemeinsame Verteilungsfunktion ρX×Y (x,y) ≥ 0 , normiert



Momente



reduzierte Verteilungsfunktion ρX(x) = ∫ dy ρX×Y (x,y)



Kovarianz:

cov (X,Y) ≡



Korrelation:

cor (X,Y) ≡

= ∫ dx ∫ dy xn ym ρX×Y (x,y)

cov (X,Y) σxσy

Unabhängige Variablen Wenn X und Y unabhängig sind, faktorisiert die gemeinsame Verteilungsfunktion, ρX×Y (x,y) = ρX(x) ρY(y) . Stochastische Funktion Als Beispiel betrachten wir eine stochastische zeitabhängig Funktion der Zeit X(t). Hier interessiert die •

2.2

Autokorrelationsfunktion

f(t,t') = . Diese hängt mit der spektralen Dichte (power spectrum) zusammen, die wir nun definieren: Wir betrachten die Fourier-Transformierte δX(ω) =



∫−∞ d t e–iωt δX(t) und

nur von τ = t – t' ab, und wir können über t = (t + t ') / 2 integrieren, = R coth δ(t–t') ⇒ 2kT

eV eV SI(ω) = 2 R coth → 2 e I 2kT eV  kT

Auch hierzu ein Zahlenbeispiel: mit e = 1,602 10-19 C und k = 1,38 ⋅ 10-23 Joule/K entspricht eine Temperatur von T = 1K einer Energie eV ≈ 1 10-4 [eV] ([eV] ist hier die Energieeinheit Elektronvolt) und entsprechenden Werten der Spannung. •

1/f - Rauschen Hier ist die Frequenzabhängigkeit des Rauschspektrums S(ω) ∝ 1/ω 1/f - Rauschen wird in vielen Systemen bei niederen Frequenzen (ω = 2πf) beobachtet, wo es stärker wird als das weiße thermische Rauschen. In manchen physikalischen Systemen findet man dafür physikalische Erklärungen. Überraschend findet man 1/f - Rauschen aber auch in ganz anderen Fällen, z.B. bei der Analyse der Schwankungen des Wasserstandes des Nils im Altertum, bei klassischer Musik, beim Vogelgesang und so weiter. Eine universelle Erklärung dafür wurde noch nicht gefunden.

32

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität) 33

3.

Stochastische Prozesse

3.1

Elementare Begriffe und Eigenschaften

Definition: Wir betrachten eine kontinuierliche [oder diskrete] stochastische, zeitabhängige Variable X(t) mit Werten {x} [bzw. {x1, x2, ...}] und definieren

• eine Wahrscheinlichkeitsdichte

[bzw. Wahrscheinlichkeit]

[X(t1),x1 ]

(x1,t1)  1 (x1,t1) = (X(t1) – x1)  1 (x1,t1) dx1 ist die Wahrscheinlichkeit, dass X(t) zur Zeit t1 Werte im Intervall x1 ≤ X(t1) ≤ x1+ dx1 annimmt.

• gemeinsame Wahrscheinlichkeitsdichte 2 (x1,t1; x2,t2) = (X(t1) – x1) (X(t2) – x2) 

[X(t1),x1 X(t2),x2 ]

. . n (x1,t1; …; xn,tn) = (X(t1) – x1) … (X(tn) – xn) 

[X(t1),x1 … X(tn),xn ]

• bedingte Wahrscheinlichkeitsdichte 1|1 (x1t1|x2t2) = (X(t2) – x2) 

| X(t )=x 1

= 1

2(x1,t1; x2,t2) 1(x1,t1)

. . k|n (x1,t1; x2,t2; ...; xk,tk | xk+1,tk+1; ...; xk+n,tk+n) = (X(tk+1) – xk+1) ... (X(tk+n) – xk+n)  k+n (x1,t1; ...; xk+n,tk+n)  . k (x1,t1; ...; xk,tk)

| X(t )=x , X(t )=x , ..., X(t )=x 1

1

• Analog gilt für mehrere stochastische Variablen X(1), X(2), ... 1 (x1(1), x1(2), ... x1(n), t1) = (X(1)(t1) – x1(1)) ... (X(n)(t1) – x1(n)) . . Eigenschaften Positivität

n (x1,t1; ...; xn,tn) ≥ 0

2

2

k

k

34 Norm

 dx1 1 (x1,t1) = 1

Reduktion

 dx n n (x1,t1; ...; xn,tn) = n–1 (x1,t1; ...; xn–1,tn–1)

Also gilt

 dx 2 1|1 (x1,t1|x2,t2)

und

 dx1 1 (x1,t1) 1|1 (x1,t1|x2,t2)

Bei gleichen Zeiten

1|1 (x1,t1|x2,t1) =  (x1– x2) .

=1 = 1 (x2,t2)

Zeitabhängige Momente beschreiben Korrelationen zu verschiedenen Zeiten 

X(t1) ... X(tn) =  dx1 ...  dx n x1 ... xn n (x1,t1; ...; xn,tn) .

Stationäre Prozesse Für stationäre Prozesse gilt: n (x1,t1; ...; xn,tn) = n (x1,t1+; ...; xn,tn+) 

= 1 (x1) 1 (x1,t1) 2 (x1,t1; x2,t2) = 2 (x1,t1–t2; x2, 0) .

Klassifizierung von Prozessen: a) rein zufälliger Prozess

t1  t2  ...  t n

(Beispiel: weißes Rauschen, kein Gedächtnis)

Die bedingte Wahrscheinlichkeit für einen Wert xn zur Zeit tn hängt nicht von den Werten zu früheren Zeiten ab n–1|1 (x1,t1; ...; xn–1,tn–1|xn,tn) = 1(xn,tn) 

n (x1,t1;...; xn,tn) = 1 (x1,t1) 1 (x2,t2) ... 1 (xn,tn) .

b) Markov-Prozess (kurzes Gedächtnis: ein Schritt lang) Die bedingte Wahrscheinlichkeit für xn zur Zeit tn hängt nur von xn–1 zur Zeit tn–1 ab, aber nicht von früheren Werten n–1|1 (x1,t1; ... xn–1,tn–1|xn,tn) = 1|1 (xn–1,tn–1|xn,tn) . In diesem Fall hängt 1|1 (x1,t1|x2,t2) mit der Übergangswahrscheinlichkeit zusammen (s.u.)

35 3 (x1,t1; x2,t2; x3,t3) 









= 2(x1,t1; x2,t2) 2|1 (x1,t1;x2,t2|x3,t3) 1 (x1,t1) 1|1 (x1,t1|x2,t2) 1|1 (x2,t2|x3,t3)

 dx 2 …  2 (x1,t1; x3,t3) = 1 (x1,t1)  dx 2 1|1 (x1,t1|x2,t2) 1|1 (x2,t2|x3,t3) . 2 (x1,t1; x3,t3) = 1 (x1,t1) 1|1 (x1,t1|x3,t3) .

Andererseits gilt

Der Vergleich liefert die Chapman-Kolmogorov-Gleichung 1|1 (x1,t1|x3,t3) =  dx 2 1|1 (x1,t1|x2,t2) 1|1(x2,t2|x3,t3) . Die bedingte Wahrscheinlichkeit für einen Übergang zwischen x1 zur Zeit t1 und x3 zur Zeit t3 kann zerlegt werden in einen Übergang zwischen x1 und allen möglichen x2, gefolgt von einem Übergang zwischen x2 und x3. c) allgemeine Prozesse

(längeres Gedächtnis)

Hier können wir nichts weiter sagen, ohne den Prozess weiter zu spezifizieren.

3.2

Die master-Gleichung

Markov-Prozesse (kurzes Gedächtnis) sind durch 1(x,t)  (x,t) und 1|1(x,t | x',t') charakterisiert. Wir betrachten daher ∂ ∂t (x,t) =

lim Δt  0

ρ(x,t  Δt)  ρ(x,t) Δt

1 =  dx1 (x1,t) lim [1|1 (x1,t | x,t+t)  1|1 (x1,t | x,t)] Δt  0 Δt

Die zweite Zeile haben wir mit (x,t+t) =

 dx1 (x1,t) 1|1 (x1,t | x,t+t) umgeschrieben. Als

nächstes entwickeln wir 1|1(x1,t | x,t+t) in t. Diese Entwicklung muss aber sicherstellen, dass die Norm erhalten bleibt,  dx 1|1 (x1,t | x,t + ) = 1 . D.h. 1|1 (x1,t | x,t + t) = (x1 – x) [1 – t  dx 2 Wt (x1, x2) ] + t Wt (x1, x) . Der Entwicklungskoeffizient Wt (x1, x2) hat die Bedeutung einer Übergangsrate (Übergangswahrscheinlichkeit pro Zeiteinheit) von x1 nach x2. Damit wird

36  (x,t) =  dx1 (x1,t) [Wt(x1, x) –  dx 2 Wt(x1, x2) (x1 – x)] t



 (x,t) =  dx' [(x',t) Wt(x',x) – (x,t) Wt(x,x')] . t



Die Gleichung, die die Zeitentwicklung der Wahrscheinlichkeit aufgrund der Übergänge beschreibt, wird als master Gleichung bezeichnet. Die oben gegebene Form bezieht sich auf kontinuierlich variierende, stochastische Variablen. Für diskrete Variablen gilt analog  (xi,t) =  t j

[(xj,t) Wt(xj, xi) – (xi,t) Wt(xi, xj)] .

1. Beispiel: Hüpfen auf einem Gitter Wir betrachten ein Teilchen, das in einem 1-dimensionalen Gitter (Gitterplätze j= 0, ±1, ±2,…) mit den Raten l bzw. r nach links bzw. rechts hüpfen kann, d.h. Wt(j, j’) = l j’,j-1 + r j’,j+1. Anfangs sei das Teilchen am Ursprung, (j,0) = j,0. Gesucht ist die Wahrscheinlichkeit (j,t), es zur Zeit t am Ort j zu finden, sowie die verschiedenen Momente. Die zugehörige masterGleichung lautet 



 (j,t) = r (j–1,t) + l (j+1,t) – (l + r) (j,t) . t

Es bietet sich an, zunächst die charakteristische Funktion (k,t) = Für sie gilt 

 j ρ(j,t) eik j

zu bestimmen.

 (k,t) = [r ( eik – 1) + l ( eik )] (k,t) mit der Anfangsbedingung (k,0) = 1. t

Die Lösung lautet (k,t) = exp{[r ( eik – 1) + l ( eik )] t}. Durch Ableiten erhalten wir jn =

|

1 dn 2 2 n n (k,t) k=0 also z.B. = (r – l) t und – = (l + r) t i dk

Die Wahrscheinlichkeitsverteilung ist (j,t) =

π

dk

-π 2π e–ikj

(k,t). (Die Beschränkung des k-

Integrationsbereichs ergibt sich, weil wir eine Fourier-Reihe betrachten.) Zur einfacheren Auswertung betrachten wir den Sonderfall l = r =  Dann gilt k(t) = exp[2 t (cos k –1)]. 2

Für lange Zeiten, t  1, können wir entwickeln k(t) ≈ exp(–t k ) und erhalten für (j,t) eine Gauß-Verteilung 

(j,t) ≈



2 dk - 2π e–tk –ikj =

 j2  1 exp   .  4 t 4πt  

37 Für kurze Zeiten, t  1, gilt dagegen das plausible Ergebnis (j,t) ≈

π

dk

 -π 2π

[1+ 2 t (cos k –1)] e–ikj = (1– 2 t)j,0 + tj,1 + tj,-1 .

2. Beispiel: Geburt und Tod Wir betrachten eine Population von n Bakterien zur Zeit t mit Sterberate (pro Bakterium)  und Geburtsrate . Dann entwickelt sich die Wahrscheinlichkeit, zur Zeit t gerade n Bakterien zu finden, entsprechend 



 (n,t) = (n–1) (n–1,t) + (n+1) (n+1,t) – (n + n) (n,t) . t

Die Lösung (wieder über die charakteristische Funktion) findet man in dem Buch von Reichl (Kap. 6.F): n(t) = n(t=0)e(–)t . 3. Beispiel: Atome im klassischen Strahlungsfeld Wir betrachten ein Ensemble wechselwirkungsfreier Atome H0|n = En|n, mit Eigenzuständen |n und Energieniveaus En. Wir bezeichnen mit (n,t) die Wahrscheinlichkeit, ein Atom zur Zeit im Zustand |n zu finden. Wir betrachten zunächst Übergänge, die durch ein extern angelegtes, klassisches Feld induziert werden (eine oder viele Frequenzen) 

H = H0 + H1 , H1 = V cos(t) oder H1 = 2  dω V() cos(t) .

Die Störung H1 führt zu Übergängen zwischen den Zuständen n und n'. Aus der Goldenen Regel (zeitabhängige Störungstheorie) folgt die Emissions- bzw. Absorptionsrate 

Wnn' = 2π |n'| V() |n|2 (En' – En   ) . 

Damit lautet die Mastergleichung für die Wahrscheinlichkeit, ein Atom im Zustand n zu finden, ∂ ∂t (n,t) = 

[(n',t) W n'n – (n,t) W nn'] .

n'

3.3

Detailliertes Gleichgewicht

∂ Im Gleichgewicht gilt ∂t eq(x,t) = 0 also W(x',x) eq(x') = W(x,x') eq(x). Für Systeme, die durch eine Energie charakterisiert sind, gilt weiterhin (s. später) eq(x)  exp[–E(x)/kT]. Daraus

38 folgt die Bedingung des detaillierten Gleichgewichts: das Verhältnis der Übergangsraten ist durch den Energieunterschied zwischen Anfangs- und Endzustand festgelegt  W(x ', x)  E(x)  E(x ')   exp    . W(x, x ') kT 

Atom und Strahlungsfeld im thermischen Gleichgewicht Für ein Atom im angelegten klassischen Feld (siehe voriges Kapitel), also nicht im Gleichgewicht, gilt die Relation des detaillierten Gleichgewichts nicht. Sie muss aber gelten, wenn das Atom und Strahlungsfeld im thermischen Gleichgewicht sind. Dies können wir explizit zeigen. Dazu müssen wir aber den Quantencharakter des Strahlungsfeldes und die Übergänge darin explizit berücksichtigen. Der ungestörte Hamilton-Operator ist nun H0 = Hatom + Hem mit Hatom|n = En|n. Der Hamilton-Operator des Strahlungsfelds, Hem =

+

ω (a  ω

a+ ½), wird

+

ausgedrückt durch die Erzeuger und Vernichter, a und a, der -Moden (Photonen) des elektromagnetischen Feldes mit Vektorpotenzial A(r,t) =  A ω (r ) e–it. Die Eigenzustände |n,{N} ω

von H0 sind daher charakterisiert durch den Zustand des Atoms n und die Besetzungszahlen N des elektromagnetischen Feldes bei den Frequenzen . Für die Kopplung von Atom und Strahlungsfeld genügt es hier anzunehmen, dass H1 =

 ω

+ B a eit + B+ ae–it .

Die Operatoren B, B+ beschreiben die Kopplung von A an das Atom – mehr brauchen wir im Moment nicht zu wissen. Wichtig ist, dass die Übergänge gleichzeitig im Atom und im Strahlungsfeld stattfinden. D.h. Anfangs- und Endzustände sind |i = |ni,Ni und |f = |nf,Nfwobei wir nur die Besetzungszahlen N des elektromagnetischen Feldes bei der relevanten Frequenz mit    = Enf – Eni betrachten müssen. Das Matrixelement in der Goldenen Regel ist nun 

  n |B|n   N |a + |N  für Emission eines Photons  i f ω i f|H1|i =  f .    n f |B |n i   N f |a ω |Ni  für Absorption

In die Übergangsrate für die Emission geht also | N |a ω+ |N |2   N |a ω |N  N |a ω+ |N  ein, f i i f f i für die Absorption dagegen | N |a ω |N |2   N |a ω |N  N |a ω |N  . f i i f f i Wenn wir uns nur für die Zustände des Atoms interessieren, können wir nun die Information über das Strahlungsfeld eliminieren. Dies geschieht in zwei Schritten: 1.) Wir summieren über alle

39 möglichen Endzustände Nf des Strahlungsfeldes (wovon ohnehin nur der passende mit einem Photon mehr oder weniger beiträgt) und erhalten



| N |a ω+ |N |2   N |a ωa ω+ |N   1  N  f i i i i N

für Emission

| N |a ω |N |2   N |a ω+ a ω |N   N  f i i i i N

für Absorption.

f

f

2.) wenn wir das System im thermischen Gleichgewicht betrachten, ersetzen wir Ni durch den thermischen Erwartungswert Ni  N(), d.h. durch die Bose-Funktion (siehe später) –1

N() = [exp(  /kT) – 1]

.

D.h. die Absorptionsrate ist proportional zu N(), die Emissionsrate proportional zu 1+N(). Letztere erfolgt aufgrund der spontanen (1) oder stimulierten Emission ( N()). Im thermischen Gleichgewicht erfüllt das Verhältnis der so berechneten Übergangsraten also Wnn'/Wn'n = N()/[1 + N()]. Nach Einsetzen der Bose-Funktion, finden wir in der Tat, dass detailliertes Gleichgewicht gilt, 

Wnn'/Wn'n = exp(–  /kT)

,

mit   = En' – En .

Im Gegensatz dazu sind bei einem klassischen Feld die Absorptions- und Emissionsrate gleich Wnn' = Wn'n. Dies hat zur Folge, dass mehr und mehr Energie in das System der Atome gepumpt wird. Es gibt also keinen stationären Zustand. Um dies zu zeigen, können wir den einfachen Sonderfall Wnn' = const annehmen. Dann ist der betrachtete Prozess äquivalent zum "Hüpfen auf dem Gitter" allerdings mit der Nebenbedingung n ≥ 0. Es ist leicht zu zeigen, dass in diesem Fall die mittlere Energie E(t) =  n E n (n,t) mit der Zeit ständig zunimmt. Dies kann in getriebenen Systemen (für nicht zu lange Zeiten) physikalisch korrekt sein z.B. beim Pumpen mit einem Laser. Das klassische Feld ist dem oben beschriebenen Fall als Grenzfall enthalten, wenn wir annehmen, dass das Bose-System eine unendlich hohe Temperatur T∞ hat.

3.4

Die Fokker-Planck-Gleichung

In diesem Kapitel betrachten wir eine stochastische Variable X, die kontinuierliche Werte annimmt und sich nur in kleinen Schritten ändert. Dies erlaubt es, eine Differentialgleichung in x zu formulieren. Die Übergangsrate Wt(x',x) und Wahrscheinlichkeitsverteilung (x',t) werden nach x'–x entwickelt Wt(x',x)  Wt(x';) ,  = x–x'

40 

(x',t) Wt (x',x)

= (x–,t) Wt (x–; ) ∞ (–1)n ∂n =  n! n n [(x,t) Wt(x;)] . ∂x n=0

Einsetzten in die master-Gleichung liefert die Kramers-Moyal-Entwicklung ∂ ∂ ∂t (x,t) =  dξ (x,t) Wt (x;) –  dξ  ∂x [(x,t) Wt (x;)] ∂2 1 +  dξ  2 [(x,t) Wt (x;)] + ... –  dξ (x,t) Wt (x;–) . ∂x 2



 dξ

Da

Wt (x;) =  dξ Wt (x;–), heben sich der erste und letzte Term weg. Wir vernachlässi-

gen höhere Terme und definieren die Momente der Übergangsrate (n)(x,t)   dξ n Wt (x;) = =

1 lim Δt  0 Δt

 dξ n 1|1 (x,t | x+,t + t)

n 1 X(t + t) – X(t)]  lim X(t)  x Δt  0 Δt

Dann erhalten wir die Fokker-Planck-Gleichung (oder auch Smoluchowskii-Gleichung). 

2 ∂ ∂ (1)(x,t) (x,t)] + 1 ∂ (2) (x,t) = – [  ∂t ∂x 2 ∂x2 [ (x,t)(x,t)] .

Wir können sie verallgemeinern auf mehr Dimensionen und mehr Komponenten (x1, x2, ... xN), z.B. 3-dimensionale Probleme (x, y, z) oder Ort und Geschwindigkeit (x, v) ∂ ∂ ∂2 (1) ({x},t) ({x},t)] + 1 (2)  ( {x},t ) = – [    i 2 ∂xi∂xj [ij ({x},t) ({x},t)] . ∂t ∂xi i i,j Die Momente bezeichnet man als Driftvektor 

i(1) ({x},t) =

1 Xi(t + t) – Xi(t) lim X k (t)  x k  Δt  0 Δt

und Diffusionsmatrix 1 1 1 (2) 2 ij ({x},t) = 2 lim Δt  [Xi(t + t) – Xi(t)] [Xj(t + t) – Xj(t)] X (t)  x   Δt  0 k k Wir definieren eine Wahrscheinlichkeitsflussdichte 1 Ji ({x},t)  i(1)({x},t) ({x},t) – 2



 ∂xj [ij(2)({x},t) ({x},t)] j

.

41 Dann nimmt die Fokker-Planck Gleichung die Form einer Kontinuitätsgleichung für die Wahrscheinlichkeit an, ∂ ∂  +  ∂t ∂xi Ji = 0 . i

Vor der Anwendung der Fokker-Planck-Gleichung müssen wir die Momente bestimmen. Dies wird im folgenden einfachen Beispiel illustriert. Weitere Beispiele ergeben sich aus den Langevin-Gleichungen, die im folgenden Paragraphen vorgestellt werden. Beispiel: Random Walk in einem externem Feld

Pro Zeiteinheit t sei die Wahrscheinlichkeit für einen Schritt nach rechts q, und für einen Schritt nach links 1–q. Dann definieren die Momente (1) =

1 t

X(t+t) – X(t)

X(t)  x

=

a a [q1 + (1–q) (–1)] = (2q–1)  v t t

1 (2) 1 a2 a2 2  = [X(t+t ) – X(t)] = [q1 + (1–q)1] = 2 2t 2t X(t)  x 2t

D

eine mittlere Driftgeschwindigkeit v und Diffusionskonstante D. Damit gilt ∂ ∂ ∂2  (x,t) = – v (x,t) + D (x,t) . ∂t ∂x ∂x2 Die Fokker-Planck-Gleichung reduziert sich hier auf eine Diffusionsgleichung. Deren Lösung dk (k,t) eikx einfach finden. Es gilt lässt sich nach Fourier-Transformation (x,t) =  2 ∂ 2 (k,t) = A exp{–(Dk2+ik v ) t} ∂t (k,t) = – (ik v + Dk ) (k,t)  

  x  v t 2  1 . (x,t) = exp   4Dt 4DT   

Die Konstante A ist durch die Normierungsbedingung (  dx =1) und Anfangsbedingung (x(0) = 0) bestimmt. Die Momente von (x,t) erfüllen x(t) = v t und x(t)2 – x(t)2 = 2 D t .

42

3.5

Die Langevin-Gleichung

Eine weitere Beschreibung stochastischer Prozesse bietet die Langevin-Gleichung. Beispiele sind: 3.5.1 Brown'sche Bewegung ohne Felder Die Brown'sche Bewegung beschreibt ein Teilchen, das sich in einem Medium vieler kleiner Teilchen bewegt, die verantwortlich sind für die Dämpfung mit Konstante  und entsprechendem Rauschen. Die Geschwindigkeit v erfüllt die Langevin Gleichung  + mγx = ξ(t) . mx

Sie enthält (t), eine (rein zufällige) stochastische Kraft, das ‘Rauschen‘, das im Mittel verschwindet, verursacht durch Stöße mit den anderen Teilchen. Bei der Brown'schen Bewegung nimmt man meist an, dass das Rauschen -korreliert ist,  ξ(t)  0 ,

 ξ(t)ξ(t' )  q δ(t  t' ) .

D.h. die Spektraldichte, definiert durch S()  2



 d(t  t ') ei(t–t') (t)(t')

=2q ,

ist unabhängig von der Frequenz. Dies bezeichnet man als “weißes Rauschen”. Darüber hinaus wird gewöhnlich angenommen, dass (t) Gauß-verteilt ist. Das heißt, die Verteilungsfunktion für die Funktionen (t) ist ({(t)})  exp[–

1 dt 2(t)] . 2q 

(Zur Interpretation siehe Übungsblatt und unten.) Die höheren Momente erfüllen dann (t1)(t2)(t3)

=0

(t1)(t2)(t3)(t4) = q2 [(t1–t2)(t3–t4) + (t1–t3)(t2–t4) + (t1–t4)(t2–t3)] . I.A. können bei der Gauß-Verteilung auch Korrelationen zu verschiedenen Zeiten bestehen, ({(t)})  exp[–

1 dt  dt ' (t) g–1(t–t') (t')] .  2

Dann gilt (t) (t') = g(t–t').

43 Zur Erläuterung der Begriffe betrachten wir eine diskrete Version. Wir wählen diskrete Zeiten t1, t2, ... mit Zeitintervallen ti-ti-1 = t, die klein sind im Vergleich zur Reichweite der Korrelationen g(t–t'). D.h. (t) = i ist ungefähr konstant im Intervall ti-t/2 …ti+t/2, und es gilt ({i})  exp[–

1 2 i Aij j] . mit Aij = t g–1(ti–tj)  2 i,j

In dieser diskretisierten Form sieht man leicht, dass i = 0 und i j = Aij-1 . Die Langevin-Gleichung hat die Lösung (Lösung der homogenen Gleichung plus partikuläre Lösung der inhomogenen Gleichung mit Hilfe der Green’schen Funktion) v(t) = v0 e–t +

t

1 dt ' e–(t–t') (t') . m 0 t

t

q 1 ' 2 ' –(t1+t2–t1'–t2')  (t1' – t2') dt1  dt 2 e m2  q = v02 e–(t1+t2) + (e–|t1–t2| – e–(t1+t2)) . 2m2 -1 Für lange Zeiten t1, t2   ist die Korrelationsfunktion unabhängig von den Anfangsbedingun-

v(t1) v(t2) = v02 e–(t1+t2) +

gen, d.h. v(t1) v(t2) =

q e– |t1–t2| 2m2

und

m mq 2 2 v(t)  = 4m2 .

m Im thermischen Gleichgewicht gilt der Gleichverteilungssatz (s. später) Ekin = 2 v(t)2 = 1 2 kT. Der Vergleich zeigt q =2mkT . D.h. die Stärke der Fluktuationen (q) und der Dissipation () hängen zusammen. Dies ist die Aussage des allgemein gültigen Fluktuations-Dissipations-Theorems (siehe Kap. 8). t

Als nächstes bestimmen wir x(t) = x0 +  dt ' v(t') 

 [x(t) – x0]2 =

0

t

t

0

0

 dt '  dt " v(t') v(t") 2

= (v02 –

q (1–e– t) q q q  γt t. ) + 2 2 t–  (1  e ) 2 2 2m   m t   γ 2m 2 γ 3m 2

Der Vergleich mit dem Diffusionsproblem,  [x(t) – x0]2= 2 D t, liefert die Einstein-Relation für die Diffusionskonstante

44 D=

q

kT

= . m 22m2

Die Langevin-Gleichung ist äquivalent zu einer Fokker-Planck Gleichung mit stochastischer Variable v. Für die Momente erhalten wir (am einfachsten durch direkte Integration der Langevin Gleichung über die kurze Zeit t) (1)

lim  Δt  0

=

v(t  t)  v(t)  = – v v(t)  v t

t t 1 (2) () 2 1 1 2 2  = lim 2t  [v(t+ t) – v(t)]  v(t)  v = lim 2t  [–vt +  d m ]  Δt  0 Δt  0 t

=



t t t t 1 lim   d  d ' 12 ()(')t2)) = 2mq 2 = D2 = m kT m Δt  0 2t t t

∂ ∂ ∂2  (v,t) =  [v (v,t)] + kT (v,t) . ∂t ∂v m ∂v2

mv2 Eine stationäre Lösung ist eq(v)  exp (– 2kT ) , wieder in Übereinstimmung mit dem Gleichverteilungssatz.

3.5.2 Brown'sche Bewegung in einem Potenzial U(x) Hier kommt die Kraft hinzu, die vom Potenzial herrührt. D.h. die Langevin-Gleichung ist  + mγx + U(x) = ξ(t) mx

Wir nehmen an, dass das Rauschen unabhängig vom Potenzial und Gauß'sch verteilt ist (t) = 0 , (t)(t') = 2m kT (t–t') . Das Problem hängt nun von zwei Variablen x und v ab 

. U'(x)  v = –  v – m + m

und

.

x = v

.

Für die äquivalente Fokker-Planck Gleichung mit mehreren Variablen benötigen wir x(1) =

x lim   = v x(t)  x; v(t)  v Δt  0 t

45 v lim   = – v – U(x)/m x(t)  x; v(t)  v Δt  0 t 

v=





xx(2) = 0 , xv(2) = 0

,

1 (2) = D2 =  kT  vv 2 m

 ∂ ∂ ∂ U'(x)  ∂2  – v + v +  (x,v,t) . (x,v,t) = + kT  ∂t ∂v  m  m ∂v2  ∂x

Diese Gleichung wird als Kramers oder Klein-Kramers Gleichung bezeichnet. Eine stationäre   mv 2    U(x)  / kT  . Lösung ist eq(v)  exp      2 

3.5.3 Starke Dämpfung Für starke Dämpfung gilt (1) =

. D.h. wir betrachten nur x und seine Momente

x U'(x) lim   =– ; t m X(t)  x Δt  0

1 (2) 2  =

=



mγx + U(x) = ξ(t)

2 1 lim X(t+t) –X(t)]   X(t)  x Δt  0 2t

t  Δt kT 1 1 t  Δt lim dτ   dτ' ()(')t) =  m Δt  0 2t mγ 2 t t

∂ 1 ∂ ∂2  (x,t) = U'(x) + kT   (x,t) . ∂t m ∂x ∂x2

Diese Gleichung wird als Smoluchowskii Gleichung bezeichnet. Eine stationäre Lösung ist eq(x)  exp [– U(x)/kT ].

46

3.6

Thermische Aktivierung (Kramers’ escape rate)

Wir betrachten ein Teilchen, das sich anfangs in einem metastabilen Minimum eines Potenzials U(x) befindet. Die Frage ist, was ist die Rate dafür, dass das Teilchen die Barriere thermisch aktiviert überquert. Wir nehmen hier den Fall starker Dämpfung an, beschrieben durch die SmoluchowskiiGleichung

∂ ∂ ∂t (x,t) = – ∂x J(x,t)



J(x,t) = –

1  ∂ kT –U(x)/kT   U(x)/kT e ρ x t  . e U'(x) + kT ∂x (x,t) = –  m  m  x 

Wir suchen eine Lösung mit konstantem, zeitunabhängigem Wahrscheinlichkeitsstrom J(x,t) = J. Dieser sei klein, so dass (x ≈ xmin) durch die Übergänge wenig beeinflusst ist und stationär bleibt. Durch Integration über x von xmin, der Lage des Minimums, bis x3, einem Punkt weit weg von xmin, so dass (x3)  0, erhalten wir x3

J

 x

kT U(x )/kT kT U(x )/kT e 3 (x3) – eU(xmin)/kT (xmin)]  e min (xmin) . dx eU(x)/kT = – [ m m

min

Weiterhin gilt in der Nähe des Minimums (x  xmin) = (xmin) e–[U(x)–U(xmin)]/kT. D.h. die Wahrscheinlichkeit, das Teilchen nahe xmin (im Bereich x1 ≤ x ≤ x2) zu finden, ist 

x2

ρ =

 x

dx (x,t) = (xmin,t) eU(xmin)/kT

1

x2

x dx e–U(x)/kT . 1

Wenn x1und x2 genügend weit weg von xmin sind, hängt das Integral auf der rechten Seite nicht von x1und x2 ab. Das Verhältnis von J und ρ definiert die Übergangsrate  = J / ρ . Eingesetzt erhalten wir dafür x

x

3 1 m 2 ρ –U(x)/kT dx = = e dx ' eU(x')/kT   kT x J x min 1

47 Die Rate kann also ausgedrückt werden durch zwei Integrale. Der Hauptbeitrag 1 des 1. Integrals kommt von x ≈ xmin: U(x) ≈ Umin + 2 m ω 2 (x – xmin)2 + ... min 1 das 2. Integral von x ≈ xmax : U(x) ≈ Umax – 2 m ω 2 (x – xmax)2 + ... max Dies bedeutet beide Integrale sind Gauß'sch und hängen nur schwach von den Grenzen ab. D.h. (T) =

min max –U/kT e . 2

Die thermisch aktivierte Übergangsrate hängt exponentiell von der Barrierenhöhe und der Temperatur ab. Der Vorfaktor ist spezifisch für den betrachteten Grenzfall starker Dämpfung, der Exponent ist dagegen allgemein gültig. Für allgemeine Stärke der Dämpfung findet man von der Klein-Kramers Gleichung [siehe H.A. Kramers, Physica 7, 284 (1940)] γ 2 /4  ω2max   (T) =

1/2

ωmax

 γ/2

ωmin ΔU/kT e . 2π

Bei tiefen Temperaturen verschwindet die thermische Übergangsrate exponentiell. Bei quantenmechanischen Problemen erwarten wir aber, dass das Teilchen auch durch die Barriere tunneln kann. Auch die Rate für das Quantentunneln hängt exponentiell von der Barrierenhöhe ab. In WKB Näherung gilt x

1 e 7, 2 U dx 2 m[U(x)  U min ] } = exp[– 0  exp{– ] .  x  min min

Den numerischen Faktor 7,2 findet man, wenn das Potenzial gegeben ist durch ein Polynom dritten Grades, U(x) = a x2 – b x3, mit Koeffizienten a und b, die durch ω

3.7

min

und U gegeben sind.

Modell für Dissipation

Bisher haben wir die Langevin-Gleichung nur als Modell postuliert und gezeigt, dass sehr allgemeine Begriffe des thermischen Gleichgewichts wesentliche Einschränkungen liefern. Es ist bemerkenswert und demonstriert die Stärke der statistischen Konzepte, wie viel aus so allgemeinen Bedingungen hergeleitet werden kann. Andererseits bleiben verschiedene Verallgemeinerungen und Fragen, z.B. wie das Konzept der Dissipation auf die Quantenmechanik übertragen werden kann, dabei offen. Ziel dieses Kapitels ist daher zu zeigen, wie die Langevin-Gleichung mit Dämpfung und Rauschen aus einem mikroskopischen Modell hergeleitet werden kann. Die Langevin-Gleichung lautet

48  + mγx + U(x) = ξ(t) mx

mit (t)(t)(t') = 2 m k T (t–t') , und (t) sei Gauß-verteilt. Als Modell bietet sich die Brown'sche Bewegung an: das herausgegriffene Teilchen mit der Koordinate x wechselwirkt (stößt) mit vielen anderen kleineren Teilchen. Konzeptionell ist dieses Modell ansprechend, aber es ist nicht bequem durchformulierbar. Ein anderes und rechnerisch bequemeres Modell besteht darin, das Teilchen (bi-)linear an ein geeignetes Bad harmonischer Oszillatoren anzukoppeln. Das Modell ist beschrieben durch die Hamilton-Funktion H = H0 + HBad p2 H0 = 2m + U(x) 2

Pj

N

HBad =

Mj 2 + 2 j (Xj 

 [ 2Mj

j=1

cj

2 x ) ]. 2 Mjj

Die Verteilung der Frequenzen j (0 ≤ j ≤ c) und die Kopplungsstärken cj definieren eine ‚Spektralfunktion’ 2

N c  j J()  2  (– j) . Mjj j

Behauptung: a) Im Folgenden betrachten wir den Fall, dass N sehr groß ist, N∞, und die Badfrequenzen j dicht liegen (d.h. J() ist eine kontinuierliche Funktion). In diesem Fall beschreibt das Bad-Modell eine allgemeine lineare Dissipation und zugehöriges Rauschen, konsistent mit dem Fluktuations-Dissipations-Theorem. b) Für die spezielle Wahl der spektralen Dichte, J() = m für 0 ≤  ≤ ∞ (d.h. linear in  und die maximale Frequenz des Bades c ist unendlich) reduziert sich das Modell auf eine Langevin-Gleichung mit Geschwindigkeits-proportionaler Dämpfung m γ x und korreliertem Rauschen.

49 Beweis: a) Die Bewegungsgleichungen für das Teilchen und die N Oszillatoren sind cj .. m x + U'(x) –  cj (Xj – x) = 0 M2 j j

j

.. cj Mj X j + Mjj2 (Xj – x) = 0 M2

j = 1, ..., N .

j j

Die Lösungen der Bewegungsgleichungen für die Badkoordinaten (getriebene harmonische Oszillatoren) sind t

cj

Xj(t) =

Mj j

t dt sin [j (t–t')] x(t') + Xj(0)(t) . 0

.

Xj(t0) Die Lösungen der homogenen Gleichung Xj(0)(t) = Xj (t0) cos j(t–t0) + sin j(t–t0) hänj gen von den Anfangsbedingungen des Bades zur Zeit t0 ab. Eingesetzt ergibt dies

..

N

m x + U'(x) +  j

cj2

t

{x(t) – j  dt sin [j (t–t')] x(t')} = (t) t

Mjj2

0

mit N

(t) =  cj Xj(0) (t) . j

Nach einer partiellen Integration, mit x(t0) = 0, finden wir für die geschweifte Klammer t . {...} =  dt' cos [ (t–t')] x (t') . j  t0

Wir verwenden nun cj2

N



N

c j2



t

0

t0

.

2 J(ω) (–j) {...} =  dω dt  cos [ (t–t')] x(t')  M  2 {...} =  dω  2 π ω  j j j M  j

0

j

j

und vertauschen die Reihenfolge der Integrationen

..

mx + m





 dω  dt …. Dann gilt

.

dt  (t–t') x(t') + U'(x) = (t)



mit ∞ 2 J() 1 (t–t') = m  d   cos [(t–t')] (t–t') . 0

50 Hier haben wir t0–∞ gehen lassen. Durch die Wahl der Funktion J() (für N ∞) können wir eine beliebig frequenzabhängige, aber lineare Dämpfung, charakterisiert durch eine allgemeine Response Funktion (t–t') produzieren. Dies wird deutlich im Fourier-Raum, wo gilt – m 2 x() + i m () x() +



 dt eit U'(x) =

() .

Der Term auf der rechten Seite ist ein Rauschterm, da er von den Anfangsbedingungen abhängt, von denen wir annehmen, dass sie zufällig gewählt werden. Es ist sinnvoll anzunehmen, dass

.

Xj(t0) = X j(t0) = 0

.

Xi(t0) Xj(t0)  ij ; Xi(t0) X j(t0) = 0 , ... .

Aus dem klassischen Gleichverteilungssatz, bzw. der quantenmechanischen Verallgemeinerung (siehe später) folgt Mj 2 2 2 j Xj (t0) 







Mj . = 2 X j2(t0) =

1  2 kT, klassisch für kT   j = coth  4 2k T 1  j , quantenmechanisch im Grundzustand  4

 j

 j

 ξ(t)  = 0 

 ξ(t) ξ(t ')  =  cj2 [Xj2(t0) cos j(t–t0) cos j(t'–t0) + j

=

c j2

j M

2 j j

j 2

coth

 j

2kT

2

 X j (t 0 ) Ω 2j

sin j(t–t0) sin j(t'–t0) ]

cos j(t – t')



=

  ω  dω coth   J  ω  cos[ω  t  t '] .  π0  2kT 

Die Spektralfunktion des Rauschens ist also  ω  S() = 2 dt  ξ(t) ξ(0)  eiωt = 2  coth   J  ω  2kT 

für >0.

Dieser Zusammenhang zwischen der Spektralfunktion des Rauschens S() und der Responsefunktion J () entspricht dem allgemeinen Fluktuations-Dissipations-Theorem. b) Wenn wir nun für J() die spezielle Wahl J() = m treffen, finden wir 

51 

(t–t') =



γ  dω cos  (t–t') (t–t') = 2  (t–t') (t–t') =   (t–t') π 

und damit eine Langevin-Gleichung mit der bekannten Geschwindigkeits-proportionalen Dämpfung

.. . d m x + m  x + dx U(x) = (t) . In dem Fall ergibt sich für das Rauschspektrum  ω  S() = 2 m γ ω coth   .  2kT 

Dies reduziert sich im klassischen Grenzfall kT  ω auf das weiße Rauschen S() = 4 m  kT, was bedeutet, dass die Fluktuationen -korreliert sind (t)(t')= 2m kT (t–t') .

Bemerkungen und Ergänzungen: Zur Herleitung der Langevin-Gleichung haben wir angenommen, dass c∞ und N ∞. Wenn die obere Badfrequenz c endlich ist, ist das Rauschen nicht -korreliert, sondern es bestehen Korrelationen auf einer Zeitskala der Ordnung 1/c. Dies kann physikalischen Situationen entsprechen und ist durch die oben angegebenen allgemeinen Ausdrücke beschreibbar. Für endliche Systeme, d.h. endliches N, findet man einen Poincaré Zyklus:

• Jedes endliche System kommt man nach genügend langer Zeit wieder beliebig nahe an den Anfangszustand zurück. Betrachten wir als Beispiel einen Oszillator mit Frequenz 0 gekoppelt an N Oszillatoren mit (kommensurablen) Frequenzen 1, 2, ... N. Dann sind wir zur Zeit tz, die gleich dem kleinsten gemeinsamen Vielfachen aller 1/i ist, wieder genau beim Anfangszustand. Ein endliches Bad kann also nicht Dissipation und Relaxation beschreiben. Dies kann nur im Grenzfall N = ∞ vieler Freiheitsgrade gefunden werden. Allerdings nimmt tz mit zunehmender Zahl von Oszillatoren sehr stark zu (wie eN). Da die Welt endlich ist, können wir also schließen:

• Dissipation ist eine Illusion, der wir uns aber getrost hingeben können, da es sehr lange dauert, bis wir dies als Illusion erkennen.

52 Dissipation in der Quantenmechanik

Das Bad-Modell ist auch geeignet, um Dissipation in eine quantenmechanische Beschreibung einzubeziehen. Dies wurde in einer wichtigen Arbeit von Caldeira und Leggett (A.J. Leggett erhielt den Nobelpreis Physik 2003, allerdings für andere Arbeiten) demonstriert. Dazu muss die oben gegebene Hamilton Funktion als Hamilton Operator interpretiert und das Problem quantenmechanisch weiterbehandelt werden. Die oben angedeutete Quanten-Langevin-Gleichung, d.h. die klassische Bewegungsgleichung (linke Seite) mit Quantenrauschen (auf der rechten Seite) ist dagegen nur in Sonderfällen gültig (z.B. wenn U(x) auch harmonisch ist). Im Allgemeinen ist es inkonsistent, Quanteneffekte nur zum Teil (im Rauschen) mitzunehmen.

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität) 53

4.

Statistische Mechanik

4.1

Gibbs-Ensemble, klassische Liouville-Gleichung und fundamentales Postulat der klassischen statistischen Mechanik

In der klassischen Physik ist der Zustand eines Systems von N Teilchen beschrieben durch 3N Koordinaten q1, ... q3N und 3N Impulse p1, ... p3N, d.h. durch einen Punkt x  (p,q)  (p1, ... p3N, q1, ... q3N) im 6N-dimensionalen Phasenraum . Die HamiltonFunktion H(p,q) beschreibt die Zeitentwicklung

. p

∂H = – j ∂qj

;

. q

p1

q1

.. . . .

∂H = j ∂pj .

.

. . (p ,q )

Da die Phasenraumgeschwindigkeiten x  eindeutig durch die Punkte x  (p,q) bestimmt sind, kreuzen sich die resultierenden Trajektorien x(t) nie.

x (t 1)

x (t 2)

p

2

q2

Wenn die Hamilton-Funktion H zeitunabhängig ist, ist die Energie eine Erhaltungsgröße H(x) = E = const , d.h. die Bewegung erfolgt auf einer (6N–1)-dimensionalen Hyperfläche. Je nach System kann es weitere Erhaltungssätze geben, z.B. für den Gesamtimpuls Ptot = const oder Gesamtdrehimpuls Ltot = const. Dies führt zu weiteren Einschränkungen im Phasenraum. Hier betrachten wir Systeme, die nicht translationsinvariant und nicht rotationsinvariant sind. Dann sind nur die Energie und die Teilchenzahlerhalten. “Statistisches Ensemble”: Wir betrachten nun ein Ensemble identischer Systeme. I.a. kennen

wir die 6N Anfangsbedingungen jeder einzelnen Realisierung nicht und daher auch nicht die folgende deterministische Zeitentwicklung. Meist interessiert uns nur die “Gibbs-Verteilung”, die Wahrscheinlichkeitsdichte im Phasenraum, (x,t). Hier bezeichnet (x,t) dx die Wahrscheinlichkeit, dass eine Realisierung des Ensembles zur Zeit t Impulse im Bereich [pi, pi + dpi] und Koordinaten im Bereich [qi, qi + dqi] mit i = 1, 2,... 3N hat. Weiterhin gilt d x  CN d3Np d3Nq . Dabei ist die Konstante CN so gewählt, dass dx und beide dimensionslos sind (siehe später). 

Die Wahrscheinlichkeitsverteilung ist normiert und erlaubt es, Momente zu berechnen, Norm

 dx

(x,t) = 1

54 Mittelwert einer physikalischen Größe 

O =  dx O(x,t) (x,t) , usw.

Die Wahrscheinlichkeitsverteilung (x,t) entwickelt sich in der Zeit im Phasenraum wie eine strömende Flüssigkeit,

. ∂ d (x,t) = (x,t) + x (x,t) = 0 . ∂t dt Zum Beweis betrachten wir ein Volumen V0 in  mit Oberfläche S0. Die Wahrscheinlichkeit, das System im Teilvolumen V0 zu finden,

S0

(V0,t) =  dx (x,t)

V0

V 0

d  (V0,t) =  dx (x,t) , weil es einen t dt V

ändert sich in der Zeit

0

Fluss von Wahrscheinlichkeit aus dem Volumen V0 durch die Oberfläche S0 gibt

. (x,t) = – . (x,t)] . d  (V ,t) = S x x d dx   0 dt S

V 0

0

∂ ∂ ∂   ∂ Die letzte Form mit  = ∂p , ... ∂p , ∂q , ... dq  folgt aus dem Gauß'schen Satz in 6N 3N 1 3N  1 Dimensionen.

Da

V0

beliebig

gewählt

werden

kann,

 (x, t)   [x (x, t)]  0 . Aus den Hamilton-Gleichungen folgt t

3N

liefert 

(  j=1 q

j

q j 

der

Vergleich

.  p j ) = x = 0 p j

. ∂ d und damit ∂t (x,t) + x (x,t) = 0. Also verschwindet die totale Ableitung, dt (x,t) = 0, d.h. die Wahrscheinlichkeitsdichte (x,t) ändert sich nicht in Punkten, die sich mit den Trajektorien x(t) bewegen. Dagegen ändert sich (x,t) bei festem x. Der Operator

. ^ A x A = i L

3N

 H   H  A  A   {H,A} q q j p j   j j 

  j=1  p

^ und die Poisson-Klammer {..,..}. Damit gilt für definiert den klassischen Liouville-Operator L die Zeitentwicklung der Gibbs-Verteilung die „klassische Liouville-Gleichung“ i

ρ ˆ  Lρ  i H,ρ . t

55 Die klassische Liouville-Gleichung wird oft als sehr fundamental angesehen. Sie beschreibt aber eine zeitumkehrinvariante Entwicklung und ist daher nicht befriedigend für die meisten klassischen Probleme, wo Relaxation zu einer Gleichgewichtslösung und Dissipation eine wesentliche ^ hermitesch ist, hat er reelle Eigenwerte und beRolle spielen. (Da der Liouville-Operator L schreibt daher nur Oszillationen aber keine Relaxation). Daher bleibt die Frage, wie Relaxation und Dissipation zustande kommen, offen. Eine Erklärung bietet die Kopplung an ein unendlich großes Bad, die wir in Kap. 3.7 diskutiert haben. Stationäre Lösung der Liouville-Gleichung: ∂ Eine Gibbs-Verteilung, die nur über die Energie von x abhängt, ist stationär ∂t (H(x)) = 0. Dies ist durch Einsetzen in die Liouville-Gleichung zu beweisen. Phasenraumvolumen Im Folgenden bezeichnen wir das 6N-dimensionale Volumen im Phasenraum von Zuständen mit Energie H(x) ≤ E mit (E) und die Oberfläche von (E) mit (E) (E)   dx (E – H(x))

;

d (E)  dE =

 dx (E – H(x)).

Das bedeutet (E) dE ist die Zahl der Zustände mit Energie E ≤ H(x) ≤ E + dE. Fundamentales Postulat der klassischen statistischen Mechanik:

Für abgeschlossene Systeme mit erhaltener Energie E, die als mikrokanonisches Ensemble bezeichnet werden, gilt im Gleichgewicht: Für gegebene Energie E sind alle Zustände mit H(x) = E (genauer gesagt mit Energie im Fenster E ≤ H ≤ E + dE) gleich wahrscheinlich. D. h. 

eq (x) =

1  1 /E  dE  für E  H(x)  E  dE (E – H(x)) =  (E) 0 sonst 

Der Phasenraummittelwert einer physikalischen Größe O(x) ist dann gegeben durch 

OE 

1 dx δ(E  H(x)) O(x)  Σ(E) 

Ergoden-Hypothese

Nach genügend langer Zeit kommt das System jedem Punkt im Phasenraum, der mit den Erhaltungssätzen verträglich ist (hier nur die Energie), beliebig nahe. Der Zeitmittelwert τ 1 O zm  lim  dt O(x(t)) ist gleich dem Phasenraummittelwert, O zm  O E . Die Mittelung ττ 0

56 kann also auf zwei Arten erfolgen: entweder werden viele Messungen an den verschiedenen Realisierungen eines Ensembles durchgeführt, oder wir können an einem System wiederholt Messungen zu verschiedenen Zeiten durchführen.

4.2

Dichtematrix, quantenmechanische Liouville-Gleichung und fundamentales Postulat

Wir wiederholen einige Konzepte der Quantenmechanik, u.a. um die Notation einzuführen: Reine Zustände ˆ , reine Zu- Ein quantenmechanisches System ist beschrieben durch den Hamilton-Operator H stände durch Zustandsvektoren (Wellenfunktionen) |  .

- Die Zustände sind Elemente eines Hilbert-Raumes. Das ist ein linearer Vektorraum, in dem ein Skalarprodukt definiert ist. - Es gilt das Superpositionsprinzip: Wenn | 1  und | 2  mögliche Zustände sind, dann ist auch die Linearkombination |   = a | 1  + b | 2  mit komplexen Koeffizienten a und b ein möglicher Zustand. - Die Zeitentwicklung folgt aus der zeitabhängigen Schrödinger-Gleichung i 

 ˆ |, | = H t

d.h. für zeitunabhängige Hamilton-Operatoren gilt im Schrödinger-Bild ˆ t/  ) |(0) . |(t) = exp(–i H ˆ |  = E | . - Für stationäre Zustände gilt |n(t) = eiEn t/  |n mit H n n n

- Im Heisenberg-Bild sind die Operatoren zeitabhängig. Der Zusammenhang der Operatoren in ˆ (t) = ei Hˆ t / O ˆ e i Hˆ t / . Für nicht explizit zeitabhänbeiden Bildern ist gegeben durch O H

S

ˆ gilt die Heisenberg-Bewegungsgleichung gige Operatoren O  i

 ˆ ˆ (t)] . ˆ ,O O H(t) = [ H H t

- Die Zustände sind in der Regel normiert | . Dies wird im Folgenden angenommen. - Die Phase ist beliebig, d.h. | ist äquivalent zu ei | Relative Phasen spielen eine Rolle. - Die Zustandsvektoren können in eine orthogonale, normierte, vollständige Basis(z.B. die Eigenzustände des Hamilton-Operators) entwickelt werden:  

|  =  cn |n , n

n|n' = n,n' ,



|n n| = 1 .

n

- Die physikalischen Observablen sind beschrieben durch Operatoren mit den Erwartungswerten

57

ˆ  = |O ˆ | = O



n,n'

ˆ | n'  c n c*n'  n | O

.

ˆ 2| – | O ˆ |  0. Die - Im Allgemeinen gilt eine quantenmechanische Unschärfe | O i.A. ˆ ist. Messwerte sind scharf, wenn | Eigenzustand von O - Projektionsoperatoren projizieren auf einen ausgewählten Zustand, z.B. auf einen Basisvektor | n Pn = |n n| , oder auf einen Unterraum P{n } = i | ni  ni |. Sie erfüllen P2 = P . i

ˆ ˆ ˆ ) = tr ( BCA ˆ ˆ ˆ ) = ... - Die Spur ist invariant unter zyklischer Vertauschung im Argument tr( ABC - Mit Hilfe von Projektoren können wir Erwartungswerte als Spur in beliebiger Basis schreiben

ˆ |  = | O

ˆ ]. ˆ   n|ψ = tr [ P O n  ψ|O|n |ψ 

Statistische Zustände, Gemisch

Zur quantenmechanischen Unschärfe kann noch eine statistische Unsicherheit kommen: Oft kennen wir, z.B. bei einem Ensemble identischer Quantensysteme, nur die (klassische) Wahrscheinlichkeit Wn (mit 0 ≤ Wn ≤ 1, n Wn= 1), dass ein System im Zustand |n ist. (Beachte den Unterschied zu einer Superposition von Zuständen.) Eine solche Situation bezeichnet man mit Gemisch. Der gemittelte Messwert einer Observablen ergibt sich dann als Kombination von quantenmechanischen Erwartungswerten und einer statistischen Mittelung. Wir bezeichnen den statistischen Mittelwert durch einen Querstrich, den quantenmechanischen Erwartungswert durch spitze Klammern. Zusammen liefern sie den quantenstatistischen Mittel- bzw. Erwartungswert 

ˆ   W n O ˆ n  tr ρˆ O ˆ   O    n

n

Hier haben wir die Dichtematrix ρ eingeführt, ρˆ   W n   n n n

.

Im dem eben betrachteten Beispiel ist ρ diagonal in | n ; i.a. ist aber ρ eine nicht-diagonale Matrix. Z.B. können die Wahrscheinlichkeiten W der Realisierung der Zustände | =  cn |n ψ n

gegeben sein. Dann gilt ˆ  O W ψ

ψ

ˆ ψ  ψO 

ˆ n   ρ n,n' n' O n,n'

n,n'

W  ψ ψ

ˆ n n ψ ψ n' n' O

mit ρ n,n'   n ψ W ψ n' ψ ψ

ˆ  mit ρˆ   tr ρˆ O W  ψ

ψ

ψ ψ

58 bzw.

 ρ11 ρ12  c* =  ρ 21 ρ 22 n,n' =  W c ψ, n ψ, n'  :  : 

...  ... . ...

Zusammenfassend gilt:



Die Dichtematrix ρ ist normiert (tr ρ = 1), hermitesch ( ρ + = ρ ), und positiv definit (d.h. für alle Zustände gilt | ρ | ≥ 0). Jeder Operator, der dies erfüllt, ist eine mögliche Dichtematˆ   tr  ρˆ O ˆ . rix. Mit ihrer Hilfe erhält man quantenstatistische Erwartungswerte  O  

Natürlich können wir ρ diagonalisieren. Dann hat ρ die oben gegebene Diagonalform, wobei n und W die Eigenzustände und Eigenwerte von ρ sind. Oft sind aber die Eigenzustände des n

Hamilton-Operators die natürliche Basis für die Dichtematrix. Dann ist ρ i.A. nicht-diagonal. Unter Umständen stellt man aber auch auf Grund physikalischer Argumente fest, dass ρ diagonal ist. Zum Beispiel reduziert sich ρ im obigen Beispiel auf eine diagonale Form, ρ n,n'  Wn δ n,n' , iαn  iαn'

wenn die Nichtdiagonal-Elemente ρ n,n'  | ρ n,n' |e

aufgrund stochastisch verteilter Phasen

(Phasenfaktoren eiαn der Koeffizienten cn ) im Mittel verschwinden: iαn  iαn'

ρ n,n'  e

 δ n,n' .

Dichtematrizen beschreiben auch reine Zustände. Z. B. gilt für | : ρ = | | = P|ψ . In der

c* . Für reine Zustände ist ρ Basis |n ist die Dichtematrix i.A. nicht-diagonal, n,n' = c ψ, n ψ, n' ein Projektor mit ρ 2 = ρ und tr 2  1 . Dagegen gilt für ein Gemisch ρ 2 ≠ ρ . Die Zeitentwicklung der Dichtematrix folgt aus der Schrödinger-Gleichung i  – i

 ˆ . n | = n | H t

i

 ˆ ρ] ˆ = [H, ˆ . ρ(t) t

 ˆ | n | n = H t

 ˆ |n n| – |n n| H ˆ ]. Dies ˆ =  Wn [ H ρ(t) t n liefert die quantenmechanische Liouville-Gleichung (von Neumann-Gleichung)

und

Das bedeutet i 

(Die Heisenberg-Bewegungsgleichung für Operatoren und die Liouville-Gleichung für die Dichtematrix haben ähnliche Form aber verschiedenes Vorzeichen.) Die quantenmechanische Version der Liouville-Gleichung hat eine große praktische Bedeutung in vielen aktuellen Forschungspro-

59 jekten. Die klassische und quantenmechanische Liouville-Gleichungen haben eine ähnliche Form, wenn wir die Poisson-Klammer durch den Kommutator ersetzen 1 1 ˆ i {H,...} →  [ H ,...] . ˆ zeitunabhängig ist, wird die Liouville-Gleichung gelöst durch Wenn der Hamilton-Operator H ˆ /  = e iHˆ t /  ρ(0)  eiHt ρ(t) .

Die Zeitentwicklung der Dichtematrix ist beschrieben durch die Vorwärts- und Rückwärtszeitˆ

entwicklungsoperatoren e  iH t /  .

ˆ können im Schrödinger- oder im Heisenberg-Bild dargeErwartungswerte von Operatoren O stellt werden ˆ  = tr [ ρˆ (t)O ˆ ] = tr [ ρˆ (0)O ˆ ].  O(t) S H

Stationäre Lösung der Liouville-Gleichung: Wenn ρ nur eine Funktion des (zeitunabhängigen) Hamilton-Operators ist, vertauscht sie mit ihm  ˆ und ist daher stationär, ρˆ (H)  0 . Umgekehrt kann eine stationäre Lösung nur von den Ert ˆ mit haltungsgrößen abhängen. Wenn Entartungen vorliegen, gibt es Erhaltungsgrößen ˆI , die H ˆ ˆ . vertauschen. Dann kann eine stationäre Lösung auch von diesen abhängen ρ stat = ρˆ (H,I)

Fundamentales Postulat in der Quantenmechanik

Für ein mikrokanonisches Ensemble, d.h. abgeschlossene Systeme mit erhaltener Energie ist die Dichtematrix diagonal in der Basis | n, die den Hamilton-Operator diagonalisiert, n,n'  n,n' , und alle Zustände mit Energie En im Bereich zwischen E und E + dE sind gleichwahrscheinlich. D.h. const n,n = Wn =  0

für E ≤ En ≤ E + dE . sonst

Bemerkung zur Schreibweise Im Folgenden werden wir oft nur O schreiben. Der Zusammenhang sollte deutlich machen, welche Mittelung gemeint ist, und ob O ein klassischer (nur statistische Mittelung O= O ) oder ˆ  ). quantenmechanischer Operator ist (d.h. O  O

60 Dichte der Zustände im Phasenraum

Die Quantenmechanik erst erlaubt es uns, die Dichte der Zustände im Phasenraum zu bestimmen. Für ein Boltzmann-Gas (Bose und Fermi-Gas werden später diskutiert) gilt

ˆ = tr O

n

ˆ | n      n | O  klassischer Grenzfall

 Abzählen der Zustände des  Systems in der Quantenmechanik

 dx O(x) =

1 d3N p 3N d q (x) N!  (2π)3N

Dichte der (klassischen) Zustände im Phasenraum  2 3N N!  

1

.

Begründung: Zum Abzählen der Zustände stellen wir uns vor, dass die N Teilchen in einem Kasten mit Kantenlängen Lx, Ly, Lz mit periodischen Randbedingungen eingeschlossen sind. Dann sind die Zustände (Bloch-Zustände  exp(i p x x/) …) charakterisiert durch die Impulse pi = ( 2π 2π 2π ni,x, ni,y, ni,z), mit i = 1, … N, wobei ni,x, ni,y und ni,z ganze Zahlen sind. Die Ly Lx Lz Summe über die Impulse können wir als Integral ausdrücken

n

1 … N!



… 

{ni,x,ni,y,ni,z}

(L x L y L z ) N N!

1 d3N p 3N d3N p d q … …   (2π)3N N!  (2π)3N

Die Division durch N!, d.h. die Zahl der Permutationen, kommt hinzu, wenn die Teilchen ununterscheidbar sind.

4.3

Die Entropie

Mit Hilfe der Verteilungsfunktion (x) oder Dichtematrix ρ können wir Erwartungswerte von Energie, Dichte usw. bestimmen. Aber wir brauchen noch eine Definition der Entropie. Ihre geforderten Eigenschaften: (a) S ist extensiv, (b) S ist maximal im thermischen Gleichgewicht, sind erfüllt durch S = – k  ln ρˆ  = –k tr [ ρ ln ρ 

quantenmechanisch

S = – k  dx (x) ln(x)

klassisch .

In den klassischen Ausdruck geht die Zustandsdichte im Phasenraum ein, die erst durch den Ver1 d3N p 3N d q … , wobei der gleich mit der Quantenmechanik gefunden wird, also  dx ... = N!  (2π)3N Faktor 1/N! eingeht, wenn die Teilchen ununterscheidbar sind.

61 Eigenschaften: a) S ist extensiv: Die Gibbs-Verteilungsfunktion, bzw. Dichtematrix von 2 unabhängigen Teilsystemen A und B ist (xA, xB) = (xA)(xB) ;  dx (xA) = 1, ... A  SA+B = –k  dx  dx (xA) (xB) {ln[(xA)] + ln[(xB)]} = SA+ SB . A B

b) Wir betrachten ein mikrokanonisches (abgeschlossenes) Ensemble mit E ≤ H(x) ≤ E + dE. Dann gilt S ist maximal für (x) = 1/(E)dE, konsistent mit dem fundamentalen Postulat. Bew.: Wir suchen das Maximum von S unter der Nebenbedingung, dass (x) normiert ist. D.h. wir suchen das Maximum von S +  [



dx (x)–1] , mit dem Lagrange-Multiplikator,

E  H(x) E+dE

0 = {–k =

dx (x) ln (x) + [ dx (x) – 1]}   E  H(x) E+dE E  H(x) E+dE



dx (x) [–k ln  – k + ] .

E  H(x) E+dE

Damit dieser Ausdruck für jedes (x) verschwindet, muss gelten […] = 0, also α ρ(x)  exp(  1) . Dies bedeutet, dass (x) konstant und unabhängig von x ist, solange nur die k Energie im Fenster E ≤ H(x) ≤ E + dE liegt. Wir bestimmen  nun durch die Normierungsbedingung. Daraus folgt 

 1 /E  dE  für E  H(x)  E  dE . (x) =  0 sonst 

Wir können also erst das fundamentale Postulat fordern und sehen dann, dass die EntropieDefinition konsistent damit ist. Oder wir können die Definition für die Entropie fordern und finden dann, dass die Verteilungsfunktion im Gleichgewicht die erwartete obige Form hat. Damit ist die Entropie eines klassischen mikrokanonischen Ensembles durch einen der folgenden Ausdrücke gegeben

 k ln[(E) dE]  S(E,V,N) =  k ln[(E)]  k ln[(E)]  Sie sind gleichbedeutend; denn es gilt (E), (E)  EaN, wobei a von der Ordnung 1 ist (siehe die folgenden Beispiele). Bei ununterscheidbaren Teilchen ist (E) durch N!, die Zahl der Permutationen der Teilchen zu dividieren. Aus den Relationen folgt, dass die Entropie proportional

62 zur Teilchenzahl ist, S = k ln [..]  N. Die drei Ausdrücke unterscheiden sich nur um einen endlichen Beitrag, z.B. ln(dE), und sind daher für N  ∞ äquivalent. Dagegen liefern die Faktoren N _ (2h )3N und N! ≈ (N/e) der Zustandsdichte nicht vernachlässigbare Effekte. Die analoge Überlegung für die Entropie eines quantenmechanischen Systems liefert S = k ln N(E) , wobei N(E) die Zahl der Zustände mit Energie E ist.

4.4

Thermodynamik des mikrokanonischen Ensembles

Aus den gegebenen Definitionen können wir nun die thermodynamischen Eigenschaften eines mikrokanonischen Systems mit Hamilton-Funktion bzw. Operator H herleiten. Das Volumen V, die Teilchenzahl N und die Energie E sind gegeben. Wir bestimmen nacheinander: 1. Das Phasenraumvolumen (E) der Zustände mit H ≤ E, bzw. Oberfläche (E). 2. Daraus folgt S(E,V,N) = k ln (E). 3. Durch Invertieren finden wir E(S,V,N) = U (innere Energie) . P  ∂S  1 ∂S   ∂S  ; T = ∂V ; T = – ∂N . 4. Die weiteren Größen folgen aus T = ∂E   V,N   E,N   E,V Am Beispiel des idealen Gases können diese Schritte leicht explizit durchgeführt werden. 

N

2

2

N p pi VN d3N p i (E) =  dx (E –  2m ) =  ( E –  2m )   3N N! (2π) i=1 i=1





3N/2





1 VN  m   E  2 N!   3N/2+1  2 

Das Integral reduziert sich auf das Volumen V3N = 3N/2 R3N/   3N/2+1 einer 3N-dimensionalen Kugel mit Radius R= 2mE . Dabei ist   x  die Gamma-Funktion, für ganzzahlige Argumente gilt   n+1  n! . 

Mit Hilfe der Stirling-Formel   3N/2+1 3N [3N/(2e)]  mE 3/2  5/2 V  S(E) = k ln (E) = N k ln  e  N  3 2 N  

Damit erhalten wir für die Thermodynamik

3N/2

folgt daraus die Entropie

63 3 N 1 ∂S T = ∂EV,N = 2 k E



3 U  E = 2 N kT

P N  ∂S  T = ∂VE,N = k V



PV = N kT

 mE 3/2 V    ∂S     = – = – k ln    T ∂NE,V  3 2 N  N 

4.5

 mkT 3/2 V  .  = –kT ln    2 2  N 

Gleichverteilungssatz

∂H Wir werden nun den Mittelwert  xi ∂x bestimmen, wobei xi = pi oder xi = qi sein kann. Für ein j

klassisches, mikrokanonisches Ensemble gilt ∂H  xi ∂x  = j

1 Σ(E)dE

∂H

 dx xi ∂xj E  H(x) E+dE

=

∂H 1  dx xi ∂x .  j Σ(E) E H(x)E

Das Integral kann umgeschrieben werden



H(x)E

∂H dx xi ∂x = j



H(x)E

dx

 [xi (H–E)] – ij  dx (H E) , x j H(x)E

wobei der erste Beitrag verschwindet, da der Integrand auf der Oberfläche verschwindet. 

δij  δij ∂H Ω(E) dx (H E) = dx 1 = ij  xi ∂x  = –   j Σ(E) E H(x)E Σ(E) H(x)E Σ(E) (E) k ∂  –1 = ij ∂E ln (E) = ij ∂S/∂E = ij kT . = ij ∂(E)/∂E  

Dies bedeutet ∂H ∂H  pi ∂p  =  qi ∂q  = kT i i 3N ∂H .  ∂qi = – p i    qi pi  = –3N kT

Virial Theorem .

i 1

pi2 pi2 1 + U({q }) gilt     =  2mi i 2 kT . Wenn weiterhin das Potential harmonisch ist, 2mi i mi 1 1 z.B. U({qi}) =  mi i2 qi2, gilt auch  2 i2 qi2 = 2 kT . Dies kann verallgemeinert wer2

Für H =

i

64 den auf quadratische Wechselwirkungen, die diagonalisiert werden können. D.h. jeder quadrati1 sche Freiheitsgrad in der Hamilton-Funktion hat im Mittel die Energie 2 kT. Wenn H quadratisch ist in p und q (oder in P und Q, die durch kanonische Transformation aus p und q hervorgehen) mit f Freiheitsgraden pro Teilchen, gilt 

f  H  = 2 N kT

und damit

f CV = 2 N k .

Bemerkung: Nach dem 3. Hauptsatz soll CV 0 gehen für T 0, während wir hier einen endlichen Wert finden. Dies demonstriert wieder einmal das Versagen der klassischen Physik.

4.6

Das kanonische Ensemble

Wir betrachten ein System in Kontakt mit einem Wärmereservoir (kanonisches Ensemble). In der Praxis liegt diese Situation häufig vor. Dann ist die Energie E nicht fest, da ein Energieaustausch möglich ist. Aber der Mittelwert sei vorgegeben H = U. Wir bestimmen  so, dass die Entropie S = –k dingungen:

 dx = 1 und  dx H =  H

 dx  ln 

maximal ist unter den 2 Nebenbe-

= U. Dazu führen wir 2 Lagrange-Multiplikatoren,

 und  ein und suchen das Extremum von S +  [  dx – 1] – k [  dx H– U] , d.h. 

0 =  {  dx [–k  ln  +  – kH ]} =

Dies muss für alle gelten, 

– ln  – 1 + /k – H = 0

 dx k ln  k  kH .

 also (x) = exp [ k – 1 –  H(x)] .

1  Wir führen anstelle von  die Zustandssumme (partition function) Z ein, exp[ k –1] = Z . Dann gilt ρ(x) =

1 exp[  β H(x)], Z =  dx exp[  β H(x)]. Z

Die zweite Gleichung folgt aus der Normierungsbedingung. Die Bedingung für den Mittelwert der Energie liefert 1   1 1 1 S. U = H =  dx  H =  k – 1 –  dx  ln  = – ln Z +    k  β Der Vergleich mit der thermodynamischen Relation U = F + T S zeigt

65 F(T,V,N) =  kT ln Z,

β=

1 . kT

Aus der Zustandssumme und damit aus der freien Energie F können wir die weiteren thermodynamischen Größen herleiten. Die obige Herleitung war für ein klassisches System formuliert. Analog gilt für die Gleichgewichtsdichtematrix eines Quantensystems 

1 ˆ ) = 1 exp(  β E )|n  n | , ρˆ = Z exp(– H  n Z n ˆ )= Z = tr exp(– H

 n

 = 1/kT

exp(– En)

F = –kT ln Z . Die Summe in Z läuft über alle (i.a. komplizierten Vielteilchen-)Zustände |n  mit Energien En. Noch eine Herleitung

Wegen der Bedeutung des Beschriebenen zeigen wir noch eine zweite Herleitung. Wir betrachten 2 miteinander wechselwirkende Teilsysteme, wobei System 2 viel größer als System 1 ist. Es wird Energie ausgetauscht, aber die Gesamtenergie E ist erhalten H(x1,x2) = H1(x1) + H2(x2) + h(x1,x2)

E2

E = E1 + E2 + « E1 « E .

E1

Die Kopplung der beiden Teilsysteme ist beschrieben durch h(x1,x2). Die zugehörige Energie  ist sehr klein und wird vernachlässigt. Das Gesamtsystem ist abgeschlossen und mikrokanonisch, d.h. 

 1 /E  dE  für E  H(x1 , x 2 )  E  dE . (x1,x2) =  0 sonst 

Die Wahrscheinlichkeit, das System 1 bei x1 zu finden, erhält man durch Ausintegrieren des Phasenraumvolumens des Systems 2 1(x1) =  dx 2 (x1 , x 2 ) = 



E  H1 (x1 ) H 2 (x 2 ) E  H1 (x1 )+dE

dx 2

1  (E  H1 (x1 )) = 2 Σ(E) dE Σ(E)

k ln 1(x1) = k ln 2(E – H1(x1)) + const = S2(E – H1(x1)) + const .

66 Wir entwickeln nun in H1(x) « E k ln 1(x1) ≈ const' – H1(x1)

∂S2(E) H1(x1) = const' – . ∂E T

Hier ist T definiert als Eigenschaft des großen Systems 2, das damit die Rolle eines „Bades“ oder „Reservoirs“ bekommt, und die Verteilungsfunktion hat die Form einer kanonischen Verteilung, 

1(x1)  e–H1(x1)/kT .

Energiefluktuationen

Der Mittelwert der Energie H = U ist fest. Von Bedeutung sind aber auch die Fluktuationen in der Energie  (H – H )2. Diese und höhere Momente können wir durch Ableiten von U nach erhalten können. Als Beispiel betrachten wir den klassischen Fall, wo gilt U=H=

1 dx H(x) e–H(x) =  dx H(x) e[F(T,V,N)–H(x)] Z  F [F–H(x)] ]e . β

und

∂U = ∂

Da 



∂F ∂F = –T ∂T = TS und U = F + TS , gilt ∂



∂U = ∂

 dx H(x) [F – H(x) + 

 dx

Andererseits gilt –

[H(x)2 – H(x) U] e[F–H(x)] = H 2 – U2 =  (H – H )2 .

∂U ∂U = kT2 ∂T = kT2 CV . Damit folgt ∂

(H  H )2  = kT 2 CV . Die Fluktuationen der Energie sind durch eine Response-Funktion, die Wärmekapazität, ausgedrückt. Da die Wärmekapazität CV  N und H  N extensiv sind, können wir abschätzen (H   H ) 2  1   H N

 N 0 .

D.h. die relativen Fluktuationen und der Unterschied zwischen mikrokanonischem und kanonischem Ensemble verschwinden im thermodynamischen Grenzfall N  ∞.

67

4.7

Das großkanonische Ensemble

Wir erlauben nun sowohl Energie- als auch Teilchenaustausch (ebenfalls häufig in der Praxis) und fixieren nur die Mittelwerte

Wärme- (Energie) und Teilchen-Reservoir

H = U und N = N0. Nun summieren wir

E,N

auch über Systeme mit verschiedener Teilchenzahl N. D.h. die Entropie ist S = –k



  d6N x (x,N) ln (x,N) , N=0

wobei für ununterscheidbare Teilchen gilt  d 6N x   

d 3N p 3N 1 d q . N!  (2π)3N

  d6N x (x,N) = 1, N=0

Wir fixieren die Norm



die mittlere Energie

 H =

  d6N x H(x) (x,N) = U N=0

und die mittlere Teilchenzahl

 N =

  d6N x N (x,N) = N0 . N=0



Nach Einführen von 3 Lagrange-Multiplikatoren für die 3 Nebenbedingungen suchen wir also ein Extremum von 

S+[

N=0

D.h.



6N  d x  – 1] – k [ 

N=0



6N  d x H – U] + k [ 

N=0

d

6N

x N – N0] .

– ln  – 1 + /k –  (H – N) = 0 .

Wir führen anstelle von  die großkanonische Zustandssumme ZG = exp(1 –

ρ(x, N) =

α ) ein. Dann gilt k

1 β [H(x)  μN] e . ZG

Die Normierungsbedingung liefert 

ZG = 

N=0

d

6N

x eβ[ H(x)  μN] .

Mit Hilfe der oben angegebenen Relation können wir den Mittelwert der Energie schreiben als

68 U=





N=0

6N d x  H =

1  1 ( – 1) +  N –  k β



  d6N x  ln  N=0

=–

1 1 ln ZG + N + S.  k

Der Vergleich mit der Definition des großkanonischen Potentials (T,V,) = U – N – TS liefert (T,V,) = –kT ln ZG(T,V,)

1 und  = kT .

Aus (T,V,) folgt dann wieder die gesamte Thermodynamik. Weiterhin kann  so gewählt werden, dass die mittlere Teilchenzahl den geforderten Wert NN0 hat. Analog gilt in der Quantenmechanik ˆ 

1  β(Hˆ  μ N) ˆ e ZG ˆ

ˆ

ZG = tr e β(H  μ N)    e

 β(E(N) n  μ N)

N n (N)

(T, V, )  – kT ln ZG (N)

Die Spur tr... enthält jetzt auch eine Summe über N, und n

und E (N) n bezeichnen die Quanten-

zahlen und Eigenenergien des N-Teilchensystems. Wir führen noch die Fugazität z = e ein. Dann gilt der folgende Zusammenhang zwischen großkanonischer und kanonischer Zustandssumme ∞

ZG(T,V,z) =

 N=0

zN ZN(T,V) .

Fluktuationen der Teilchenzahl

1 Der Mittelwert der Teilchenzahl N = Z (T,V,z) G





∂ N zN ZN(T,V) = z ∂z ln ZG(T,V,z) ist

N=0 2 2 fest. Wir können die Fluktuationen N  – N durch weiteres Ableiten berechnen



∂ ∂ ∂ ∂ (T,V,z) N2 – N2 = z ∂z z ∂z ln ZG(T,V,z) = –z ∂z z ∂z kT ∂2 = –kT  2   ∂ 

  N   = kT  .  μ   T,V T,V

69   N   N  T, wobei Unter Verwendung der thermodynamischen Relation (s. Kap. 1)  = V  μ  T,V T die isotherme Kompressibilität ist, können wir schreiben 2

N2 – N2 = kT

 N 2 T . V

Da N2/V  N ist, verschwinden die relativen Fluktuationen in der Teilchenzahl im thermodynamischen Limes N∞ ebenso wie die relativen Fluktuationen in der Energie. Wir schließen also Das mikrokanonische, kanonische und großkanonische Ensemble sind für große N äquivalent.

Aber es gibt Unterschiede für „mesoskopische“ (zwischen mikroskopisch und makroskopisch) Systeme, bei denen N nicht sehr groß ist!

4.8

Der dritte Hauptsatz

Wir können nun den dritten Hauptsatz erläutern. Für ein kanonisches Ensemble gilt S(T,V,N) = –k tr ρˆ ln ρˆ mit ρˆ =

1 β Hˆ . e Z

Wenn die Temperatur gegen Null geht, also  , sind die Matrixelemente der Dichtematrix im Grundzustand 0 | ρˆ | 0 = O(1/G), wobei G der Entartungsgrad des Grundzustandes ist. Dagegen verschwinden die Matrixelemente n | ρˆ | n = 0 für alle Zustände, deren Energie um einen endlichen Betrag E höher liegt als die des Grundzustandes 

S(T0,V,N) = k ln G .

Ohne Entartung ist G = 1 und die Entropie verschwindet bei T 0. Bei endlicher Entartung G « N gilt immer noch S/N = (k ln G) / N 0. Dagegen geht bei einem kontinuierlichen Spektrum S/N nicht notwendig 0. Wir sehen weiterhin, was T 0 bedeutet. Wenn E die Energiedifferenz zwischen Grundzustand und dem ersten angeregten Zustand bezeichnet, muss gelten kT « E.

70

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

5.

Ideale Gase

5.1

Das (Maxwell -) Boltzmann-Gas

71

Als „ideales Gas“ bezeichnet man ein System nicht-wechselwirkender Teilchen, die aber dennoch (aufgrund einer schwachen Restwechselwirkung) alle miteinander im Gleichgewicht sind. Als konkretes Beispiel betrachten wir zunächst N freie Teilchen im Kasten V = LxLyLz. Ihre Energie 1 N 2 ist die Summe der Einteilchenenergien H(pi,qi) =  pi . Die Zustände sind beschrieben durch 2m i=1 2π ni,x wobei die Koordinaten und Impulse der Teilchen, p1,x, p1,y, p1,z, ... pN,z mit pi,x = Lx ni,x = 0, ±1, ±2 ... . Wenn die Teilchen ununterscheidbar sind, berücksichtigt man dies beim Maxwell-Boltzmann-Gas (dies definiert dieses Gas) dadurch, dass das Phasenraumvolumen bzw. die Zustandssumme durch die Zahl der Permutationen N! dividiert wird. a) Mikrokanonisches Ensemble Beim mikrokanonischen Ensemble sind Energie E und Teilchenzahl N vorgegeben. Dann bestimmen wir das Phasenraumvolumen (E) der Zustände mit Energie H(pi,qi) ≤ E. Daraus folgt die Entropie S(E) = k ln (E) und die Thermodynamik (siehe Kap. 4.4). b) Kanonisches Ensemble Beim kanonischen Ensemble bestimmen wir die Zustandssumme aus Z = tr e–H(x) =  dx e–H(x). Eine Summation über die Impulse [und bei ununterscheidbaren Teilchen Division durch N!] liefert N N 1 1 p2 p2  Z = [N! ]  exp (–   i ) = [N! ]  {  exp (–  i ) } 2m {pi } pi i 1 2m i 1 1 = [N!

]

N

VN 

i 1

d3pi

2

1 p N { exp(  β i )} = [N! ] (Z1) 2m (2π)3 N

Hier haben wir verwendet, dass sich für wechselwirkungsfreie Teilchen mit H =  h i die i=1

Mehrfachsumme über alle Zustände als Produkt von Einzelsummen über die Impulszustände der einzelnen Teilchens schreiben lässt,  e

 β  hi

N

=   e β hi . Die Größe Z1 bezieht sich auf {pi } i  1 pi ein Teilchen. Bei drei Raumrichtungen gilt außerdem Z1 = Z1,x Z1,y Z1,z mit i

72 Z1,x =

 px

 Lx dp x p 2x p 2x exp(–  ) = Lx  exp(–  ) =  . 2m 2m 2π  T 

Das Gauß’sche Integral lässt sich durch die thermische de Broglie-Wellenlänge ausdrücken 1/2

 2π  2  λT =    m kT 

.

Damit gilt Z1 = V/λ3T , und die Zustandssumme für N unterscheidbare Teilchen

[bzw.

ununterscheidbare Teilchen eines Maxwell-Boltzmann-Gases] ist 1  V N Z = [N!]  3 T

.

Unter Verwendung der Stirling-Formel, N! ≈ (N/e)N, erhalten wir daraus die freie Energie des Maxwell-Boltzmann-Gases  eV  F = –kT ln Z = –kT N ln  3 NT und die Thermodynamik  eV  3 ∂F = kN ln  3 + 2 k N S = – ∂T  V,N NT



3 U = F + TS = 2 N kT

N  ∂F  P = – ∂V = kT V  T,N  V   ∂F  = – kT ln  3 .  = ∂N  V,T NT Wir finden also dieselben Relationen für U und die ideale Gasgleichung wie beim mikrokanonischen Ensemble. Wenn der mittlere Teilchenabstand viel kleiner ist als die thermische de Broglie-Wellenlänge a = 3

V/N  T, wird die Entropie negativ S < 0. Dies demonstriert ein Versagen der MaxwellBoltzmann-Beschreibung. Andererseits ist diese für große Teilchenabstände a » T ausreichend. Dazu ein Zahlenbeispiel: Bei T ≈ 100 K gilt für H2-Moleküle T ≈ 1 Å. Für schwerere Moleküle und höhere Temperaturen ist T noch kürzer. D.h. für typische Gase und Temperaturen ist die Maxwell-Boltzmann-Beschreibung ausreichend. Dagegen gilt für Elektronen T ≈ 70 Å, was viel größer ist als der mittlere Elektronenabstand bei typischen Konzentrationen in Metallen. Hier ist also die Maxwell-Boltzmann-Beschreibung nicht gültig.

73 c) Großkanonisches Ensemble



Die großkanonische Zustandssumme ZG =

 N=0

e   N ZN des Maxwell-Boltzmann-Gases enthält

eine Summation über die Teilchenzahl N. (Dies ist nur sinnvoll bei ununterscheidbaren Teilchen).

ZG =





N=0

e βμ N (Z1 ) N = exp (Z1e βμ ) N!

wobei Z1 wieder die Zustandssumme pro Teilchen ist (s.o.). Das großkanonische Potential ist



(T,V,) = –kT ln ZG = –kT Z1 e  = –kT

V  e λ3T

V ∂ = 3 e  N = –    ∂  T,V 

  = – kT ln

T

∂ = S = –  ∂T    V,

V  N λ 3 T

,

    N kT

  V  5 V 5  k   3 e = 2 k  N  + k  N  ln T  T 2  N λ 3T  U =  + TS +   N  

kT e    N ∂ P = – ∂V = = kT 3   T, V T

3  N  kT . 2

P V =  N  kT = – 

In allen drei Ensembles finden wir also denselben Ausdruck für die Entropie, dieselbe ideale 3 Gasgleichung P V = N kT, dieselbe kalorische Zustandsgleichung U = 2 N kT und so weiter, wenn wir nur N und E durch deren Mittelwerte  N  und U =  E  ersetzen. Allgemeine Zustände und Quantenzahlen

Die Beschreibung kann auf Systeme verallgemeinert werden, in denen die Zustände nicht nur durch die Impulse sondern durch allgemeine Quantenzahlen  charakterisiert sind, z. B. wenn die Teilchen ein Potential fühlen. Wir betrachten N wechselwirkungsfreie Teilchen mit N

 (x ,x ,...x ) =  h  x  , H 1 2 N i i i=1

wobei jedes einzelne Teilchen durch den Hamilton-Operator h i x i  und das Eigenwertproblem h i  x i  i (xi) = i i(xi)

beschrieben ist. Hierbei ist xi entweder xi = ri oder xi = ri, i, ... (Orts- und Spinvariablen, ...),   (x ) ist die Eigenfunktion des i-ten Teilchens und  die entsprechende Quantenzahl. Wenn H i

i 

i

74 eine Summe von h i x i  ist, faktorisiert die Gesamtwellenfunktion. Für N unterscheidbare Teilchen ist sie gegeben durch 

n(x1,x2,...xN) =  (x1)  (x2) ...  (xN)  . 1

2

N

wobei n für den ganzen Satz von Quantenzahlen n = {1, ...N} steht. Die Energie ist entsprechend die Summe der Energien aller Teilchen

  = E  mit E = und H n n n n

N

 i=1

i .

Die Zustandssumme lässt sich dann als Produkt der Zustandssummen der einzelnen Teilchen schreiben  Z = tr e β H =  e–En =

n

 e λ1 λ 2

β

N

 ελi i=1

N



=    e i 1  

λΝ

i



i

   

Bemerkung: Wenn die Teilchen verschieden sind (z.B. mit unterschiedlichen Massen), sind ihre Eigenwerte und Eigenfunktionen alle verschieden, was durch zusätzliche Indizes deutlich gemacht werden kann, hier aber wegen der Übersichtlichkeit weggelassen wurde. Maxwell-Boltzmann-Gas

Bei N gleichen (unterscheidbaren oder ununterscheidbaren) Teilchen, die wir im folgenden betrachten, gilt h i  x i   h  x i  . Alle Teilchen haben dasselbe Spektrum von Energieeigenwerten , und mehrere Teilchen können im gleichen Zustand  sein. Wenn die Teilchen ununterscheidbar sind, berücksichtigen wir dies in der Maxwell-Boltzmann-Statistik, indem wir in der Zustandssumme durch die Zahl N! der möglichen Permutationen dividieren. Die kanonische Zustandssumme ist dann Z = tr e

β  H

= n

1 = [N!

1 e–En = [N!

] (Z1)N

]  e

mit

λ1 λ 2

Z1 =

β

N

 ελi i=1

λΝ



1 = [N!

N

]    e   i 1  

e– .

λ

Wir berechnen also die Zustandsdichte Z1 für ein einzelnes Teilchen als Summe über seine Zustände . Die Zustandssumme von N Teilchen ist das Produkt der Zustandssummen der 1 einzelnen Teilchen Z = [N! ] (Z1)N [dividiert durch N!, für ununterscheidbare Teilchen]. Für die großkanonische Zustandssumme ununterscheidbarer Teilchen finden wir dann wieder

75 ∞ eN ZG =  N! (Z1) N = exp (Z1 e ) . N=0

Besetzungszahlendarstellung

Den letzten Ausdruck können wir umschreiben unter Einführung der Besetzungszahl n, die angibt, wie viele Teilchen im Zustand sind. Es gilt ZG =





 

...

n1 =0 n 2 =0





n λ =0

β  n λ (ε λ μ) 1  n !n !...n !... e λ . 1 2 

Zum Beweis dieser intuitiv nicht so offensichtlichen Formel formen wir um ZG =

1

 ( n nλ

λ

λ!

e

 β(ε λ μ)n λ

)= 

 β(ε μ)  = exp ( e λ

exp e



βε λ βμ

e





) = exp Z1 e β μ .

λ

Dies bedeutet, dass wir die großkanonische Zustandssumme des Maxwell-Boltzmann-Gases ununterscheidbarer Teilchen auf zwei Arten ausdrücken können: (i) Entweder summieren wir für jedes der N Teilchen (i = 1, 2,…, N) über dessen mögliche ZuständeiDanach dividieren wir durch die Zahl der Permutationen N!. (ii)Oder wir summieren über die möglichen Zustände unter Angabe von n, wie oft der Zustand von einem der Teilchen angenommen war. Die Ununterscheidbarkeit der Teilchen im jeweiligen Zustand  wird berücksichtigt, indem wir jeweils durch n! dividieren. Dies ist an dem folgenden Beispiel für N = 10 Teilchen illustriert: Zustand ↓

n↓

.

.



x

1

5

0

4

x

1

3 2

x x

1 = Grundzust. Teilchen i =

x

x

x 1

1

2

x 3

4

5

x 6

7

x 8

9

3 4

10

Maxwell-Boltzmann-Verteilung

Aus der zuletzt geschriebenen Darstellung können wir ablesen, dass die normierte Wahrscheinlichkeit, dass das Niveau  mit n Teilchen besetzt ist, durch folgenden Ausdruck gegeben ist

76  (n) =

1 1 – n (–) e Zλ n λ!

mit n = 0, 1, 2, … und Z =

1

n nλ

Damit können wir die mittlere Besetzungszahl  n  =

n

λ

λ!

e– n (–) .

n  (n) berechnen. Sie ist gege-

ben durch die Maxwell-Boltzmann-Verteilung

n λ   e

(ε λ  μ)/kT

.

5.2 Identische Teilchen in der Quantenmechanik (Bosonen und Fermionen) Die Quantenmechanik lehrt uns, dass es nicht ausreicht, die Ununterscheidbarkeit von Teilchen durch die Division durch die Zahl der Permutationen N! zu berücksichtigen. U.a. hat die Ununterscheidbarkeit verschiedene Konsequenzen für Bosonen und für Fermionen. Ununterscheidbare Teilchen:

Das Vertauschen von 2 Teilchen ändert den Zustand nicht, bis auf einen möglichen Phasenfaktor. ( p) Wir führen den Permutationsoperator P ein, der zwei Teilchen miteinander vertauscht, und P ,

der p Permutationen von jeweils 2 Teilchen bewirkt. Dazu ein Beispiel: P ik (x1,...,xi,...,xk,..) = P ik ...i(xi)...k(xk)... = ...i(xk)...k(xi)... =  (x1,...,xk,...,xi,..)

 und P (und auch P ( p) ) vertauschen Es gilt P 2 = 1. D.h. die Eigenwerte von P sind ± 1. Da H haben sie einen gemeinsamen Satz von Eigenfunktionen. Es stellt sich heraus, dass in der Natur beide Eigenwerte von P vorkommenden: •

für Bosonen sind die Zustände symmetrisch

( p) P S = S ,



für Fermionen sind die Zustände antisymmetrisch

( p) P A = (–)p A .

Bosonen:  und P (mit Eigenwert +1) sind darstellbar als Summe über alle N! Die Eigenzustände von H (p) P (x ...x ), wobei K eine Normierungskonstante ist. In Permutationen  (x ,...x ) = K S 1

N

P

1

N

S steckt nicht mehr die Information, welches Teilchen in welchem Zustand ist, sondern nur noch, wie oft jeder Einteilchenzustand  vorkommt. D.h. |S ist vollständig durch die Angabe der Besetzungszahlen n = 0, 1, 2, ... für alle  charakterisiert |S = |n1 ... n, ...  |{n}  |n mit n = 0,1, 2, ....

77 (Die Bedeutung der Kurzschreibweise |n muss sich aus dem Zusammenhang erklären.) Der Raum dieser Zustände wird als “Fock Raum” bezeichnet. Die Energie und Teilchenzahl sind En =   n ;

N =  n .





Fermionen:

Für Fermionen gilt A(x1,...xN) = K

 ()p P

( p)

(x1...xN). Dies kann als Slater-Determinante

P

geschrieben werden. A ist antisymmetrisch. Dies finden wir nach Anwenden eines weiteren Permutationsoperators

P A = K P

 ()p P

( p)

P

( p+1) ( p')  = – K  ()p+1 P  = – K  ()p' P  = – A . P

P'

Wenn in (x1,...xN) ein Ein-Teilchenzustand mehr als einmal vorkommt, gilt bei Vertauschen dieser beiden Teilchen  = P  = –  . Das bedeutet, dass  = 0 ist. Daraus folgt das Pauli A

A

A

A

Prinzip. Jeder Zustand kann höchstens einfach besetzt sein, also n = 0,1. Wieder ist der Gesamtzustand vollständig bestimmt durch die Angabe der Besetzungszahlen n |A = |n1, ... n ...  |{n}  |n En =   n , 

mit

n = 0,1

N =  n . 

Zustandssumme

Die Summe über die möglichen Vielteilchenzustände in der Zustandssumme kann nun einfach als Summe über die möglichen Besetzungszahlen geschrieben werden. Die großkanonische Zustandssumme für die Bose-Einstein- und Fermi-Dirac-Statistik ist ZG =

 N,n

e–(En–N) =



n λ 

e

 β  n λ (ε λ μ) λ



β  n λ (ε λ μ)          e λ  n1 0 n 2 0 n λ 0  β  n λ (ε λ μ) 1  1 1 =      e λ  n1 0 n 2 0 n λ 0    β  n λ (ε λ μ)  1  λ       n ! n ! n ! e 1 2 λ  n1 0 n 2 0 n λ 0

Bose-Einstein Fermi-Dirac Maxwell-Boltzmann

78 Zum Vergleich haben wir als drittes noch einmal das Ergebnis der Maxwell-Boltzmann-Statistik angegeben. Im Bose-Fall können wir die geometrischen Reihen aufsummieren, im Fermi-Fall die beiden möglichen Besetzungszahlen explizit schreiben, im Maxwell-Boltzmann-Fall führen die Reihen auf Exponentialfunktionen (wie schon oben gesehen). D.h.

  β(ελ μ)  1 Bose-Einstein  1  e    λ  β(ελ μ)  Fermi-Dirac ZG =   1  e   λ    β(ελ μ)  Maxwell-Boltzmann   exp e   λ Für kleine Werte von e–(–) , also kleine Teilchendichten (s.u.), stimmen die drei Verteilungen überein. Die Maxwell-Boltzmann-Statistik liegt zwischen der Bose-Einstein- und der Fermi-Dirac-Statistik. Analog finden wir für die kanonische Zustandssumme eine N-Teilchensystems in den drei Fällen

Z=

 e β E n

n

β  n λ ε λ           δ N, n λ e λ λ  n1 0 n 2 0 n λ 0  β  n λ ε λ 1  1 1 =       δ N, n e λ λ λ  n1 0 n 2 0 n λ 0    β  n λ ε λ  1  δ e    n ! n ! n ! N, λ n λ λ   1 2 λ  n1 0 n 2 0 n λ 0

Bose-Einstein Fermi-Dirac Maxwell-Boltzmann

Mit Hilfe der Polynonialformel lässt sich die zuletzt angegebene Summe für die Maxwell1 N Boltzmann-Statistik in das schon bekannte Ergebnis, ZMB = N! ( e–) , umschreiben. Bei 

der Bose- und Fermi-Statistik ist die Fixierung der Teilchenzahl,

λ

n = N, unbequem für die

weitere Auswertung. Da aber für große N die Unterschiede zwischen den verschiedenen Ensembles verschwinden, können wir das jeweils bequemste, also hier das großkanonische Ensemble verwenden.

79

5.3

Das Bose-(Einstein-)Gas

Wir betrachten ein Gas nichtwechselwirkender Bose-Teilchen mit Einteilchenzuständen mit Quantenzahlen , Einteilchenenergien  und Besetzungszahlen n. D.h. die Gesamtenergie ist E =

λ

n  und die Gesamtteilchenzahl N =

λ

n. Das Gas ist in Kontakt mit einem

Wärme- und (da am einfachsten zu behandeln) Teilchenreservoir. Für das großkanonische Ensemble gilt ˆ

ˆ



ZG = tr e  (H  N) =

{n}

n (–) =  e– ∑ 



{



e– n (–)}=  

n=0

1 1–e– ( –)

.

Bose-Funktion

Wir können wieder die normierte Wahrscheinlichkeit, dass das Niveau  mit n Teilchen besetzt ist, ablesen, –(–)

 (n) = [1 – e

]e

– n(–)

,

n = 0, 1, 2, …

Daraus ergibt sich für die mittlere Besetzungszahl  n  =  n  (n) die Bose-Funktion n 1 nλ    N(ε λ ) . (ε  μ)/kT e λ 1

N()

a) Für 0 ≤  –  « kT gilt

kT/( )

N() ≈ kT / (–) .



b) Bei kleinen Dichten gilt

e

0

kT

)/kT  ( 

  

N() ≈ e–(–) / kT. Hier stimmen die Bose-Einstein- und die Maxwell-Boltzmann-Verteilung überein.

Thermodynamik

Nachdem wir die Zustandssumme bestimmt haben, finden wir das thermodynamische Potential (T,V,) = – PV = – kT ln ZG = kT  ln [1–e–(–)] 

80 sowie die anderen thermodynamischen Größen. Nach einigen Rechenschritten können sie kompakt durch die mittlere Besetzungszahl, d.h. die Bose-Funktion, dargestellt werden, 

 N = –

∂ = ∂



 n 

λ

∂ = –k  [  n  ln  n  – (1 +  n  ) ln (1 +  n  )] . S = –  ∂T    V,  

U =  + T S + N =

 ε λ  n 

.

λ

Die weitere Auswertung dieser Größen erfordert Kenntnis von .

Das ideale Bose-Gas

Wir betrachten Gasteilchen mit Impuls p und Energie p = p 2 /2m . Die Teilchen sind eingeschlossen im Kasten mit Kantenlängen Lx, Ly, Lz. D.h. erlaubte Impulswerte sind p = 2π  nx und nx = 0, ± 1, ... (px,py,pz) mit px = Lx 

(T,V,) = kT  ln [1–e–(p–)/kT] . p

Sinnvolle Werte des chemischen Potenzials  (bei p ≥ 0) sind –∞ ≤  ≤ 0; denn Werte von  > 0 würden zu einer Divergenz bei p =  führen. Wir ersetzen die Summe  durch das Integral p

d 3p V  . Den Beitrag von p = 0 (2π)3

behandeln wir aber separat. Die Notwendigkeit dieses Schrittes wird später deutlich. Wir führen wieder die Fugazität z = e mit 0 ≤ z ≤ 1 ein und definieren die Integrale g5/2 (z)  –

4 π



 dx x2 ln 1  z e 0

 x2



g 3/2(z)

∞ z 4 = =  5/2 dx x 2  z–1ex –1 3 π 0 =1 8



1

 (3/2) = 2,612...

∞ z ∂ g3/2 (z) = z ∂z g5/2 (z) =  3/2 .  =1

Die Funktion g3/2(z) hat die dargestellte Form. Ihre Ableitung divergiert logarithmisch bei z=1. Beide Funktionen sind nach oben beschränkt,

0



z

81 g5/2(z) ≤ g5/2(1) = (5/2) = 1,342… g3/2(z) ≤ g3/2(1) = (3/2) = 2,612… Damit gilt V (T,V,) = kT ln [1–z] – kT 3 g5/2 (z) T z V  N  = 1–z + 3 g3/2(z)  T

3 V U = 2 kT 3 g5/2 (z). T Die ersten Terme in  und  N  rühren vom Beitrag von p = 0 her. Für z < 1 sind sie vernachlässigbar, da sie nicht proportional zum Volumen V sind. Sie sind jedoch wichtig für z  1 (s.u.). Für z = e « 1 können wir die angegebenen Reihenentwicklungen der Integrale g5/2(z) und g3/2(z) verwenden und finden 1 z 1 1  N 3 3 = 3 z (1 + 3/2 + …) « 3 also z = T n (1 – 3/2 T n + …) 2 2 V T T 1 z 1 3 P V = –  = kT V 3 z (1 + 5/2 + …) =  N  kT (1 – 5/2 T n + …) 2 2 

n=

T

3 1 3 U = 2  N  kT (1 – 5/2 T n + …) 2 Wir finden also wieder Relationen ähnlich wie beim idealen Gas aber mit zusätzlichen Korrekturen, die als Virialentwicklung bezeichnet werden. Hier rühren die Korrekturterme nur von der Bose-Statistik her. Wechselwirkungseffekte führen zu ähnlichen Abweichungen von den ideale-Gas-Relationen. Die Bose-Eigenschaften entsprechen einer anziehenden Wechselwirkung.

5.4

Bose-Einstein-Kondensation

Die mittlere Teilchendichte hängt mit  und damit z zusammen, n

 N 0  g3/ 2 (z) z  N ;  N0    = . 3 V V λT 1 z

Da g3/2(z) ≤ g3/2(1) = 2,612… nach oben beschränkt ist, reicht der 2. Term in  N  /V nur aus, solange die Dichte klein oder - wegen der T-Abhängigkeit von T - die Temperatur hoch ist. Andernfalls muss  N0  /V selbst für V → ∞ endlich sein. Dies bedeutet eine makroskopische

82 Besetzung des Zustandes mit p = 0. Dieses Phänomen wird als Bose-Einstein-Kondensation bezeichnet. Im Detail gilt: a) Für V  ∞ ist der erste Term vernachlässigbar, wenn die Dichte klein bzw. wenn die Temperatur hoch ist. Dann nimmt die Fugazität reguläre Werte an 0 ≤ z < 1, und es gilt n   N  /V = g3/2 (z) / λ3T .

Diese Relation können wir im Prinzip nach z(n) auflösen, was in verschiedene der unten angegebenen Relationen eingeht. b) Für hohe Dichten oder tiefe Temperaturen, d.h. n ≥ nc =

g3/ 2 (1) / λ3T

oder

_ 2h2 T ≤ Tc = ( m k

) (g3/2n(1) )2/3

ist der Grundzustand p = 0 makroskopisch besetzt. D.h. die Dichte der Bosonen in einem Zustand, p = 0, ist gegeben durch n0 =

 N0  1 z = V 1–z V

.

n0 /n

n0 ist endlich (obwohl V →∞). Dies ist nur möglich für z ≈1 – 1/N0 ≈ 1. Nun gilt n = n0 + g3/2 (1) / λ T3 g3/2(1) 1 n0 T = 1 –  n =1–   3 T n  Tc 

3/2

.

0

Tc

T

Die Dichte im Grundzustand n0 verschwindet oberhalb der Übergangstemperatur und ist endlich darunter. Damit stellt n0 den Ordnungsparameter eines Phasenübergangs dar. Die Bose-Einstein-Kondensation wurde 1995 von Ketterle, Cornell und Wieman an Rb-Atomen -7 in Atomfallen bei sehr tiefen Temperaturen von ca. 10 K nachgewiesen. Dafür erhielten sie den Nobelpreis 2001. Die thermodynamischen Eigenschaften (für V → ∞) oberhalb und unterhalb des Übergangs sind

Druck:

 kT  λ3 g 5/2 (z) oberhalb (T  Tc (n) oder n  n c (T)) (T,V,)  T des Übergangs P=– = V kT  g (1) unterhalb (T  Tc (n) oder n  n c (T))  λ 3T 5/2

83 Hier hängt z von n bzw. V ab, woraus sich das rechts dargestellte Bild ergibt. Im Ausdruck für P tritt auch unterhalb des Überganges kein zu1 ln(1–z) → 0 sätzlicher Term auf, da lim V  V auch für z → 1. Der Übergang zwischen den kTc(n) g5/2(1), beiden Phasen erfolgt bei Pc = 3 Tc(n)

Pc

P

Übergangskurve

T1

Gas

T2

kondensierte Phase

d.h. _ N 5/3 2h2 g5/2(1) Pc= (V ) m [g3/2(1)]5/3 .

Entropie:

V

5 V  2 k λ 3 g 5/2 (z)  k  N lnz  T S =   5 k V g (1)  2 λ3T 5/2

oberhalb des Übergangs unterhalb

Wärmekapazität: g (z) 9 15 V k 3 g 5/2 (z)  k  N 3/2  4 g1/2 (z)  4 λT ∂S CV = T ∂T =   ,V  15 k V g (1)  4 λ 3T 5/2

oberhalb des Übergangs unterhalb

cV 1,28.3 Nk/2 3 Nk/2

0

Tc

T

Die Entropie verschwindet für T → 0, in Übereinstimmung mit dem 3. Hauptsatz.

84

5.5

Hohlraumstrahlung, Photonen

Wir betrachten einen “Hohlraum” mit Volumen V. Die Quantisierung der elektromagnetischen Strahlung in dem Volumen führt auf Photonen ik r k t  2 e e mit Wellenzahl k (mit k x  n x und Lx

d Hohlraum T



nx = 0, ±1, …), Frequenz k = c |k| und Polarisation  = ± 1. Hier ist c die Lichtgeschwindigkeit. Die Energie eines Photons ist Ek =  k und sein Impuls ist p =  k. Der Zustand und die Energie des Strahlungsfeldes sind charakterisiert durch die verschiedenen Photon-Moden und deren Anregungs- bzw. Besetzungszahlen (wir ignorieren hier den konstanten Beitrag der Grundzustandsenergie der harmonischen Oszillatoren) |{nk}  mit nk= 0,1,2, … . und

E({n k ε }) =

ωk n k ε .  kε

Die Atome in den Wänden haben die Temperatur T. Sie emittieren und absorbieren Photonen. Im thermischen Gleichgewicht hat dann auch das Strahlungsfeld diese Temperatur. Zur Berechnung der kanonischen Zustandssumme dieses Systems summieren wir jede der unendlich vielen (s.u.) - verschiedenen und unterscheidbaren Photon-Moden über deren jeweilige quantenmechanischen Zustände, die durch die Zahl der Anregungen nkcharakterisiert sind, Z = tr e

ˆ  H

=



{n k ε }

e

β E({nk ε })

  β ωk nk ε  1  =    e  =  β  ωk k ,ε  k ,ε 1  e  nk ε =0 

Wir erkennen, dass die Zustandssumme auch als großkanonische Zustandssumme Z=ZG des Systems von Photonen incl. einer Summation über die Zahl der Photonen interpretiert werden kann, wobei allerdings das chemische Potential der Photonen verschwindet,  = 0. Zur Begründung kann gesagt werden, dass für Photonen kein Erhaltungssatz gilt, und daher kein entsprechender Lagrange-Multiplikator eingeführt wird. Diese Interpretation löst auch eventuelle Fragen, was eine kanonische Zustandssumme für unendlich viele Teilchen (hier Moden) ist. Die freie Energie bzw. das thermodynamische Potenzial ist dann

(T,V,=0) = kT  k,

_ ln (1–e– h k

_ d 3k π 2 (kT) 4 – h  ) = 2V kT  ln (1–e k ) = V . 45 (c)3 (2π)3

85 



0

0

Hier haben wir verwendet –3  dx x2 ln(1–e–x) =

 dx

x3 ex  1

= (4) (4) = 3!

π4 π4 = . 90 15

Von  finden wir die Entropie, innere Energie, die Wärmekapazität und den Strahlungsdruck ∂  S = – ∂T = – 4 T

,

U = + TS = –3 = V

∂S 42 (kT)3 CV = T ∂T = V 15 k (  c)3

,

PV=–= V

π 2 (kT) 4 , 15 (c)3

1 π 2 (kT) 4 = 3 U. 45 (c)3



β  ωkε

Die mittlere Besetzungszahl der k-Zustände ist durch die Bose-Funktion  n kε   e



1

1

gegeben. Daraus folgt die mittlere Zahl n der Photonen mit Energie  ≤ ≤  (+d (unabhängig von der Richtung von k und der Polarisation )



1 1 n d= nk2 V 4k2dk = nkV 2 3 2d 3 (2) π c

u( ,T)

Die mittlere Strahlungsenergie u(,T) bei der Frequenz  pro Volumen erhalten wir, indem wir 2 die Bose-Funktion und die Zustandsdichte (  )

T 3 >T2 > T 1 T2

noch mit der Energie   multiplizieren, _ h 3 u(,T) = 2 3 _  c h/kT e –1

T1 

.

2

0 Dies ist die Planck'sche Strahlungsformel.



(T 1)

max



Grenzfälle im klassischen und extremen Quanten-Grenzfall sind

 1 2  π 2c3 kT ω u(,T) =   1  ω3 e ω /kT  π 2c3

für ω  kT Rayleigh-Jeans Gesetz . für ω  kT Wien'sches Gesetz

Das Maximum der Verteilung ist bei  max = 2,822 kT (Wien'sches Verschiebungsgesetz). Die vom Hohlraumstrahler durch ein kleine Öffnung (siehe Skizze oben) in das Frequenzintervall d, Raumwinkel d = sinθ dθ dφ / 4π pro Flächenelement df abgestrahlte Leistung ist dI( = u(,T) c cosd d df/ 2 .

86 Der Faktor 1/2 berücksichtigt, dass nur die Hälfte der Photonen eine nach außen gerichtete Geschwindigkeit hat. Die total abgestrahlte Leistung pro Fläche F ist dann  I c c = u(,T) cos  = dω u(,T) = T4 dΩ dω F  2 4 0

mit  

π2 k 4 . Dies ist bekannt als das Stefan'sche Gesetz. Damit und mit dem Wien'schen 60 3 c3

Verschiebungsgesetz lassen sich  und k bestimmen.

5.6

Phononen

a) Harmonische Oszillatoren

Wir betrachten nun die Gitterschwingungen in Festkörpern. Zunächst betrachten wir ein vereinfachtes Modell, wo wir annehmen, dass die Auslenkung jedes Atoms von der Ruhelage als klassischer harmonischer Oszillatoren mit Frequenz i beschrieben werden kann. Bei N Atomen und 3 Raumrichtungen gibt es 3N Auslenkungen, und die Hamilton-Funktion ist H({pi,qi}) =

pi2 m 2 2     2m + 2 ωi qi  . i=1   3N 

Aus dem Gleichverteilungssatz können wir sofort schließen, dass im klassischen Grenzfall die innere Energie U = 3 N kT ist, und die Wärmekapazität CV = 3 N k . Der Vergleich mit der unten folgenden quantenmechanischen Behandlung zeigt, dass die klassische Beschreibung das korrekte Hochtemperatur- aber ein falsches Tieftemperaturverhalten liefert.

In der Quantenmechanik beschreiben wir die 3N Oszillatoren durch den Hamilton Operator ˆ = H

3N



i=1

_ ˆ + 1) h i ( N i 2

,

ˆ =a+a , N i i i

wobei die Erzeuger und Vernichter die Vertauschungsrelationen erfüllen

87 [ai, aj+] = ij

und [ai, aj] = [ai+, aj+] = 0 .

 |n  = n |n  , Für jeden einzelnen Oszillator haben die Eigenzustände |ni  die Eigenschaften N i i i i 1 _ mit ni = 0,1,2, ..., und die Energieist Ei = h i (ni + 2 ). Die Erzeuger und Vernichter bewirken ai+|ni  = ni+1 |ni + 1  undai|ni  = ni |ni – 1  .

Die Vielteilchenzustände sind durch die Anregungszustände oder 'Besetzungszahlen' ni aller 3N Oszillatoren beschrieben |{ni}  |n1,n2, ..., n3N  . Die Energie ist die Summe aller Einzelenergien, und die kanonische Zustandssumme der 3N unterscheidbaren Oszillatoren wird 

ˆ

Z = tr e  β H =



 n1=0



...



3N β   ωi n i +1/2 e i=1





=

3N

 i 1

n3N=0

e

1

β ωi /2

1 e

β ωi

.

Die freie Energie ist also F =

1

[ 2 ωi + kT ln(1 – e

β  ωi

)] .

i

Wieder kann die Zustandssumme auch als großkanonische Zustandssumme von „Phononen“, interpretiert werden. Da keine Teilchenzahlerhaltung für die Phononen gilt, ist das chemische Potential  = 0, und die freie Energie und das großkanonisches Potential sind gleich. b) Einstein-Modell

Beim Einstein-Modell nehmen wir an, dass alle Frequenzen gleich sind, i = 0. Dann gilt 3N β  ω0 ) F(T,V,N) = 2  0 + 3N kT ln (1 – e 

∂2F  ω0 2 CV = –T  2 = 3N k ( ) ∂T  V,N kT

eβ  ω0

1  e



β  ω0 2

 3 N k  βω0   e

für kT  ω0 für kT  ω0

.

Die Wärmekapazität ist oben dargestellt mit  0 ≈ kD (D wird unten definiert). Sie verschwindet exponentiell bei T→0. Dies ist typisch für Fälle, wo Anregungen im System eine minimale Energie (hier  0) benötigen. c) Debye-Theorie

Nun betrachten wir ein realistisches Modell für die Gitterschwingungen im Festkörper, bei dem jeweils benachbarte Ionen harmonisch gekoppelt sind. Der Hamilton-Funktion ist dann

88 pi2 1 H({p, q})     A(qi  q j )2 . i 1 2m 2 i, j N

Wir diagonalisieren und quantisieren. Die Eigenschwingungen sind die Phononen mit Frequenz k,Wellenvektor k und Polarisation , die longitudinal (= l) oder transversal (= t1, t2) sein kann. Der Wellenvektor k ist eine gute Quantenzahl, weil die Eigenzustände in einem periodischen Potenzial Bloch-Zustände sind (mehr dazu im Abschnitt über Bandelektronen). Für Teilchen im Kasten ist k quantisiert ( k x  2 n x mit n x  0, 1, 2, ), der Wellenvektor ist Lx aber beschränkt auf die 1. Brillouin-Zone mit insgesamt N verschiedenen k-Zustände (für kubische Gitter mit  / a  k x   / a , …). I.a. gibt es akustische und optische Phononen. Hier betrachten wir aber Gitter mit einatomigen Elementarzellen, wo es nur akustische Phononen gibt. Dann gilt ˆ = H

 λ=l,t ,t

1 2

 k.BZ

ˆ  k ( N k λ + 1/2)

k,

Rechts ist eine realistische Phononendispersionsrelation skizziert. Der Zustand der Phononen ist charakterisiert durch die Besetzungszahlen der Phonon-Moden, |{nk} 

c kx

nk= 0,1,2, … ,

a



kx

und die Zustandssumme und freie Energie sind nun Z = e k, λ

β  ωk λ /2

1 1 e

β ωk λ

und

F(T,V) =

 [ k,

 ωk λ 2

+ kT ln (1 – e

β  ωk λ

)]

Zur weiteren Auswertung verwenden wir die Debye-Näherung, die aus zwei Stufen besteht: (1) Die Brillouin-Zone wird durch eine Kugel mit Radius kD ≈ /a ersetzt. Genauer wird der Radius so gewählt ist, dass das Volumen der 1. BZ und der Kugel übereinstimmen. Dadurch ist gesichert, dass die Zahl der Oszillatoren pro Polarisation weiter gerade N ist. Wir ersetzen also N=

 1 = V 4  k.BZ k k

D

N k 2dk 4 1 1 , d.h. N  V k 3 , bzw. kD = (6 V 2)1/3. 3 D 3 3 (2) (2π)

(2) Die Dispersionsrelation wird vereinfacht

89 unabhängig von ,

k = c |k|

wobei c die Schallgeschwindigkeit ist. Dies gilt offensichtlich nur für akustische Phononen, optische wären besser durch das Einstein-Modell beschrieben. Dann ersetzen wir mit  = c k die Summe über die Wellenvektoren durch ein Frequenzintegral



k.BZ

 = V 4



k k D

k 2dk  =  dω F() … . (2π)3 ωωD

F  ()

Dazu führen wir die Phononenzustandsdichte V 2 F() = 3 2 (D–) c 2 N und die Debye-Frequenz D = c kD = c (6 V 2)1/3 bzw. die Debye-Temperatur kD  D ein.

D



ω2 Damit kann die Phononenzustandsdichte geschrieben werden wie F() = 3N 3 (D–) . ωD In der Debye-Näherung erhalten wir so für die freie Energie ωD

  dω Fλ (ω)[ λ

F(T,V) =

0

ω  kT ln(1  eβ  ω )]  2

Zur Auswertung des zweiten Terms nach einer partiellen Integration führen wir die DebyeFunktion D(x) ein, D(x) =

3 x3

x

0

t3  1  3x/8 + … dt t = 4 3 e –1  π /(5x ) + …

für x « 1 . für x » 1

Damit ergibt sich 9 θ /T F(T,V) = 8 N kD – N kT D(D/T) + 3 kT ln (1– e D ) und daraus im Prinzip die weiteren thermodynamischen Größen. Die innere Energie können wir auch direkt wie folgt ausdrücken, U =

 k,

 k  nk  =

ωD

  λ 0

ω  dω Fλ (ω)  β  ω = 3N kT D( D ) . T 1 e

90 

∂2F ∂U CV = –T  2 =  ∂T  ∂T  V,N   V,N = 3Nk[ D(

∂ θ 1 D   ) + T ∂T D( D ) ] = 3Nk [4 D( D ) – 3 D θ /T ] D T e T T T 1

Bei hohen Temperaturen T » D finden wir wieder das klassische Ergebnis CV = 3N k. Dagegen gilt bei tiefen Temperaturen T « D 12 T3 CV = 5 4N k 3 D

.

Der Unterschied zum Einstein-Spektrum rührt daher, dass es jetzt Anregungen mit beliebig kleiner Energie k→ 0 für k → 0 gibt. Es ist weiterhin zu bemerken, dass es weder für Photonen noch für Phononen eine Bose-Einstein-Kondensation gibt. Für diese Teilchen gilt kein Erhaltungssatz, das chemische Potential ist  = 0, und bei tiefen Temperaturen nimmt die Zahl der „Teilchen“ einfach ab, muss also nicht den Grundzustand makroskopisch besetzen.

5.7

Das ideale Fermi - (Dirac -) Gas

Wir betrachten ein Gas nicht-wechselwirkender Fermionen im Kontakt mit einem Wärme- und Teilchenreservoir. Die Zustandssumme des großkanonischen Ensembles mit Einteilchenquantenzahlen ist 

ZG = tr e

ˆ  μN) ˆ β(H

=



e

β  n λ (ελ μ) λ

=

{n λ =0,1}

 1  e λ

β(ε λ μ) 



Fermi-Funktion

Die normierte Wahrscheinlichkeit, dass das Niveau  mit n = 0,1 Teilchen besetzt ist, ist 

 (n) =

1 1+e–(–)

e–n(–)

Daraus ergibt sich für die mittlere Besetzungszahl 1  n  =  n  (n) die Fermi-Funktion nλ

f( kT

1

 n λ  = (ε -μ)/kT  f(ε λ ) λ e +1

0







91 Bei hohen Energien und geringer Dichte stimmen die Fermi- und die Maxwell-BoltzmannVerteilung überein. Im Gegensatz zu Bosonen ist für Fermionen  nicht nach oben beschränkt.

Fluktuationen

Für unabhängige Fermionen gilt 

 n2  =

0 + 1 e–(–) =  n  1 + e–(–)



 n λ n λ' 





 n λ  n λ' 

für λ  λ'

 nλ 

für λ = λ'

 (n –  n  )2  =  n  –  n  2 ≤  n 

Die Fluktuationen der Gesamtteilchenzahl sind dann  (N –  N  )2  =  N2  –  N  2 =

 λλ'

=

λ

[  nn'  –  n   n'  ]

[  n  –  n  2] ≤  N 

d.h. für N → ∞ verschwinden die relativen Fluktuationen in der Teilchenzahl.

Thermodynamik

Aus der Zustandssumme erhalten wir (z.T. mit einigen nicht-trivialen Umformungen) die thermodynamischen Größen (T,V,) = –kT ln ZG = –kT  ln [1 + e–(–)/kT] 



∂ =  N = – ∂ S=–

 

f()

 = –k  [f() ln f() + (1 – f()) ln (1 – f())] T 

U =  + TS +   N  =

 

f()

Für die weitere Auswertung müssen wir  spezifizieren.

92

Freie Elektronen Für freie Fermionen mit Impuls p (im Kasten mit p x  2  n x mit n x  0, 1, 2, ) und Spin s, Lx d.h. (2s+1)-facher Entartung, gilt  = p, und die Energie ist  = p = p 2 / 2m . Wir führen wieder die Fugazität z = e und zwei Integrale sowie deren Entwicklungen ein, f5/2 (z) 

und

4 π



0

–x2

dx x2 ln (1 + ze

∞ (–)+1 z ∂ f3/2 (z) = z ∂z f5/2 =  3/2

)=

8





3 π 0

dx x4

1 x2

z–1e +1

∞ (–)+1 z =  5/2 =1

.



Dann gilt V (T,V,) = – (2s+1) 3 kT f5/2(z) = – P V T V  N  = (2s+1) 3 f3/2 (z) T U=–

3(2s+1) V 3 kT f5/2(z) . 8  T

Bei geringer Dichte bzw. hoher Temperatur gilt z « 1, und  z2  N (2s+1)  z – n= = + ...  3  3/2 2  V T



3 3 2 T n 1  T n  z = 2s+1 + 3/2 2s+1 +…  2 

1 3 Einsetzen von z liefert bei geringer Dichte  np  ≈ 2s+1 T n e–p . Diese Relation ist nützlich in Halbleitern mit geringer Leitungselektronendichte. Weiterhin gilt     λ3 n V z2 P V = (2s+1) 3 kT  z  5/2    =  N  kT 1  5/2 T   .  2 (2s+1)  2 T    

Die Virialentwicklung zeigt, dass bei Fermionen der Druck - allein aufgrund der Statistik - höher ist als beim idealen Gas. Dagegen ist er bei Bosonen geringer (s.o.). Während Bosonen einen Trend zum ‚bunching’ haben, erzeugt die Fermi-Statistik effektiv eine Abstoßung auf Grund des Pauli-Prinzips (‚anti-bunching’).

93

5.8 Elektronen im Festkörper, Bloch-Zustände und Bandstruktur Häufig sind wir an den Elektronen in einem Festkörper interessiert. Diese bewegen sich in einem periodischen Potenzial. Bei der Bestimmung der Eigenzustände ist es wichtig, die Symmetrie, d.h. im periodischen Potenzial die Translation um eine Einheitszelle (Gittervektor a) zu berücksichtigen. Der entsprechende Translationsoperator Ta und der Hamilton-Operator vertauschen, und sie haben gemeinsame Eigenzustände - die Bloch-Zustände - mit den Eigenschaften  k ,n (r  a)  ei k a  k ,n (r ) bzw.

 k ,n (r )  ei k r u n (r )

mit u n (r  a)  u n (r ) .

Hier ist n ein Bandindex. Der Wellenvektor k, bzw. der Quasi-Impuls p   k , sind weiterhin gute Quantenzahlen. Sie sind quantisiert, d.h. für Teilchen in einem Kasten mit Abmessungen Lx, … gilt k x  2 n x / L x mit n x  0, 1, 2, . Allerdings kann man, wegen der Periodizität von ei k a die Werte von k auf die 1. Brillouin-Zone beschränken, d.h.  / a  k x   / a .

Die Energie der Bandelektronen k ,n ist i.A. eine kompliziertere Funktion von k (siehe Bilder für die Bandstruktur verschiedener Materialien). Manchmal ist aber der Grenzfall der „nahezu freien Elektronen“ erfüllt. Dann ist im untersten Band für kleine Impulse p = p 2 / 2m , aber am Rand der Brillouin-Zone öffnet sich eine Bandlücke zum nächst höheren Band. In Halbleitern hängt die Energie an der unteren Bandkante häufig quadratisch vom Impuls ab, aber die effektive Masse m* unterscheidet sich von der freier Elektronen. Häufig interessieren uns auch nur die Eigenschaften der Elektronen in der Nähe der Fermi-Energie. Wenn diese Verallgemeinerungen berücksichtigt werden, lassen sich die bisherigen Ergebnisse auf Elektronen im Festkörper übertragen. Fermi-See

Bei T = 0 gilt f() = . Das chemische Potential bei T = 0 ist die Fermi-Energie F  _ 2h (T=0). Für freie Teilchen im Kasten mit Kantenlängen L mit p = L (nx, ny, nz) , p, = p2/2m und Spin s ist der Fermi-Impuls pF =

2 m ε F definiert durch die Bedingung, dass alle

Teilchen in der Fermi-Kugel untergebracht werden können, d.h. N (2s+1) 4π 3 n = V = pF (2π )3 3



F = (T=0) =

p 2F 2m

=

2 6π 2 2/3 . n 2 m 2s+1





In Festkörpern hängt i.A. die Energie von der Richtung von k ab. Dann ist der Fermi-See keine Kugel, aber das Volumen ist weiterhin durch die Bedingung festgelegt, dass darin alle Teilchen untergebracht werden können.

94 Zustandsdichte der Fermionen

Um die Summe über Impulse durch Integrale über die Energie auszudrücken, führen wir die Elektronenzustandsdichte (pro Spin) ein. In 3 Dimensionen gilt D() d =

4π 2 p dp (2π)3

Für freie Elektronen mit p  p 2 / 2m gilt D() =

mp 2π 2 3

=

m3/2 2 π 2 3

0





ε.

N Daraus folgt bei T=0 mit V = (2s+1)

5.9

D(

εF

 0

E dε D() die Beziehung V = (2s+1)

εF

3

 dε D() = 5 NF . 0

Das entartete Fermi-Gas, Sommerfeld-Entwicklung

In Metallen ist die Elektronendichte hoch, und  » kT. Typische Werte sind

f( 1

kT

kT

(T=0)  F  k TF ≈ 10 eV  TF ≈ 105K

0





Bei endlichen aber tiefen Temperaturen, kT «  können wir ausnutzen, dass die Ableitung der Fermi-Funktion nur in einem engen Energiebereich von der Größe kT «  von Null verschieden ist. Im Vergleich zu – df () / d sind andere Größen, z.B. die Zustandsdichte D(), glatte Funktionen. Dies macht eine Entwicklung möglich, die als Sommerfeld-Entwicklung 

bezeichnet wird. Wir brauchen dafür die folgenden Integrale

0 dε (ε  μ)

Grenze kann von Null nach –∞ verschoben werden. Damit ergibt sich 1   2 2   (π /3)(kT) n  df  dε (ε  μ)   = (7π 4 /15)(kT)4   dε    ...  0 



n=0 n=2 n=4 n ungerade

n

(  df /dε) . Die untere

95 Die Integrale wurden durch folgende Integrale ausgedrückt In 





dx



x n ex = (n–1)! (2n) (1–21n) (n), x 2 (1+e )

wobei (n) die Riemann'sche Zeta-Funktion ist mit den Werten

(2) = 2/6 , (4) = 4/90 , ...

Wir entwickeln f3/2(z) und f5/2(z) oder direkt (T,V,) in der Sommerfeld-Entwicklung: 



(T,V,) = (2s+1) V kT

dε D(ε) ln[1  e (ε μ)/kT ] .



0

In zwei partiellen Integrationen führen wir die Größen a() und b() ein, ε ε 3/2 m 2 m3/2 4 5/2 3/2 und b() = dε' a(ε') = a() = dε' D(ε') =   . 2 π 2 3 3 2 π 2 3 15 0 0





Dann gilt



(T,V,) = – (2s+1) V





 df(ε)  .  dε 

dε b(ε)  

1 Wir entwickeln nun b() um  =  : b() = b() + a() (–) + 2 D() (–)2 + ... 

  2 (T,V,) = – (2s+1) V b() + 6 D() (kT)2 + ... =  PV    N = –

  ∂ 2 ∂D() = (2s+1) V a() + 6 (kT)2 + ... ∂ ∂  

= (2 s  1) V

m3/2 2 π 2 3

 2 3/2 π 2 1  m3/2 2 3/2 2 μ + (kT) + ... (2 1) V s εF     12 μ 2 π 2 3 3  3 

Durch Invertieren finden wir, dass von T abhängigist,  2  = F 1 – 8 

 kT2    + ...   F

.

Analog finden wir   5 3 kT2 U = 5  N F 1 + 12 2   + ...   F  

und

2 kT CV =  N k 2 F

D.h. für kT « F hängt die Wärmekapazität linear von der Temperatur ab.

.

96 Wir vergleichen das verdünnte und das entartete Elektronengas (letzteres in niederster Ordnung in T/TF) klassisches System “entartetes” Fermigas U

=

3 2 N kT

3 5 N k TF

PV

=

N kT

2 5 N k TF

D



T

~ TF

(D ist die Diffusionskonstante.) Beide Systeme erfüllen also ähnliche Relationen, solange T durch TF ersetzt ist. Dies steckt hinter der Bezeichnung "entartet".

5.10 Pauli-Paramagnetismus Ein Elektron im Magnetfeld ist beschrieben durch den Hamilton Operator (wir wählen hier e = |e|, die Ladung eines Elektrons ist also –e) ^ H =

1  e  p  A 2m  c 

2

– B H ;

z =  = ± 1 , B = e  /(2 m c)

Die Kopplung von Impuls und Vektorpotential führt zum Zeeman-Effekt und LandauDiamagnetismus, die wir hier nicht weiter diskutieren. Dagegen untersuchen wir nun die Konsequenzen des letzten Terms, der zum Pauli-Paramagnetismus führt. Die Energieeigenwerte sind dann p2 p = 2m  B H. Der Unterschied zwischen der 'Spin-auf' = +1 und 'Spin-ab' = –1 Komponente ist der Beitrag ±BH in der Energie, den wir formal durch eine Verschiebung des chemischen Potentials darstellen können, ± = μ ± BH . Die Zustandssumme ist

97 ZG =

 +

{np }{np }

exp{–  [(n p+  n p ) ( p

2

p – ) – BH (n p+  n p ) ]} 2m

und die Magnetisierung M = B (  N+  –  N–   = B

 p

(  n p+    n p  

Für kT « F gelten die Relationen des entarteten Fermi-Gases. D.h.

N+ – N– = V

m 3/2 2 2 3/ 2 μ 3/    μ 2 3 2π  3





m 3/2 2 π 2 3

 μ   μ   –1/2

Damit gilt für die Magnetisierung und Suszeptibilität M 3 = V 2 und

n μ 2B H εF

= D(F) 2BH = n

3 μB H . 2 εF



=H

3n μ 2B = 2 B2 D(F) . = 2 εF

Die Suszeptibilität ist also proportional zur Zustandsdichte an der Fermi-Kante.

F

Für kT » F » BH gelten die Relationen des Fermi-Gases mit geringer Dichte

N+ – N– μ H 1 = 3 (e+ – e–)  n B . V kT T μ 2B H μ 2B M und die Suszeptibilität ist  = n . D.h. die Magnetisierung ist V = n kT kT

kT

98

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

6

Systeme mit Wechselwirkung

6.1

Wechselwirkende Teilchen

99

Die Hamilton-Funktion von N wechselwirkenden Teilchen ist 

N

H({pi},{ri}) =

p2

i  [2m

i=1

1 + U(ri)] + 2  V(ri – rj) , i≠j

die Gibbs'sche Verteilungsfunktion ist ({pi},{ri})  exp[–H({pi},{ri})] und die klassische (Maxwell-Boltzmann) kanonische Zustandssumme 1 d 3N p ZN = d 3N r exp[–H({pi},{ri})] . 3N   N! (2π ) p2

d p  2m Jede Impulsintegration liefert  e = 2π 

1 m kT  , was die thermische de BroglieT 2π  2

Wellenlänge T definiert. D.h. ZN =

    1 1 1 3N  d r exp β U( r ) + V(r  r )    i j  . i  N! λ 3N 2 i j T   i  

Eine weitere exakte Auswertung ist nur in Spezialfällen (z.B. bei harmonischer Wechselwirkung) möglich. I.A. sind Approximationen oder Numerik (z. B. Monte-Carlo-Methoden) nötig. Diese werden im Folgenden an einigen Beispielen erläutert. Weiterhin werden die Wechselwirkungen in Festkörpern ausführlicher diskutiert.

6.2

Virialentwicklung

Genügend verdünnte Gase verhalten sich ideal, d.h. P V = N kT. Bei nicht-verschwindender Dichte n = N/V führen Wechselwirkungen oder, wie in Kap. 5 gezeigt, die Bose- oder FermiStatistik zu Korrekturen. Dies ist die Aussage der Virialentwicklung, einer systematischen Entwicklung in der Dichte PV = 1 + n B + n2 C + ... . N kT

Für anziehende Wechselwirkung ist der 1. Virialkoeffizient B < 0, für abstoßende gilt B > 0.

100 Eine Entwicklung in der Dichte entspricht einer Entwicklung in der Fugazität, z = e/kT « 1. Die großkanonische Zustandsdichte ist dann 

ZG =



 N 0

ZN eN/kT = 1 + Z1 e/kT + Z2 e2/kT + ... .

Besser ist es, eine Kumulanten-Entwicklung durchzuführen 1 ZG = exp [ Z 1 e/kT + Z 2 e2/kT + ...] = 1 + Z 1 e/kT + ( Z 2 + Z 1 ) e2/kT + ... . 2 1 Der Vergleich liefert Z 1 = Z1, Z 2 = Z2 – Z12 , .... Die Kumulanten-Entwicklung führt direkt 2 auf das großkanonische Potenzial

(T,V,) = – PV = –kT [ Z 1 e/kT + Z 2 e2/kT + ...] . Weiterhin gilt

  N =–  = Z 1 e/kT + 2 Z 2 e2/kT + ... .   μ   T,V

 2 + ...] und Die Kombination liefert PV = kT [ N – Z 2 e2/kT + ...] = kT [ N – Z 2 N 2/ Z 1 





B = – V Z 2 / Z 12 = –V Z2 / Z12  1/ 2 .

Virialkoeffizient für ein klassisches Gas mit Paarwechselwirkung N pi2

1 N Für ein klassisches System mit Hamilton-Funktion H =  2m + 2  V(ri – rj) gilt i=1

Z1 =

i≠j

V p2 d 3p 3 d r exp [ – ] = 3  (2π)3  2m T

p12 p22 1 V 3 –V(r) 1 d 3p1d 3p 2 3 3 Z2 = d re d r1d r2 exp{–[ 2m + 2m + V(r1 – r2)]} = 6   2 λ 6T  2! (2π) D.h. der 1. Virialkoeffizient ist daher B=–

1 3  V(r)/kT  d r e 1 .   2

101 Zur weiteren Auswertung betrachten wir ein Potenzial mit 'hard core' Abstoßung bei kurzen Abständen und schwacher Anziehung bei größeren Abständen

V(r) 'hard core' Abstoßung

für r  2r0  1 e–V(r)/kT – 1 ≈  V(r)/kT für r  2r0 Hier ist r0 der Teilchenradius, d.h. der Abstand von 0 zwei Teilchen ist mindestens 2r0. Damit ergibt sich 

1 4 B(T) = 2 3 (2r0) 3 +

a 1 d3r V(r)  b –  kT 2kT |r|>2r

r 2r0

schwache Anziehung

mit a, b > 0 .

0

Der erste Beitrag, b, beschreibt das durch ein Teilchen für die anderen ausgeschlossene Volumen, während a die anziehende Wechselwirkung charakterisiert. Die Gasgleichung (mit N =N, da die Fluktuationen klein sind) lautet also n PV = N kT (1 + b n – a kT ) . Für hohe Temperaturen dominiert die Abstoßung, für tiefe die Anziehung. Das van der Waals-Gas Für geringe Dichten können wir die Virialentwicklung auch in der folgenden Form schreiben PV + a n2 V = N kT (1 + b n) bzw. (P + a n2) V (1 – b n) = N kT. Dies führt zur bekannten van der Waals-Zustandsgleichung

N2 (P  a 2 )(V  Nb)  N kT V

,

wobei a mit der anziehenden Wechselwirkung bei größeren Abständen und b mit dem abstoßenden 'hard core' Potenzial zusammenhängen. Hier haben wir die van der Waals-Gleichung im Grenzfall kleiner Dichte hergeleitet, wo sie äquivalent zur Virialentwicklung ist. Sie wird aber i.A. aber auch bei größeren Dichten als sinnvoll angesehen, und beschreibt dann auch den Flüssig-Gas-Phasenübergang.

Quanteneffekte und Virialkoeffizient Wir geben noch einmal eine einfache Herleitung des 2. Virialkoeffizienten, der von der Statistik herrührt (vergl. Bosonen und Fermionen im Kap. 5). Dazu betrachten wir ein nicht-wechselwirkendes Bose- oder Fermigas mit Energie p 2 / 2m und Spin s

102 

Z1 =

V e–p2/2m = (2s+1) 3 T

 p

,

Z2 =

' e–(p2+p'2)/2m .  p,p ' '

Die Einschränkung bei der Summation in Z2 (symbolisiert durch den Strich) berücksichtigt, dass Vertauschen von p und p'' keinen neuen Zustand liefert, und hat unterschiedliche Konsequenzen für Fermionen und Bosonen. Für Fermionen müssen wir gleiche Zustände ausschließen. D.h.

 '… p,p ' '

=

1 1 … =   2 pp ' ' 2 p

 p ' '

… –

1 2



pp ' '



Für Bosonen ist Doppelbesetzung möglich, und die Diagonalterme tragen bei,

 '… p,p ' '

=

1  …+ 2 pp ' '

 … pp ' '

2 p2

=

1  2 p

 …+ p ' '

1 2



 1 1 Z2 = 2 Z12 ±  e 2m 2 p



 1 (2s+1) V (2s  1) e 2m = ± 2 Z 2 = Z2 – 2 Z12 = ±  3 . 2 23/2T p

für



pp ' '

… .

Bose Fermi Statistik 2 p2

Der Faktor 23/2 im Nenner des letzten Ausdruckes rührt davon her, dass wir das bekannte Impulsintegral mit der Masse m/2 auswerten müssen. Der Virialkoeffizient ist also B = 3

T _ Bose + 25/2(2s+1) und hat entgegengesetztes Vorzeichen für Fermi Teilchen. Damit finden wir das Ergebnis wieder, was wir in Kap. 5 für das Bose- und das Fermi-Gas hergeleitet hatten, – n PV = NkT [1 +

1 3 T ] 5/2 (2s+1) 2

.

Die Bose-Statistik liefert eine effektive Anziehung, die Fermi-Statistik dagegen eine effektive Abstoßung (“statistisches Potenzial”).

6.3

Spin-Modelle mit Wechselwirkung

Ein wichtiges und gründlich studiertes Beispiel wechselwirkender Systeme sind die SpinModelle. Wir betrachten ein d-dimensionales Gitter von Spins, z.B. einen Festkörper, wobei an jedem Gitterplatz (nummeriert mit i = 1, ..., N) ein Spin Sˆ i sitzt. Zur Erinnerung: Die Spins sind

103 Operatoren mit den für Spins typischen Vertauschungsrelationen. Wir können Spin-1/21 1 Operatoren durch Pauli-Matrizen darstellen, Sˆ = σˆ = ( σˆ x, σˆ y, σˆ z), mit 2 2 01 0 –i 1 0 σˆ x= 1 0 , σˆ y= i 0  , σˆ z= 0 –1 . Jeder Spin hat ein magnetisches Moment = gBS (wobei das Bohr’sche Magneton μ B  e/2mc und das gyromagnetische Verhältnis für Elektronenspins g = 2 ist). Entsprechend hat er in einem Magnetfeld H die Energie H = – gμ H · Sˆ . Außerdem gibt es eine H

B

Wechselwirkung zwischen Paaren von Spins von der Form Hint = – J Sˆ i · Sˆ j. Ein Gitter von solchen Spins ist beschrieben durch das Heisenberg-Modell

H =  J  Sˆ i  Sˆ j  g μ B H   Sˆ i  i,j

i

Für positive J wird eine parallele, für negative J eine antiparallele Ausrichtung benachbarter Spins begünstigt. Die Summation über i,j ist über alle nächste Nachbar-Paare i und j. Jeder Gitterplatz hat z Nachbarn. (Für eine kubisches Gitter in d Dimensionen ist z = 2d.) Die Ursache einer solchen Wechselwirkung könnte die Dipol-Dipol Wechselwirkung sein. Die ist aber im allgemeinen sehr schwach. Von Bedeutung ist dagegen die AustauschWechselwirkung, die eine Konsequenz der Coulomb-Wechselwirkung und des Pauli-Prinzips ist. Um dies zu erläutern, betrachten wir 2 Fermionen jeweils mit Spin S=1/2. Der Gesamtspin beider Teilchen ist Sˆ G = Sˆ 1 + Sˆ 2. Die Gesamtwellenfunktion (Bahn- mal Spinzustand) muss ungerade sein beim Vertauschen der beiden Teilchen. Gesamtspin SG = 1 Triplett, gerade SG = 0 Singulett, ungerade

Bahnwellenfunktion ungerade gerade

Energieeigenwert E0 E1

Abhängig vom Spinzustand ist die Bahnwellenfunktion ungerade oder gerade. Für letzteres ist aber die Coulomb-Abstoßung stärker und der Energieeigenwert größer, E1 > E2. Die Energie für 1 beide Zustände können wir schreiben als E = E1 – (E1  E 0 ) SG (SG + 1). Das Produkt 2 2 ˆ SG(SG+1) ist aber gerade der Eigenwert des Operators S G , den wir wie folgt umschreiben

Sˆ G2 = ( Sˆ 1 + Sˆ 2)2 = 2· S(S  1) + 2 Sˆ 1· Sˆ 2 Damit finden wir für die Energie E = const – J Sˆ 1· Sˆ 2 mit J = E1 – E0, und wir erkennen die oben angegebene spinabhängige Wechselwirkungsenergie.

104 Im Sinne des oben diskutierten (die Wechselwirkung der Spins ist durch die Quantenmechanik begründet) ist das Heisenberg-Modell ein quantenmechanisches Modell. Oft wird es aber auch als ein klassisches Modell verwendet. Dann sind die "Spins" 3-dimensionale Vektoren (Zahl der Komponenten, n=3) mit festem Betrag. Formal ist dies realisiert als Grenzfall, wenn der Spin pro Gitterplatz sehr groß ist, S→ ∞. Dann führen wir als neue Variable den klassischen, normierten  Vektor Si = Sˆ i/ S(S+1) ein, und es gilt (mit neu definierten Konstanten J und 0)

   H =  J  Si  S j  μ 0 H  Si  i,j

mit

 | Si | = 1 .

i

U.U. spielt aber auch nur die z-Komponente des Spin-1/2 Teilchens eine Rolle Siz =

1 i mit 2

i = ± 1 . Dies führt zum so genannten Ising-Modell (eine Komponente, n=1)

H =  J  σi  σ j  μ 0 H  σi  i,j

, σi  1

i

Zwar haben wir hier das Ising-Modell als Spezialfall des Heisenberg-Modells eingeführt. Es ist aber auch ein Modell für viele andere Probleme, die durch zwei mögliche Zustände pro Gitterplatz charakterisiert sind. Das Ising-Modell ist eines der einfachsten und daher ausgiebig untersuchten Modelle mit Wechselwirkung. Manchmal spielt nur die Projektion des Spins auf die xy-Ebene eine Rolle. Das so erhaltene Modell ist das XY-Modell (ohne Feld und klassisch). Die Variablen sind dann Einheitsvektoren in der Ebene (Sxi, Syi) 2

2

mit Sxi + Syi = 1 (zwei Komponenten, n=2), deren Richtung auch beschrieben werden kann durch die Winkel i. Damit gilt

H   J  (SxiSxj + SyiSyj )  K  cos(i   j )  i,j

6.4

 i,j

Das 1-dimensionale Ising-Modell

Die Zustände des Ising-Modells  i = ±1 können durch Vektoren 'auf' und 'ab' dargestellt werden 1 2 3 .    

.

N   

105 Mit den Abkürzungen j und h wird die Hamilton-Funktion in 1 Dimension H kT = – j

N–1



i=1

i i+1 – h

N

 i=1

i

mit j =

J kT

und h =

0 H z . kT

In d=1 (auch in d=2 für h=0) kann das Ising-Modell exakt gelöst werden. Dies demonstrieren wir an zwei Beispielen: a) Rekursionsmethode für h=0 Wir betrachten zunächst eine offene Kette ohne Feld ZN =

 

1 1 2 1



 N  exp  j  i 1i  .  N 1  i 2 

ZN lässt sich rekursiv bestimmen: Z1 = 2 ZN =

 

1 1 2 1



 N 1  exp  j  i1i   exp (j N–1 N)  N1 1  i 2  N 1

= ZN–1 2 cosh j

für N ≥ 2 .

ZN = 2 (2 cosh j)N–1 .



Die freie Energie (genauer freie Enthalpie, da sie von den intensiven Variablen T und H und der extensiven Teilchenzahl N abhängt) ist dann G(T, Hz = 0, N) = – kT ln ZN = – kT [N ln 2 + (N1) ln cosh ∂G D.h. S(T, Hz = 0,N) = – ∂T

cH

= k [N ln 2 + (N–1) ln cosh – (N–1) und

J ]. kT

S

J kT

J J tanh ], kT kT

∂S CH (T,Hz=0) = T ∂T 2

 J  1 = k (N–1)   .  kT cosh(J / kT) 

0

T

106 b) Transfermatrixmethode Als nächstes betrachten wir ein 1-d Ising-Modell auf einem Ring, d.h. mit periodischen Randbedingungen N+1 = 1, mit von Null verschiedenem Feld h ≠ 0. Wir spalten H auf wie folgt H kT = – 

N

 i=1

h j i i+1 – 2

 

ZN =

1 1 2 1



N

 (i + i+1)

i=1



N 1



N

 i=1

U (i, i+1)

e–U(1,2) e–U(2,3) ... e–U(N ,1) .

Wir führen nun die Transfermatrix ein

e j  . e j h 

 e j+h T=   e j 

e–U(,') = T' ;

Damit lässt sich die Zustandssumme in der Form eines Matrixproduktes schreiben ZN =

 

1 1 2 1





T12 T23 …TN1 ,

N 1

und wegen der Summation über die äußeren Indizes als Spur ZN = tr TN. Zur weiteren Auswertung diagonalisieren wir T

0 λ T=  1   0 λ2  Damit gilt

ZN

1/2

1,2 = ej [cosh h ± (sinh2 h + e–4j)

mit

λ = tr TN = tr 1  0

0  λ2 

N

N

].

N

= 1 + 2 .

(Für Hz → 0 ist 1,2 = ej ± e–j. D.h. der Ring unterscheidet sich geringfügig von der oben behanN

N

delten offenen Kette.) Für N → ∞ dominiert der größere der Eigenwerte 1 » 2 . D.h. es gilt N

ZN = 1

G(T,Hz,N) = – N kT ln 1 . Die Magnetisierung ist also M(T,Hz,N) = –

 G(T, H z , N)  Hz

= N 

sinh h sinh 2 h  e 4 j

107 und die Suszeptibilität

1/ T

 M(T, H z , N) T =  Hz HZ=0 N 02 2J/kT = e . kT Die Suszeptibilität hat eine wesentliche Singularität bei T = 0. Wir werden bei der Diskussion von Phasenübergängen darauf zurückkommen.

0

T

Die Suszeptibilität hängt mit der Korrelationsfunktion zusammen  02 N T =  i j kT i, j1 HZ=0

|

(Übungsaufgabe) .

Wir haben oben gesehen, dass das 1-dimensionale Ising-Modell bei T ≠ 0 keine spontan geordnete Phase hat. Nur bei T = 0 sind alle Spins auch ohne Feld parallel ausgerichtet. Das mag zunächst verwunderlich erscheinen, da der Zustand ↑↑↑↑↑↑↑…., d.h. i = +1 für alle i, die niederste Energie hat (entartet mit i = –1 für alle i). Aber dieser Zustand hat nicht die niedrigste freie Enthalpie G = E – TS. Um dies zu zeigen, betrachten wir eine Konfiguration wie ↑↑↑↑↑↓↓↓↓↓↓, wo die Spins eines Teils der Kette umgedreht sind. Die Trennwand zwischen den beiden Bereichen erhöht die Energie um E = 2J, sie kann aber an N Stellen liegen. Der Entropiegewinn ist S = k ln N. Dies bedeutet, dass bei T≠0 die freie Enthalpie des Systems durch die Trennwand abgesenkt ist. In Kapitel 9 werden wir weitere Systeme, auch das IsingModell, in mehr als 1 Dimension untersuchen. Dort werden wir Phasenübergänge und spontan geordnete Phasen auch bei endlichen Temperaturen finden.

6.5

Cluster-Entwicklung

Hier betrachten wir das Ising-Modell in d Dimension auf einem rechtwinkligen Gitter mit Wechselwirkung zwischen nächsten Nachbarn  i,j  für Hz = 0. (Zur Unterscheidung der verschiedenen Symbole schreiben die dimensionslose Kopplung als K=J/kT.) Dann ist ZN (T,Hz = 0) =

 {}

e–H =

 {σ}  i,j

eKij

108 Da (i j)2 = 1 gilt eKij = cosh K + i j sinh K = cosh K [1 + i j tanh K]. Damit wird die Zustandssumme ZN (T,0) = (cosh K)P





{σ}  i,j

(1 + i j tanh K)

P ist die Zahl der nächste Nachbar Paare  i,j  Abgesehen von Randeffekten gilt P = N z/2, wobei z die Koordinationszahl ist. 1

1

2

n+1

n+2

3

ZN (T,0)/(cosh K)P = 

4

1

1

 ...  {1

1=–1 2=–1

N=–1

+ tanh K (1 2 + 2 3 + 1 n+1 + ... ) + tanh2K (1 2 2 3 + ... )

2n+1

+ tanh3K (1 2 2 3 3 4 + ... ) + tanh4K (1 2 2 n+2 n+2 n+1 n+1 1 + ... + ... } .

Alle 'Cluster' kommen vor, in jedem Cluster jede Bindung nur einmal. Offene Cluster geben keinen Beitrag wegen der Summation über i = ± 1 eines offenen Endes. Geschlossene Cluster liefern 1, da jedes i quadriert vorkommt. D.h. 1

1

1=–1

N=–1

ZN (T,0)/(cosh K)P =  ...  {1 + (tanh K)4·(Anzahl der geschlossenen 4-er Cluster) + (tanh K)6 · (Anzahl der geschlossenen 6-er Cluster) + …}. Beispiel: a) Die 1-dimensionale offene Ising-Kette hat keine geschlossenen Cluster 

ZN = (cosh K)N–12N .

b) Die 1-dimensionale geschlossene Ising-Kette hat genau ein Cluster der Länge N 

ZN = (cosh K)N2N [1 + (tanh K) N]= 2N [(cosh K)N + (sinh K)N] .

c) Die Cluster-Methode erlaubt es, das 2-dimensionale Ising-Modell exakt zu lösen (siehe Appendix B von Stanley oder Feynman 'Statistical Mechanics').

109

6.6

Variationsmethoden

Problem:

Gegeben sei ein Hamilton-Operator (oder Funktion) H, zu kompliziert um Z = tr e–H und F = –kT ln Z exakt zu bestimmen.

Voraussetzungen:

– Wir können ein verwandtes Problem charakterisiert durch H lösen, wobei  ein (oder mehrere) Variationsparameter ist: Z = tr e–H, F = –kT ln Z . 1 – Außerdem können wir  H  H = Z tr {H e–H} bestimmen.   F ≤ F +  H – H  H

Dann gilt

(Beweis folgt)

Insbesondere können wir den (oder die) Variationsparameter  variieren und das Minimum der rechten Seite suchen:





F* = Min α Fα +  H  Hα  H . α Dann gilt noch immer F ≤ F*, und F* stellt die beste obere Schranke dar innerhalb der Klasse, die durch die Menge der H gegeben ist. F ≤ F +  H – H  H

Beweis von

a) Wir betrachten das Funktional f() = tr { H} +

1 tr { ln } 

für beliebige, normierte Dichtematrizen . Wir variieren  und suchen das Minimum von f(): Min ρ{f(ρ)} ρ=ρ unter der Nebenbedingung tr  = 1 (Lagrange Multiplikator ). Dies erfordert 1 0 ={ f() +  (tr  – 1)} ρ=ρ = tr {δρ [H + (1 + lnρ) + γ ]}|ρ=ρ β was erfüllt ist durch  =

1 e–H. Die 2. Ableitung ist 2f ρ=ρ = tr tr e–H

 1 2     ≥ 0. d.h. wir    

haben ein Minimum gefunden. Im Minimum nimmt das Funktional f() den folgenden Wert an 

f(  ) =

tr H e–H 1 1 + tr {e–H [–H – ln tr e–H]} –   tr e–H tr e

=–

1 ln tr e–H = –kT ln Z = F . 

110 Für  =  ist also f(  ) gerade gleich der thermodynamischen freien Energie F. b) Wir wählen nun  =  =

eH und variieren . Dies bedeutet, dass die Menge der  nur tr eH

ein Teil aller möglichen ist. Das bedeutet, dass f() ≥ f(  ) = F also f() größer ist als die freie Energie. Wir können noch schreiben 1 tr ( ln )  1 = tr  H + tr ( ln ) + tr  (H – H)  = F +  H – H  H .

f() = tr  H +

Bemerkungen: – Eine gute Schranke erfordert eine gute Wahl von H . – Es gibt weitere Variationsprinzipien, z.B. auch eine untere Schranke, F +  H – H  H ≤ F.

6.7

Numerische Monte Carlo-Methoden

Man könnte versuchen, die Zustandssumme z.B. des Ising-Modells und Mittelwerte Z=

s

e–H(s) ,

f  =

s

(s) f(s) , (s) =

e–H(s) , Z

numerisch zu bestimmen, indem man über alle Konfigurationen s = {i} summiert und jeweils mit dem entsprechenden Gewichtsfaktor p(s) multipliziert. Das Problem ist aber die extrem hohe Zahl von Konfigurationen. Zum Beispiel hat in 3 Dimensionen schon ein kleines System von 10 10 10 Gitterplätzen 21000 ~ 10300 verschiedene Zustände, und alleine das Abzählen der Zustände würde mehr als astronomische Zeiten in Anspruch nehmen. Abhilfe bietet die Monte Carlo Methode: Dafür wählen wir eine geeignete Folge {sn}, n = 1, ... N von Zuständen, die mit der Wahrscheinlichkeit p(sn) vorkommen und bestimmen 1 1 N f(sn) = N  N  N n=1

 f  = lim

N

 n=1

f(sn) + O(N

–1/2

)

Metropolis-Algorithmus (Markov-Kette) Wir könnten im Prinzip Spinkonfigurationen sn durch einen Algorithmus zufällig bestimmen lassen, der so gewählt ist, dass die Konfigurationen mit der Wahrscheinlichkeit p(sn) realisiert werden. Es ist aber weit günstiger, Spinkonfiguration in jedem Schritt (s → s') in einer Weise zu verändern, die charakterisiert ist durch Übergangswahrscheinlichkeiten Wss'. Wenn die Wss' die Bedingung des detaillierten Gleichgewichts ('detailed balance') erfüllen

111 Wss' (s ') –[H(s')–H(s)] , Ws's = (s) = e kommen die gewählten Konfiguration mit der korrekten Wahrscheinlichkeit vor p(s) vor. (Vergleiche die Überlegungen im Zusammenhang mit der master Gleichung.) Wir gehen also wie folgt vor: Wir starten bei n= 0 von einer beliebigen Konfiguration s = s0 und setzen f = 0. Wir

bestimmen

s' versuchsweise

durch

Umdrehen

eines

zufällig

ausgewählten Spins von s. Wir berechnen H(s') – H(s). Iteration

Für H(s') – H(s) < 0 wird s' akzeptiert, d.h. s' wir das neue s, s' →s. Sonst wird s' mit der Wahrscheinlichkeit Wss' = e–[H(s')–H(s)] akzeptiert. Alle M Schritte findet eine 'Messung' statt, n wird um 1 erhöht, sn = s' und f + f(sn) → f.

Nach N Messungen bestimmen wir den Mittelwert  f  = f/N. Bemerkungen: 1) Die MC Schritte können beliebig gewählt werden. Das Verfahren konvergiert immer, aber die Geschwindigkeit kann verschieden sein. Beispiele sind das Umdrehen eines Spins (dafür ist die Berechnung von H(s') – H(s) besonders einfach und schnell), Austauschen zweier Spins oder globalere Änderungen. Oft wählt man eine Kombination verschiedener Schritte. Die Versuchsraten für den Übergang s→s' und für den umgekehrten Übergang s'→s müssen gleich sein. 2) Beim Metropolis-Algorithmus ist Wss' = 1 für H(s') < H(s) und sonst Wss' = e–[H(s')–H(s)] . D.h. die Bedingung des detaillierten Gleichgewichts ist erfüllt. 3) Um bei H(s') – H(s) > 0 zu entscheiden, ob s' akzeptiert wird, erzeugen wir mit Hilfe eines Zufallszahlengenerators (RNG) eine Zufallszahl r aus dem Intervall [0,1]. Wenn r < e–[H(s')– H(s)], wird der Schritt akzeptiert, und s' wird die neue Ausgangskonfiguration s. Ansonsten wird

die Konfiguration nicht verändert. 4) Die Anfangskonfiguration s0 kann beliebig gewählt werden, aber das System muss zunächst ins Gleichgewicht kommen. D. h. die ersten N0 (~104) Schritte werden nicht zur Berechnung der Mittelwerte genutzt.

112 5) Die 'Messung' f + f(sn) → f wird nicht nach jedem sondern nach jeweils M Schritten durchgeführt, um effektiv unabhängige Messungen zu realisieren. 6) Es bleibt ein statistischer Fehler, der nur langsam verschwindet, bei N Messungen 1 N 2 f =    f(s n )   f     N n=1 

1/2





 O N 1/2 .

7) 'Finite size scaling': Die Rechnung wird für endliche System zunehmender Größe durchgeführt, bis sich Konvergenz als Funktion der Systemgröße abzeichnet.

6.8 Feynman'sche Pfadintegrale und Quanten-Monte-Carlo-Methoden Literatur: – – –

R.P. Feynman and A.R. Hibbs, Quantum Mechanics and Path Integrals, McGraw-Hill, New York 1965 L.S. Schulman, Techniques and Applications of Path Integrals, John Wiley & Sons, 1981 F.W. Wiegel, Introduction to Path-Integral Methods in Physics and Polymer Science, World Scientific, 1986

p2 Wir betrachten ein quantenmechanisches Teilchen mit Hamilton-Operator H =T+V= 2m + V(x). Wir können auch ein N-Teilchen-System betrachten; in dem Fall stehen p und x für die 3N Impulskomponenten und Koordinaten, p = {pi}, x = {ri} mit i = 1, ... N, und V(x) beschreibt sowohl das externe Potenzial als auch die Wechselwirkung der Teilchen untereinander. Die Zustandssumme Z = tr e–H lässt sich als Pfadintegral darstellen. Die Pfadintegraldarstellung wurde zunächst von Feynman für quantenmechanische Propagatoren der Form _ –iH(tf–ti)/h K(x',tf;x,ti) =  x'  e x  entwickelt. (Hier wurde angenommen, dass H zeitunabhängig ist, der Formalismus kann aber ebenso für zeitabhängige Probleme entwickelt werden). Dieser Propagator ist die Amplitude eines quantenmechanischen Teilchens zur Zeit tf am Ort x', wenn dieses Teilchen zur Zeit ti am Ort x war. Mit seiner Hilfe können wir die Zeitentwicklung eines beliebigen Zustands beschreiben _ –iH(tf–ti)/h (x',tf) =  x'| (tf)  =  dx  x' | e | x   x | (ti)  =  dx K(x',tf; x,ti) (x,ti) . Beachten Sie den Wechsel von allgemeinen Zuständen |(t)  zu Zuständen in der Ortsdarstellung (x,t) =  x|(t)  und die Vollständigkeitsrelation

 dx |x   x| = 1, mit den Ortseigen-

funktionen xˆ |x  = x |x  . Diese formalen Schritte werden wir im Folgenden mehrfach benutzen.

113 Die Zustandssumme Z = tr e–H =

 dx

0

 x0| e–H x0  hat eine ähnliche Form wie der

Propagator, wenn wir i(tf–ti) durch /  ersetzen. Also hat /  die Bedeutung einer "imaginären Zeit". Im Folgenden wird gezeigt, dass die Spur als ein Pfadintegral in imaginärer Zeit dargestellt werden kann. Mit der oben angegebenen Notation gilt die Herleitung sowohl für ein einzelnes Teilchen als auch für ein N-Teilchen-System. Wir verwenden zunächst die "Trotter Formel". Dazu spalten wir e–H auf in eine große Zahl n von gleichen Faktoren auf e–H = lim (e  ε(T+V) ) n mit

n  = .

n 

In jedem einzelnen Term können wir schreiben e–(T+V) = e–T e–V + O(2), da der Fehler von der Ordnung 2 klein ist. (I. A. wäre diese Art Aufspaltung durch die Baker-Hausdorff-Formel beschrieben.) Als nächstes führen wir n–1 vollständige Sätze von Ortseigenfunktionen |xk  und n Sätze von Impulseigenfunktionen |pk  ein Z =  dx 0 lim (  dx n1... dx 2  dx1 )(  dp n1... dp 2  dp0 ) n 

 x 0 | eεT | p n 1  pn 1 | eεV | x n 1    x 2 | eεT | p1  p1 | eεV | x1  x1 | eεT | p0  p0 | eεV | x 0 . Achtung: der hier eingeführte Index k = 1, ...n ist nicht der Teilchenzahlindex. Bei N Teilchen steht xk für 3N Koordinaten ri,k. –V

Die Reihenfolge ist so gewählt, dass e

–T

immer auf einen Ortseigenzustand und e

auf einen Impulseigenzustand wirkt. Darum gilt einfach eεV | x k   | x k  e

εV(x k )

und eεT | p k   | p k  e

ε p2k /2m

.

Weiterhin gilt für die Impulseigenzustände in der Ortsdarstellung (analog zu oben)  pkxk  =

i  pi,k xi,k /  ip x /  1 1 i e e k k , bzw. für N Teilchen . (2π )3N/2 2π 

Damit wird (abgesehen von Vorfaktoren) mit xn  x0 n 1

Z  lim ( n 

k 0

n 1

 dx k ) ( k 0

 dpk ) exp{– 

n–1

p 2

 [2mk

k=0

+ i pk

xk+1–xk + V(xk)]}. – h

immer

114 Die Gauß'schen pk-Integrationen können nun ausgeführt werden. Dies liefert für jedes k xk+1–xk pk2 exp { –  [ + i p dp k  k 2m – h

]}

1/ 2

 m  =   2π ε  

2 m (x k+1  x k ) }.  exp {– 2 (ε )2

Die Zustandssumme wird also (bis auf Konstanten) n 1

Z  lim (  n 

k 0

n 1

 dx k ) exp {– [ 

k 0

m x k+1  x k 2 ( ) + V(xk)]} . 2 ε

Diesen Ausdruck können wir nun symbolisch als "Pfadintegral" in imaginärer Zeit 0  τ   β umschreiben Z =  dx 0

x(β)=x0



x(0)=x0

D x(τ) exp(– SE[x()] /  )

,

wobei wir die "Euklid'sche" Wirkung in imaginären Zeiten eingeführt haben β

Das Pfadintegral

m

 dτ [ 2

SE[x()] =

.x 2() + V(x())]

.

0



Dx() ist definiert durch das oben angegebene n-fache Integral über die voll-

– , die "Zeitableitung" ständigen Sätze von Ortseigenfunktionen |xk   xk| zu allen Zeiten  = k h  = [x(τ+ε)  x(τ)]/ε und das Integral über imaginäre Zeiten entsprechend. Die durch x(τ) formalen Ausdrücke lassen sich durch Bild eines Pfades darstellen.

115 Die analoge Umformung für den Zeitentwicklungsoperator liefert eine ähnliche Form (siehe die angegebene Literatur), dann ist aber die Wirkung durch den üblichen Ausdruck (und übliches relatives Vorzeichen) gegeben tf

S[x(t)] =

m

 dt [ 2 t

.x 2(t) – V(x(t))]

.

i

Nur wenige physikalische Probleme lassen sich nach der Umschreibung als Pfadintegral exakt auswerten. Dazu gehört natürlich der harmonische Oszillator oder ein Ensemble von Oszillatoren. Jedoch hilft die Pfadintegraldarstellung bei der Begriffsbildung. Z. B. im (häufig wichtigen) semiklassischen Grenzfall (formal für  →0) ist der klassische Pfad, für den die Wirkung ein Extremem hat, und die Pfade in seiner Nähe besonders wichtig. Dies ist ausführlich in der angegebenen Literatur diskutiert. Hier sei auf eine andere Konsequenz hingewiesen: Die Pfadintegraldarstellung erlaubt es, die Zustandssumme von Quantensystemen mit MonteCarlo-Methoden zu berechnen. Wir hatten in Kap. 6.1 gesehen, dass für ein klassisches N-Teilchen-System eine Integration über alle 3N Koordinaten x ={ri} durchzuführen ist, die wir mit gewöhnlichen Monte-Carlo-Methoden durchführen können. Beim Quantenproblem sehen wir, dass jede der 3N Koordinaten nun als Funktion der imaginären Zeit  zu betrachten ist, also statt jeder Variablen ri betrachten wir nun eine Funktion ri(). Wir können die Zeit diskretisieren  = k  (so war diese ja eingeführt worden) und haben nun für jedes Teilchen i die Koordinate ri,k für die verschiedenen Zeiten k durch Monte-Carlo-Schritte auszuwählen. Benachbarte k-Werte – )2 gekoppelt. Die Zeitachse stellt also sind durch die kinetische Energie, d.h. (ri,k+1–ri,k)2/(h eine zusätzliche Dimension dar. Wir kommen so zu dem wichtigen Schluss: ein d-dimensionales Quantensystem ist äquivalent zu einen (d+1)-dimensionalen klassischen System.

6.9 Wechselwirkungen in Festkörpern Im Festkörper betrachten wir Ionen und Leitungselektronen. Die ersten bilden ein regelmäßiges Gitter, abgesehen von Störstellen durch Fremdatome oder Gitterfehler und ihrer Schwingungen um die Gleichgewichtslage. Die Leitungselektronen können sich relativ frei bewegen. Der Hamilton-Operator des Gesamtsystems 2



pJ H =  2M + U(R) + J

pi2

e2 1 +   2m 2 |ri – ri'| + V(R,r) i i≠i'

setzt sich zusammen aus der kinetischen Energie der Ionen (hier betrachten wir nur eine Ionensorte mit Masse M), ihrer Wechselwirkung (abhängend von allen Ionenkoordinaten R = {RJ}),

116 der kinetischen Energie der Elektronen und ihrer Wechselwirkung (abhängend von r = {ri}) sowie der Wechselwirkung zwischen Elektronen und Ionen V(R,r). Für punktartige Ionen gilt 1 U(R) = 2

ZJ ZJ' e2  |R – R | J J'

und

J≠J'

ZJ e2 V(R,r) = –  . |ri – RJ| i,J

Bei ausgedehnten Ionen kann die van-der-Waals- oder Austauschwechselwirkung zu komplizierteren Ausdrücken führen. Adiabatische Näherung (Born-Oppenheimer) Die sehr unterschiedliche Masse von Elektronen und Ionen ermöglicht eine Näherung in drei Schritten: 1.) Die leichten und beweglichen Elektronen sehen in niedrigster Ordnung ein statisches Gitter der schweren und langsamen Ionen. Aus diesem Grund setzen wir an, dass die Gesamtwellenfunktion faktorisiert (R,r) = R(r) (R). Dabei hängt die Elektronenwellenfunktion R(r) parametrisch von den Ionenkoordinaten R ab. Bei vorgegebenen Ionenkoordinaten ergibt sich also folgendes Eigenwertproblem pi2 1 H R,(r) = {  2m + 2 el

i=1

 |r

i≠i'

e2 + V(R,r)} R,(r) = Eel R , R,(r) i – ri'|

für die Vielteilcheneigenzustände R,(r) und -energien Eel R , der Elektronen. Im idealen periodischen Gitter, wenn die Ionen nicht ausgelenkt sind, R = R0, sind die Eigenzustände einzelner Elektronen Bloch-Zustände, charakterisiert durch Wellenvektoren (Impulse), Bandindex und Spin,   (p, n, ) . Die zugehörigen Eigenenergien definieren die 'Bandstruktur' E el R 0 , ↔ p,n, , die von der Kristallstruktur abhängt und i. a. recht kompliziert ist (mehr dazu siehe unten). 2.) Im Prinzip können wir auch die Eigenenergie der Elektronen für beliebige Ionenkoordinaten berechnen. Die Energie der Elektronen im Grundzustand R(r) bezeichnen wir mit E el R . Dann gilt das folgende Eigenwertproblem H R(r) (R) = {  J

= R(r){

J

p 2J el + U(R) + ER }R(r) (R) 2M

= E R(r) (R)

 2R (r ) p 2J el 2  ( R )  R (r ) + U(R) + ER } (R) –  {2 + (R) }. 2M  RJ  RJ  R 2J J 2M

Der erste Term liefert das Eigenwertproblem für die Ionen

117

{ J

p 2J

+ Ueff(R)} (R) = E (R) .

2M

Dabei ist die effektive Ionenwechselwirkung Ueff(R) wesentlich durch die Elektronen beeinflusst Ueff(R) = U(R) + E el R , und zwar ist sie durch die Elektronen abgeschirmt. Diese abgeschirmte Wechselwirkung klingt genügend schnell ab, so dass eine Entwicklung in den Ionenauslenkungen Q(t) = R(t) – R0 gemacht werden darf. Eine harmonische Entwicklung von Ueff(R) in diesen Auslenkungen und anschließende Diagonalisierung führt dann auf die Beschreibung der Gitterschwingungen durch Phononen mit

Heff =

 q,

2

Pq, 1 2 2 { 2M + 2 M q,Qq, }.

Die Eigenmoden sind Bloch-Zustände, charakterisiert durch die Wellenzahl q und Polarisationsindex  l, t1, t2 für longitudinale und zwei transversale Auslenkungen. I. A. sind sowohl akustische wie optische Phononmoden zu betrachten. Hier beschränken wir uns auf die akustischen. 3.) Der gemischte Term des Eigenwertproblems beschreibt die abgeschirmte Wechselwirkung von Elektronen und Phononen. In Störungstheorie behandelt führt er zu Übergängen zwischen den Eigenzuständen. In die Rate geht das Matrixelement |= 

2 2M

 dR  dr

{2  *R (r) RR(r) *(R) (RR ) +

ein. Der erste Term ist proportional zu

 *R (r )

 2 R (r ) * | (R)|2 2 R

}

 dr |R(r)|2 und verschwindet, da R(r) normiert ist.  R

Der zweite Term ist um einen Faktor m/M kleiner als die elektronische kinetische Energie. Er kann daher konsistent in Störungstheorie behandelt werden. Störstellen im Gitter werden durch ein StörstellenPotenzial beschrieben imp

V(R,r) = V(R0,r) + V

(r) .

Dieses wird ebenso wie die Elektron-Elektron Wechselwirkung oft in Störungstheorie behandelt.

118

6.10 Zweite Quantisierung Wir können die angedeuteten Schritte in mehr Detail nachvollziehen. Eine Beschreibung im Rahmen der sogenannten 2. Quantisierung ist dabei sehr bequem.

Phononen Die Moden der Gitterschwingungen sind durch Wellenzahl q und Polarisation  beschrieben. In harmonischer Näherung sind dies alles harmonische Oszillatoren, und ihre Zustände sind durch die Anregungszahlen nq = 0,1,2 … beschrieben. Jede Anregung stellt ein Phonon dar. (Hier betrachten wir nur akustische Phononen). Die Zustände des Gesamtsystems sind charakterisiert durch die Angabe der Besetzungszahlen, d.h. der Zahl der Phononen in den verschiedenen Moden |n1, ... , nq, ...  . Für jede Mode (q,) führen wir Auf- und Absteigeoperatoren bzw. Erzeugungs- und +

Vernichtungsoperatoren aq, und aq, ein. Ihre Wirkung in der Basis der Besetzungszahlen ist +

aq, |n1, ... , nq, ...  

nq+1 |n1, ... , nq+1, ...  

aq, |n1, ... , nq, ...  

nq |n1, ... , nq–1, ...  

Entsprechend der Bose-Statistik erfüllen die Operatoren die Vertauschungsrelationen +

[aq, , aq',' ] = qq' '

,

+ + [aq, , aq',' ] = [aq, , aq',' ] = 0 .

+

Der Operator nq, = aq, aq, zählt, wievielfach der Mode q, angeregt ist. Weiterhin gilt für den Hamiltonoperator Hph =



q,

1 +  q, (aq, aq, + ) . 2

Weiter Operatoren können mit Hilfe der Erzeuger und Vernichter geschrieben werden. Z.B ist die Amplitude der Gitterschwingung am Ort R mit Polarisationsrichtung q, Q(R) =

1  (a q,λ +a +q,λ ) ei qR . q,  N 2M ωq,λ q

119 Bose-Teilchen Auch für Bose-Teilchen mit Masse bietet sich, wie im vorigen Kapitel gezeigt, eine Darstellung mit Besetzungszahlen an. Mit Hilfe von Erzeugern und Vernichtern können wir beliebige Einund Mehrteilchenoperatoren umschreiben. Wir gehen aus von den Eigenzuständen des wechselwirkungsfreien Systems N

H0 = h i , i1

mit h i  i   

i

.

Die Gesamtwellenfunktion ist dann ein Produkt λ1 , , λ i,  λ1  λ i  , was bedeutet, dass das Teilchen 1 im Zustand 1 ist, … , das Teilchen i im Zustand i. Da die Teilchen ununterscheidbar sind, muss die Wellenfunktion durch Summieren über alle Permutationen symmetrisiert werden. In der Besetzungszahlendarstellung geben wir nur an, wie häufig jeder Zustand  besetzt ist. Nach geeigneter Normierung gilt

n λ 

= n1 ,  , n λ ,  

1  P λ1, , λi, n1! , n λ! P

(Die Normierung ist etwas subtil und wird hier nicht weiter erläutert. Siehe z.B. Schwabl, Quantenmechanik für Fortgeschrittene für weitere Details.) Damit gilt H 0 n λ  =E n n λ   λ

E n = ε λ n λ  λ

mit

λ

Wir führen nun Erzeuger und Vernichter ein mit den Eigenschaften a +λ n1 , , n λ ,  n λ  1 n1 , , n λ  1, a λ n1 , , n λ ,  n λ n1 , , n λ  1,

und den damit konsistent zusammenhängenden Vertauschungsrelationen +  +  a λ , a λ'   a λ+ , a λ'       0 ; a λ , a λ'   δλ,λ'

Offensichtlich ist n λ = a λ a λ ein Zähloperator und es gilt H 0 =  ε λ a λ a λ λ

und

N =  a λ a λ λ

Mit Hilfe der Erzeuger und Vernichter können wir aber auch beliebige Operatoren umschreiben, z.B. einen Einteilchenoperator, der nichtdiagonal in den Basiszuständen ist (aber hier der Einfachheit halber für alle Teilchen i gleich) N

T =  t(x i ) mit i1

t λ,λ '  i λ t i λ ' i ,

120 d.h.

ti 

t

 , '

λ,λ '



i i

'

bzw. T 

 t i  i i  '

 , '

λ,λ '

Nun gilt

i  i i  '

n1 , , n λ , , n λ' ,  n λ'

nλ1 n λ'

Der erste Faktor n' zählt, wie oft der Zustand  '

i

n1 , , n λ  1, , n λ'  1,

in der Vielteilchenwellenfunktion vorkommt

und so das Skalarprodukt einen von Null verschiedenen Wert annimmt. Da eine dieser Einteilchenwellenfunktion durch das Skalarprodukt wegfällt, nimmt n' um 1 ab. Andererseits kommt eine Einteilchenwellenfunktion im Zustand  i hinzu und n nimmt um 1 zu. Das Verhältnis der Wurzeln berücksichtigt die veränderte Normierung. Der neue Zustand auf der rechten Seite inclusive der Vorfaktoren kann aber auch als a  a  ' n1 , , n λ , , n λ', geschrieben werden. Daraus schließen wir dass

i  i i  '

 a  a  '

und T

t  , ' a  a  ' .   , '

Analog gilt für einen Zweiteilchenoperator F = F=

1  λ,μ f (2) ν,ρ a +λ a μ+ a ρ a ν 2 λ,μ,ν,ρ

1 f (2) (x i , x j ) , dass  2 i j

.

Fermi-Teilchen: Elektronen im Festkörper Die Zustände des Vielteilchenproblems sind, wie schon diskutiert, durch die Angabe der Besetzungszahlen der Einteilchenzustände mit h i  i    i beschrieben (Fock-Raum) |n1, ... , n, ...   Für Fermionen gilt das Pauli Prinzip und n = 0,1. Im idealen Gitter sind die Eigenzustände einzelner Elektronen Bloch-Zustände, charakterisiert durch Wellenvektoren (Impulse), Bandindex und Spin,   (p, n, ) , und die zugehörigen Eigenenergien definieren die 'Bandstruktur' p,n, . Im Folgenden betrachten wir der Einfachheit halber nur ein Band und unterdrücken den Bandindex.

121 +

Auch für Fermionen führen wir Erzeugungs- und Vernichtungsoperatoren c und c ein, die die Besetzungszahl eines Einteilchenzustands erhöhen oder erniedrigen

 nν

c +λ | n1 ,  , n λ  0, 

 (1) ν, bei dem N 1 2 die Zustände 1, 2, …, N besetzt sind (d.h. n   1 , n   1 , …, n   1 , alle anderen n= 0, N 1 2 und wir haben die Reihenfolge willkürlich aber dann fest gewählt), trägt nur = ' bei, und es gilt

123



λ,λ'

 n   1 , n   1 , … n   1 , 0, 0, …| cλ cλ' | n   1 , n   1 , … n   1 , 0, 0,… > N N 1 2 1 2   *λ (r )  λ'(r ) ==

N

 i 1

| φλ (r ) |

2

i

Analog können wir jeden Einteilchenoperator, den wir von der üblichen Quantenmechanik her kennen (1. Quantisierung), durch einen entsprechenden Operator in 2. Quantisierung schreiben: N



O (1) =

O(1) (ri , pi ) → O (1) =

i=1







 d r +(r) O 3

(1)

(r,p) (r)

(1)

*

(1)

 3   O(1)  , ' c c ' mit O,' =  d r (r) O (r,p) '(r) 



 , '

Ein Beispiel bietet die kinetische Energie. Durch Feldoperatoren ausgedrückt bzw. in der Basis der ebenen Wellen-Zustände und Spinoren ist sie T=

2 N p i

 2m

= 

i=1

 σ

+ 3  d r  σ (r)

p2 + 2  2 (r) =  2m cp, cp, . 2m p

Störstellen im Gitter führen zu einem extra Potenzial Vimp(r) für die Elektronen. Der entsprechende Beitrag zum Hamilton-Operator lautet

 d r σ 3

Hel-imp = =



p,p',

imp

wobei Vq

=

imp

+  (r) Vimp(r) (r)

Vimp

+

Vp-p' cp cp',

p’,

p,

1 3 d r Vimp(r) eiqr die Fourier-Transformierte des Störstellenpotenzials ist.  

(Hier und im Folgenden definieren wir die Fourier-Transformation so, dass die Dimension, hier Energie, erhalten bleibt. Dies ist aber in der Literatur nicht einheitlich so. Tatsächlich wird dort häufig, um dem Problem aus dem Weg zu gehen, das Volumen =1 gesetzt, und erst in Endergebnissen wieder  eingesetzt.) I. A. wird Hel-imp störungstheoretisch behandelt und führt zu Übergängen zwischen den ungestörten Zuständen p und p'. Die 2. Quantisierung erlaubt es auch Mehrteilchenoperatoren bequem darzustellen. Z.B. ist die Elektron-Elektron-Wechselwirkung beschrieben durch den Hamilton-Operator

124

1 el-el 1 V elel (ri  rj ) =  d 3r  d 3r' V (r–r') [(r) (r') – (r) (r–r')]  2 i j 2

Hel-el =

wobei (r) =  (r) die totale Elektronendichte ist. Mit den Feldoperatoren ausgedrückt wird 

+ el-el 1 + d 3r  d 3r' V (r–r')  (r) '(r') '(r') (r)   2 σ,σ'

Hel-el =

1 = 2

 pp'q,'

el-el

cpq,σ cp 'q,σ' cp ',σ' cp,σ 

Vq

Die Ordnung der Erzeuger und Vernichter wie angeschrieben ist zu beachten. Die Vertauschung dieser Operatoren hat auch den Term (r) (r–r') in dem oben angegebenen Hamilton-Operator weggehoben. Die Wirkung der Erzeuger und Vernichter ist in dem Diagramm rechts dargestellt.



p,

p’,' el-el

V q p+q,

p’-q,' 

el-el

Vq

ist die Fourier-Transformierte der Elektron-Elektron-Wechselwirkung. In Thomas-Fermi-

Näherung (s.u.) gilt für die abgeschirmte Elektron-Elektron-Wechselwirkung

1 4 e 2  2 . 2  q 2  qTF

el-el Vq =

(q hat die Dimension eines Impulses, daher der Faktor  2 .) Die Wechselwirkung Hel-el wird häufig in Störungstheorie berücksichtigt. Die allgemeine Übersetzungsregel für 2-Teilchenoperatoren lautet (2)

O

N

=

 i j

=





mit

(2)

(2)

O (ri,pi;rj,pj) = (2)

  d3r  d3r'  σ+ (r )  σ'+ (r ') O (2) (r, p; r ', p ') '(r') (r) σ,σ'

+ +

O c c c c *

*

(2)

O =  d 3r  d 3r' (r)(r') O (r,p;r',p') (r')(r).

125 Elektron-Phonon-Wechselwirkung. Ausgangspunkt ist die Ionen-Elektron-Wechselwirkung, die durch die Gitterschwingungen beeinflusst wird,

 V(R J  ri )   V(R 0  Q (R 0 )  ri ) . In R0 ,i

J,i

einer Entwicklung in der Phononenamplitude finden wir für den Term erster Ordnung Hel-ph =  d 3 r  (r) Q(R0) . RV(R–r) |R  R . 0

R 0 ,λ

Nach Einsetzen der Feldoperatoren sowie des oben gegebenen Ausdrucks für die Auslenkung und nach Übergang in die Fourier-Darstellung erhalten wir daraus Hel-ph =

el-ph



pq,

gq

p

p+q gel-ph q,

cpq ,σ cp,σ (a q ,λ  a q ,λ ) .

Die hier auftretende Elektron-Phonon-Kopplungskonstante ist gqel,ph =

Auch

i 

N q . q, V(q) . 2 M ωq,λ

die

Elektron-Phonon-Wechselwirkung hängt von der abgeschirmten Coulomb1 Z 4 e 2  2 Wechselwirkung V(q) = ab. Die Stärke der Wechselwirkung kann so abgeschätzt 2  q 2  q TF werden. Oft wird allerdings gqel,ph als Fitparameter genutzt.

6.11 Stoßraten Oft genügt es im Festkörper, die Wechselwirkungen störungstheoretisch zu behandeln. Sie führen dazu, dass Elektronen mit einer gewissen Rate aus einem gegebenen Zustand gestreut werden. Die Rate kann mit der goldenen Regel berechnet werden.

p11

Als Beispiel betrachten wir hier den Effekt der Elektron-Elektron-Wechselwirkung 1 Hel-el = 2

 pp'q,'

el-el

Vq

cpq,σ cp 'q,σ' cp ',σ' cp,σ  

p'  1 1

p  Vel-el

2 2

p'  2 2



126 Zunächst bestimmen wir die Rate für die Streuung aus einem gewissen Einteilchenzustand p1 1 und Energie 1 in den Endzustand p1' 1 mit Energie 1', wobei gleichzeitig ein anderes Elektron von p2 2 und Energie 2 in den Endzustand p2' 2 mit Energie 2' gestreut wird. Da die Coulomb-Wechselwirkung nicht vom Spin abhängt, ändert sich der Spin der Teilchen nicht. Die goldene Regel liefert die Rate für diesen Übergang



p σ =  1 1 p2σ2 p2σ2

Wp σ 1 1

2π |  p1'1, p2'2| Hel-el |p11, p22  |2 (1 + 2 – 1' – 2') , 

wobei das Matrixelement zwischen Anfangs- und Endzustand das Folgende bedeutet und liefert  n p' σ =1, n p' σ =1, n p σ =0, n p 1 1





1 1

2 2

1  2

el-el

 pp'q,'

 … | Vq

el-el

2σ 2

=0, …| Hel-el | n p' σ =0, n p' σ =0, n p σ =1, n p 1 1

2 2

1 1

2σ2

=1, …  

cpq,σ cp 'q,σ' cp ',σ' cp,σ | …  

el-el

Vp1'–p1 –   Vp2'–p1 p '+p ',p +p . 1 2 1 2 1 2

Die Impulserhaltung, die schon im Hamilton-Operator explizit ist, spiegelt sich im Matrixelement wieder. Die beiden Beiträge ergeben sich aus der folgenden Überlegung: Wir wählen z.B. p  p1 und p '  p 2 (die Alternative p  p 2 und p '  p1 liefert im Endergebnis einen Faktor 2). Dann muss bei verschiedenen Spins, 1  2 , für die Impulse p + q = p1’ und p’ q = p2’ gelten, d.h. p1 + p2 = p1’ + p2’ und q = p1’p1. Bei gleichen Spins, 1  2 , kann zusätzlich p + q = p2’ und p’ q = p1’ gelten, d.h. wieder p1 + p2 = p1’ + p2’ aber diesmal q = p2’p1. Die veränderte Reihenfolge der Operatoren führt zu einem Vorzeichenwechsel. Die Lebensdauer eines Elektrons im Zustand p11 ist bestimmt durch die Rate, dass das Elektron aus dem Zustand p11 in irgend einen anderen Zustand p1'1 gestreut wird, und auch der Anfangs- und Endzustand des Streupartners ist beliebig. Wir summieren daher über all diese Zustände, haben aber zu berücksichtigen, dass diese entsprechend der Fermi-Statistik besetzt waren bzw. als Endzustand zur Verfügung stehen. Die gesuchte Rate ist daher



p1 = 1 1



p1 ',p2 ',p2 ,2

= 





Wp σ 1 1

p 'σ  1 1 p2σ2 p 'σ 2 2

f(2) [1 – f(1')][1 – f(2')]

2 el-el el-el 2π | V –   V  p1'–p1  12 p2'–p1 p1'+p2',p1+p2  p ',p ',p , 1 2 2 2



f(2) [1 – f(1')][1 – f(2')] (1 + 2 – 1' – 2') .

127 Zur weiteren Auswertung schreiben wir

 =  dε  p

D()



dp 4π

… . Die wichtigste Energie-

und Temperaturabhängigkeit kommt von den Fermi-Funktionen. Daher können wir zur Vereinfachung das Matrixelement und die Winkelintegrationen durch Konstanten ersetzen. Auch liegen typische Energien nahe der Fermi-Energie (d.h. D() ≈ D(F)). Die Streurate eines Elektrons mit Energie ist also

1 = const  dε1'  dε '2 f(1'+2'–) [1 – f(1')][1 – f(2')] . Bei tiefen Temperaturen liefert dies 1 (T  0) = ½ const ( – F)2 , während für Elektronen an der Fermi-Kante  = F gilt F1 = ½ const (kT)2. Zusammenfassend gilt also

1 (T) = ½ const [( – F)2 + (kT)2] .

6.12 Abschirmung der Coulomb-Wechselwirkung in Festkörpern Die nackte Coulomb-Wechselwirkung ist langreichweitig, aber Abschirmungseffekte machen die Wechselwirkung effektiv kurzreichweitig. Als Beispiel betrachten wir nahezu freie Elektronen, und wir nehmen an, dass die Ionenladungen homogen verschmiert sind (Jellium-Modell). Im Mittel ist die Ladungsdichte gleich Null. Thomas-Fermi-Theorie der Abschirmung Wir bringen nun eine Testladung in das System 0 (r )  q (r ) . Im Vakuum erzeugt dies ein Potenzial (r) = q/|r|. Im Festkörper führt die Coulomb-Wechselwirkung aber zur Abstoßung anderer Elektronen, sodass ein positiver Hintergrund der homogen verschmierten Ionen in der Nachbarschaft der Testladung überwiegt. Dies bewirkt die Abschirmung. Angenommen (r) ändert sich langsam, und dass die Elektronen lokal im Gleichgewicht mit dem lokalen elektrochemischen Potenzial   e (r ) sind. Dann ist 

 np(r)  = f(p – e(r)) =

1 [p e(r )]/kT

e

1

.

Dies bedeutet eine Änderung der lokalen Elektronendichte (r) = (–e) n(r) =

e e  np(r)  =   [f(p – e(r)) – f (p)]  p,  p ,

= (–e)  dε 2 D() [f( – e(r)) – f ()] ≈ (–e) 2D(F)e(r) .

128 Die letzte Form gilt für Metalle, wo wir nur die Zustandsdichte (pro Spinkomponente) an der Fermi-Kante D(F) brauchen. Die so erzeugte Ladungsänderung bewirkt gemäß der Poisson-Gleichung wiederum eine Änderung des Potenzials. Wir müssen also eine selbstkonsistente Lösung finden für

 2(r) = –4(r) = – 4q (r) + 4e 2D(F) e(r) 

 2  1/ λTF2  (r) = – 4q (r) .

Hier haben wir die Thomas-Fermi-Abschirmlänge TF =

1 8e2D(F)

eingeführt. Für Metalle

ist TF typisch von derselben Größenordnung wie die atomaren Abstände. Die Lösung der Poisson-Gleichung im Fourier-Raum lautet 

(k) =

1 4 q . 2 2  k  1/  TF

Nach Rücktransformation finden wir das abgeschirmte Coulomb-Potenzial (Yukawa-Potenzial) (r) =

q –|r|/TF e . |r|

Für die Abschirmung in Halbleitern gilt eine ähnliche Relation. Dort ist die Elektronendichte gering, und die Maxwell-Boltzmann-Statistik kann verwendet werden. 

(r) =

q –|r|/D e |r|

mit

D =

kT . 4πe 2  n 

Die Abschirmlänge wird nun Debye-Länge genannt. Sie hängt nicht von der Fermi-Energie sondern von der Temperatur ab.  n ist die Temperatur-abhängige Elektronendichte.

6.13

Quasiteilchen

Obwohl die unabgeschirmte langreichweitige Coulomb-Wechselwirkung zwischen den Teilchen eines Festkörpers i.A. nicht störungstheoretisch zu behandeln ist, genügt doch oft eine effektive Beschreibung mit nahezu unabhängigen Quasiteilchen. Dafür gibt es folgende Gründe: 1) Zwar haben die Elektronen im periodischen Potenzial der Ionen oft ein komplizierte Bandstruktur pn. In Halbleitern sind wir aber hauptsächlich an Zuständen an der Bandkante eines Bandes n interessiert:

129 2

p , dabei weicht die effektive Elektronenmasse 2m e ≠ m. i.a. von der freien Elektronenmasse ab, me i.a.

– an der unteren Bandkante gilt p = c +

– an der oberen Bandkante gilt p = v –

p2 ≠ m. , wobei die effektive Löchermasse mh i.a. 2mh

Beim entarteten Fermi-Gas interessieren uns die Zustände in der Nähe der Fermi-Energie. Der Fermi-See ist i. A. nicht mehr eine Kugel. Ein Beispiel ist hier dargestellt. Das Volumen des FermiSees, F, hängt mit der Dichte zusammen n=

py

2 F . (2π)3

px

In der Nähe der Fermi-Kante ist die Energie einfach charakterisiert durch die Fermi-Geschwindigkeit p = F + vF·(p – pF) und die Zustandsdichte (pro Spin) D(F).

2) Die Wechselwirkungen sind abgeschwächt durch Abschirmungseffekte (s.o.). 3) Die Stoßprozesse sind eingeschränkt durch die Energieerhaltung und das Pauli Prinzip. Die goldene Regel liefert die Streurate für den Übergang eines Quasiteilchens von einem herausgegriffenen Zustand p11 nach irgendeinem Zustand p1'1 während ein anderes Quasiteilchen von irgendeinem Zustand p22 nach p2'2 gestreut wird τ p11σ1 =

2  |  p1' p2'| Hel-el |p1 p2  |2 (1 + 2 – 1' – 2') f(2)[1–f(1')][1–f(2')] .  p2 ,p1 ',p2 ',2

Wegen des Pauli Prinzips liegen bei T ≈ 0 die Energien aller Zustände 1, 2, 1', 2' nahe F. Dies schränkt die möglichen Streuprozesse stark ein. Als Ergebnis (s.o.) ist die Rate für die Streuung eines Elektrons mit Energie  nahe der Fermi-Kante mit anderen Elektronen klein, 

1 (T)  ( – F)2 + (kT)2 .

Ähnliches gilt für die Streuung an Phononen, wofür 1 (T)  ( – F)3 + (kT)3 . 4) Bei hoher Elektronendichte n ist die mittlere Coulomb-Wechselwirkung der Elektronen schwach gegen die kinetische Energie. Beide hängen ab von der Dichte

130 e2 /r ≈ e2 n1/3 ,

F 

2 (3π 2 n) 2/3 . 2m

D.h. die Wechselkwirkungsenergie ist kleiner als F, wenn der mittlere Elektronenabstand rs klein ist gegen den Bohr'schen Radius a0 

rs 

3

2 ˚ . Genauer gesagt, wenn = 0,529...A m e2

3 3 3 < 4 2 a0 . 4n

5) Es besteht eine 1:1 Beziehung zwischen den angeregten Zuständen des wechselwirkenden Systems und den angeregten Zuständen des wechselwirkungfreien. (Wir können uns vorstellen, dass die Wechselwirkung langsam eingeschaltet wird d.h. alle Zustände entwickeln sich kontinuierlich.). Dies hat die folgenden Konsequenzen: – die Quasiteilchen sind Fermionen – weiterhin sind die Einteilchenzustände beschrieben durch Bloch-Zustände mit p,. – Die durch die Besetzungszahlen |{np}  ; np = 0, 1 charakterisierten Zustände stellen eine Basis der Vielteilchenzustände dar. Auch die Energie hängt davon ab E = E({np}). – Im Grundzustand gilt

1 für p  Fermi-See n p0 σ =  . 0 sonst

 1 "Elektron" . Angeregte Zustände sind Teilchen- oder Lochartig ν pσ = n pσ  n p0 σ =  1 "Loch"

Die oben gegebenen Argumente sind die Grundlage der Landau‘schen Theorie der FermiFlüssigkeiten (siehe Festkörper-Theorie).

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

7.

Boltzmann-Transporttheorie

7.1

Die BBGKY-Hierarchie und die Boltzmann-Gleichung

131

Die im Folgenden beschriebene Hierarchie ist benannt nach Bogoliubov, Born, Green, Kirkwood und Yvon. In Kap. 4 hatten wir ein klassisches statistisches Ensemble mit N Teilchen und Zuständen, die als Punkte im 6N-dimensionalen Phasenraum (x1, x2, …, xN) mit xi = (ri,pi) dargestellt werden, durch die Gibbs'sche Verteilungsfunktion ρ(x1, ... xN, t) beschrieben. Dies ist die Wahrscheinlichkeitsdichte, das Teilchen 1 beim Ort r1 mit Teilchen 2 beim Ort r2 mit Impuls p2, ... zu finden. Mittelwerte beliebiger physikalischer Größe können damit berechnet werden 〈 O(t) 〉 = ∫ dx1 dx2 ... dxN O(x1, ... xN) ρ(x1,... xN, t) .

ρ(x,t) erfüllt die Liouville-Gleichung 0=

d ρ(x,t) = dt

[∂t∂

N

+

(ri ∑ i =1

⋅ ∇r i

+ p i ⋅ ∇ pi ) ] ρ(x,t) .

Das System sei beschrieben durch die Hamilton-Funktion pi2 1 H(pi, ri) = ∑ [ + U(ri)] + ∑ V(ri – rj) 2 i≠ j i =1 2m N



r i = ∇p H = i

pi m ;

p i = –∇r H = F(ri) + i

∑ j≠i

K(ri – rj) .

Die Ableitung des Wechselwirkungspotentials definiert Kij. Damit gilt ⇒

[∂t∂

N

+

p

∑ ( mi ⋅ ∇ ri + F(ri ) ⋅ ∇ pi ) ] ρ(x1,... xN,t) i =1

= –

∑ j≠i

K(ri – rj) · ∇pi ρ( x1,... xN,t) .

Für viele Zwecke genügt es, reduzierte Verteilungsfunktionen zu betrachten. Beispiele sind die Einteilchen-Verteilungsfunktion, d.h. die Wahrscheinlichkeitsdichte, irgendeines der Teilchen bei x = r, p zu finden f(r, p, t) ≡ f1(x, t) = 〈

N

∑ i =1

δ6(x – xi) 〉 = N ∫ dx 2 ...dx N ρ(x, x2... xN, t)

oder die Korrelationsfunktion (n-Teilchen-Verteilungsfunktion), d.h. die Wahrscheinlichkeitsdichte gleichzeitig Teilchen bei x1 ... xn zu finden

132 fn (x1, ... xn, t) =

N! dx ...dx N ρ(x1, ..., xn, xn+1,… xN, t) . (N − n)! ∫ n +1

Damit können wir einfache physikalische Größen, z.B. 1-Teilchen-Größen wie n(r, t) = ∫ d3p f (r, p, t)

Teilchendichte

p f(r, p, t) m oder 2-Teilchen-Größen wie die mittlere Wechselwirkungsenergie bestimmen.

j(r, t) = ∫ d3p

(Teilchen)Stromdichte

Entsprechend können wir die Liouville-Gleichung integrieren. Formales Integrieren liefert

 ∂ p1   + ⋅ ∇ r1 + F(r1 ) ⋅ ∇ p1  f1 (x1, t) = − ∫ dx 2 K(r1 – r2) · ∇p1 f2 (x1, x2, t) ∂t m  … N p n  ∂  i ⋅ ∇ + F (r ) ⋅ ∇ ) + 1 K r r ∇ ∇ ( )( ) ( + − −   f (x1,... xn, t) ∑ ∑ ri p p p i i j i i j  n t m 2 ∂ = = ≠ i 1 i j 1   n

=–

∑ ∫ dx n +1 K(ri – rn+1) · ∇pi fn+1 (x1,... xn+1, t) . i =1

Auf der linken Seite berücksichtigen wir durch F äußere Kräfte, z.B. angelegten elektroe magnetischen Felder für Teilchen mit Ladung e, F = eE(r) + c (v x B) . Ein Problem macht die Wechselwirkung, die mehrere Teilchen koppelt und verantwortlich ist für die Kerne K(ri – rj), aufgrund derer die Gleichung für fn auch an das jeweils höhere fn+1 koppelt. Dies ist die BBGKY-Hierarchie. Um ein geschlossenes System zu erhalten, müssen wir diese approximativ abbrechen. Eine solche Approximation stellt die Boltzmann-Gleichung dar  ∂   ∂  p + ⋅ ∇ r + F(r ) ⋅ ∇ p  f (r, p, t) =   f (r, p, t)  ∂t m  ∂t coll

.

Das Problem ist nun, das Stoßintegral auf der rechten Seite, das von den Wechselwirkungen herrührt, zu bestimmen. Die Boltzmann-Gleichung war für verdünnte Gase entwickelt worden. Sie hat aber auch eine wichtige Bedeutung bei der Beschreibung von Elektronen in Festkörpern. Im Folgenden beschreiben wir ein entartetes Elektronengas.

133

7.2

Elektron-Elektron Stöße

Wir betrachten nahezu freie Elektronen mit Gitterimpulsen p =  k und Spins σ und abgeschirmter Coulomb-Wechselwirkung (s. Kap. 6), V(k) = =

1 4π e 2 −2 Ω k 2 + λ TF



k' σ' V

r1

r2

k'' σ

k'''σ'

Die Übergangsrate von den Zuständen k σ und k'σ' nach k''σ und k'''σ' ist gemäß der Goldenen Regel (Born'sche Näherung) Wkk'→k''k'''=

2π 〈k '', k ''' | V | k , k '〉 2 δ(εk + εk' – εk'' – εk''') 

Zur Vereinfachung haben wir den Spin nicht geschrieben. Bei der Berechnung des Matrixelementes müssen aber wir die Ununterscheidbarkeit der Elektronen bei gleichem Spin berücksichtigen. Damit wird das Matrixelement (siehe Kap. 6) 〈 k'',k'''|V|k,k' 〉 = δk+k', k''+k''' [V(k – k'') – δσσ' V(k – k''')] .

Im Kontinuumsmodel bleibt der Impuls bei dem Übergang erhalten. Eigentlich gilt dies in einem Festkörper nicht, da k nur modulo reziproker Gittervektoren (Umklapp Prozesse) erhalten bleibt. Hier wollen wir diese Komplikation ignorieren. Im Stoßintegral berücksichtigen wir die möglichen Übergänge. Analog zu dem, was wir von der master-Gleichung her kennen, gibt es Übergänge weg vom betrachteten Ausgangszustand (‚Rausstreuung’) oder in diesen hinein (‚Reinstreuung’). Zusätzlich zu der oben angegebenen Rate W müssen wir aber noch durch Verteilungsfunktionen berücksichtigen, ob k und k' am Anfang wirklich besetzt waren (→ fk fk'), und wegen des Pauli Prinzips, ob die Endzustände k'' und k''' frei sind (→ (1–fk'') (1–fk''')). Wir nehmen weiter an, dass sich f(p, r, t) im Ort über die Reichweite der Wechselwirkung und auch in der Zeit nur langsam ändert. Dann ist für alle Verteilungsfunktionen in den Stoßintegralen r und t dasselbe und wir schreiben zur Vereinfachung nur f(p,r,t) → fk . D.h.

 ∂ fk  = –    ∂ t  el–el k',k'',k'''

∑ [Wkk'→k''k''' fk fk' (1 – fk'') (1 – fk''') – Wk''k'''→kk' fk'' fk''' (1 – fk) (1 – fk')] .

Hierbei beschreibt der erste Term die ‚Rausstreuprozesse' aus dem betrachteten Zustand k, der zweite die Prozesse, die in das betrachtete Niveau k 'reinstreuen'. Es gilt die

134 'Mikroreversibilität', d.h. die Übergangsmatrixelemente für die Raus- und Reinstreuprozesse sind gleich, Wkk'→k''k''' = Wk''k'''→kk'. Verwenden wir noch die Impulserhaltung, so können wir vereinfachen  ∂ fk   ∂t

2  2π = − V(q) − δσσ 'V(k − k '+ q) δ(εk + εk' − εk +q − εk'−q ) ∑   k ',q el−el

.

× fk fk' (1 − fk +q ) (1 − fk'−q ) − fk +q fk'−q (1 − fk ) (1 − fk' )  Die Elektron-Elektron-Stöße erfüllen die folgenden Erhaltungssätze: - Teilchenzahl

- Impuls

 ∂ fk  =0  k  ∂ t el−el

∑

k

- Energie

 ∂ fk  =0   ∂ t el−el

∑ k

(Gilt nur solange Umklapp-Prozesse ignoriert werden.)

 ∂ fk  = 0 .   ∂ t el−el

∑ εk  k

Außerdem ist bei Spin-unabhängigen Wechselwirkungen der Spin erhalten.

7.3

Störstellenstreuung und Elektron-Phonon-Streuung

Störstellen werden durch ein Potenzial

∑ J

Uimp(r-RJ) berücksichtigt und führen in

Störungstheorie auf ein weiteres Stoßintegral. Die goldene Regel liefert die Rate für die Streuung eines Elektrons an einer Störstelle von k nach k' W imp k →k ' =

2π Nimp 〈k ' | Uimp | k 〉 2 δ(εk – εk') . 

Damit wird das Stoßintegral

Uimp kσ

 ∂ fk  = – ∑ [W imp fk (1 – fk') – W imp   k → k ' k '→k fk' (1 – fk)] k'  ∂ t imp

=–

2π Nimp ∑ |Uimp(k – k')|2 δ(εk – εk') [fk – fk'] .  k'

k'σ

135  ∂ fk  = − n imp ∫ dΩ v F σ(θkk ' )[fk − fk ' ]   εk ' = εk k'  ∂ t imp In der letzten Form haben wir die Dichte der Störstellen nimp, den Streuwinkel θkk' und den Wirkungsquerschnitt für Streuung an einer einzelnen Störstelle σ(θkk') eingeführt. In Born'scher Näherung ist dieser gerade proportional zu |Uimp(k – k')|2. Die Integration erfolgt über alle Richtungen des Impulses dΩk' = sin θkk' dθkk' dϕkk'. Der erste Beitrag des Integrals definiert eine Stoßrate (inverse Lebensdauer) 1 = nimp ∫ dΩk ' vF σ(θkk') . τimp Damit gilt 1  ∂ fk  fk + nimp ∫ dΩk ' vF σ(θkk') fk'| .   =–τ imp εk'=εk  ∂ t imp Oft verwenden wir eine Approximation: Bei s-Wellen Streuung ist σ(θ) = const. Dann gilt  ∂ fk   ∂t

1  =– [f – 〈 fk 〉 ] ,  τimp k imp

1 den Mittelwert von fk über die Richtung des Impulses bei dΩ f 4π ∫ k ' k ' εk'=εk fester Energie bezeichnet.

wobei 〈 fk 〉 =

Die Störstellenstreuung erfüllt die folgenden Erhaltungssätze: - Teilchenzahl

- Energie

 ∂ fk  k  ∂t



 =0  imp

 ∂ fk  = 0.   ∂ t imp

∑ εk  k

Der Impuls der Elektronen ist aber nicht erhalten, sondern kann an das Gitter abgegeben werden.

136 Elektron-Phonon Stöße Die Stöße mit den Phononen sind inelastisch. Überlegungen wie in oben geschildert führen zu folgendem Stoßintegral  d fk   dt

 =–  el−ph

∑ k'

−ph el−ph [W kel→ k ' fk (1 – fk') – W k '→k fk' (1 – fk)].

Wenn die Phononen thermisch verteilt sind, muss aufgrund des detaillierten Gleichgewichts gelten − ph Wkel→ k'

= exp [(εk – εk')/kT] .

− ph Wkel'→ k

Bei den Elektron-Phonon Stößen bleibt nur die Teilchenzahl erhalten.

Relaxationsraten und Relaxationszeitapproximation Wenn das System im thermischen Gleichgewicht ist, also die Verteilungsfunktion eine Fermi0

Verteilung fk , verschwinden alle Stoßintegrale. Dies gilt auch, wenn die Verteilungsfunktion ein lokales Gleichgewicht beschreibt, z.B.  l.e. ε −  k ⋅ v(r ) − µ(r )  fk = exp k + 1 

k T(r )

−1





 ∂ fkl.e.  =0.    ∂ t coll

mit ortsabhängigem (und u.U. auch zeitabhängigem) chemischem Potential µ(r), Verschiebung im Impulsraum um mv(r) und lokaler Temperatur T(r). Wenn die Abweichungen vom lokalen Gleichgewicht klein sind, können wir die Stoßintegrale in l.e.

δfk = fk – fk

linearisieren und erhalten  ∂ fk  1 =– δfk + ∫ dk ' Wk ,k ' δfk' .   τ col  ∂ t coll Hierbei beschreibt der erste Term 'Rausstreuprozesse' aus dem betrachteten Zustand k, der zweite die Prozesse, die in das betrachtete Niveau k 'reinstreuen'. Diese sind i. A. ein Integral über die Verteilungsfunktion mit geeigneten Kernen Wk,k' und entsprechend schwer exakt auszuwerten.

137 Die Stoßrate 1/τcol, definiert durch den ersten Term, ist ein Integral der Stoßkerne. Bei der Störstellen-Streuung ist 1/τimp eine Konstante. I.A. ist die Rate jedoch temperatur- und 1 energieabhängig. Z.B gilt für die Elektron-Elektron-Streurate ∝ (εk − ε F ) 2 + (kT)2 τel-el(εk,T) 1 und für die Elektron-Phonon-Streurate ∝ (εk − ε F )3 + (kT)3. Diese Abhängigkeiten τel-ph(εk,T) sind im Wesentlichen durch den Phasenraum für die Streuprozesse bestimmt. Eine weitere Auswertung der Boltzmann-Gleichung erfordert Approximationen. Häufig verwendet man die sogenannte Relaxationszeitapproximation  ∂f k   ∂t

 1 = − δf  τcoll k coll

.

Die Relaxation erfolgt zum lokalen Gleichgewicht. Diese Approximation ist oft qualitativ ausreichend, solange keine Erhaltungssätze verletzt werden. Sie beschreibt aber, wie das folgende Beispiel zeigt, die Streuprozesse zu pauschal.

7.4

Elektrische Leitfähigkeit

Mit Hilfe der Boltzmann-Gleichung können wir die verschiedenen Transportprobleme diskutieren. Wir berechnen zunächst den elektrischen Strom je = e ∑ vk fk für Teilchen mit Ladung e kσ

(d.h. für Elektronen ist e = -|e|) als lineare Antwort auf ein angelegtes elektrisches Feld E. Als konkretes Beispiel berücksichtigen wir hier nur die Störstellenstreuung im stationären Fall eines räumlich homogenen Problems. Dann reduziert sich die Boltzmann-Gleichung auf

 ∂f  e E ⋅ ∇k fk =  k    ∂ t imp 0

In linearer Ordnung spalten wir fk = fk + δfk. Dann gilt 0

e E·vk

∂fk ∂εk

= –vF nimp ∫ dΩk ' σ(θkk') [δfk – δfk'] .

In der Relaxationszeitapproximation reduziert sich die 1 rechte Seite auf − δf und wir finden τimp k

138  ∂f0  δfk = e E·vk τimp  − k  .  ∂ εk    Zur Lösung der allgemeinen Gleichung machen wir den Ansatz δfk = e

tr E·vk τimp

 ∂f0  − k  ,  ∂ εk   

tr

wobei τimp eine zu bestimmende Konstante ist. Einsetzen liefert tr vk·E = vF nimp τimp ∫ dΩk ' σ(θkk') E· (vk – vk') .

Mit vk in z-Richtung und E in der x-z-Ebene lautet dies tr vFEz=vF nimp τimp



π

0

0

∫ dϕ ∫ sinθ dθ σ(θ)(vFEz – vFEz cosθ – vFEx sinθ cosϕ) .

Der letzte Beitrag im Integral verschwindet. Also gilt für die 'Transportrate' 1 tr

τimp

π

= vF nimp 2π ∫ sinθ dθ σ(θ) (1 – cosθ) . 0

Die Transportrate unterscheidet sich von der 'Rausstreurate' im Stoßintegral 1 τimp

π

= vF nimp 2π ∫ sinθ dθ σ(θ) ; 0

durch den Faktor (1 – cosθ) im Integral; denn Streuprozesse mit θ ≈ π beeinflussen den Transport tr

stärker als die mit θ ≈ 0. Nur für s-Wellen-Streuung mit σ(θ) = const gilt τimp = τimp. Der elektrische Strom ist dann tr

je = e2 τimp

 ∂f0  E vk (vk·E) – =σ ∂εk  kσ



 definiert. Für isotrope Systeme gilt σ  = δ σ und was den Leitfähigkeitstensor σ αβ αβ αβ 2 2e tr σ = 3 τ imp ∫ dε D(ε) v2. Im Rahmen der Sommerfeld-Entwicklung (für kT « εF) finden wir tr

n e2 τimp 2e2D(εF)vF2 tr σ= τimp = = 2e2D(εF) D 3 m

.

139 tr / 3 eingesetzt. Im letzten Ausdruck haben wir die Diffusionskonstante D = vF2 τimp

7.5

Wärmeleitfähigkeit und thermoelektrische Effekte

Wir betrachten nun Situationen, wo es neben dem elektrischen Feld eE auch ein räumlich variierendes chemisches Potential und Temperatur, ∇µ und ∇T, gibt. Wir betrachten wieder nur kleine Abweichungen von einem lokalen Gleichgewicht charakterisiert durch lokale Parameter µ(r) und T(r) fl.e.(k,r) = {e(εk–µ(r))/kBT(r) + 1}

–1

.

fl.e.(k,r) geht in die linke Seite der linearisierten Boltzmann-Gleichung

e E·∇k fl.e. + vk·∇r fl.e. 

ein. Daraus folgt vk ·

∂f0 ∂εk

{eE – ∇µ –

εk – µ d Ωk ' σ(θkk') [δfk – δfk'] . T ∇ T} = –vF nimp ∫

Das elektrische Feld tritt in Kombination mit dem Gradienten des chemischen Potentials auf. Die Summe ist der Gradient des eichinvarianten elektrochemischen Potentials. In Analogie zum oben verwendeten Verfahren finden wir sofort die Lösung δfk =

ε −µ ∂f0 tr (−∇T) ] τimp vk· [eE – ∇µ + k ∂εk T tr

mit dem oben bestimmten τimp . Damit wird der elektrische Strom und Wärmestrom je = 2e = 2e

jq = 2



vk δfk

k

tr τimp

∑ k

∫ dεk ∫ dΩk

 ∂f0  ε −µ (−∇T) ] D(εk)  − k  vk vk· [eE – ∇µ + k T  ∂ εk   

vk (εk – µ) δfk

tr = 2 τimp

∫ dε k ∫ dΩ k

 ∂f0  ε −µ (−∇T) ] (εk – µ) . D(εk)  − k  vk vk· [eE – ∇µ + k T  ∂ εk   

ˆ ein mit den Komponenten Wir führen die Tensoren K n

140  ∂f0  tr ˆ K n αβ = 2 τimp ∫ dεk ∫ dΩk D(εk)  − k  vkα vkβ (εk – µ)n .  ∂ εk   

( )

Dann gilt das folgende wichtige Schema

e ˆ ∇µ 2 ˆ j= )+ K (−∇T) e e K 0 (E − e T 1 ˆ (E − ∇ µ ) + 1 K ˆ (−∇T) jq= e K 1 e T 2

.

ˆ ) = K δ . Im Wir werten die Integrale aus für eine isotrope Fermi-Oberfläche. Dann gilt ( K n αβ n αβ Rahmen der Sommerfeld-Entwicklung ersetzen wir die Zustandsdichte durch ihren Wert an der Fermi-Oberfläche und die Geschwindigkeit durch vF. Dann brauchen wir

 ∂f0  ∫ dε  − ∂ ε  = 1 ;

 ∂f0  ∫ dε  − ∂ ε  ( ε − µ ) = 0 ;

 ∂f0  π2 2 2 ∫ dε  − ∂ ε  ( ε − µ ) = 3 (kT) .

Somit gilt tr

vF2 τimp 1 K0 = 2D(εF) 3 = 2 σ(εF) , e tr

vF2 τimp π2 1 π2 K2 = 2D(εF) 3 (kT) 2 = 3 (kBT) 2 2 σ(εF) , e 3 während das Integral K1 = 0 verschwindet. Dies gilt solange wir D(ε)v2 = const setzen, also "Teilchen-Loch Symmetrie" annehmen. Dies bedeutet, Elektronen oberhalb der Fermi-Kante haben dieselben Eigenschaften (Zustandsdichte und Geschwindigkeit) wie Löcher unterhalb. In dieser Näherung gibt es keine thermoelektrischen Effekte. Wir finden diese erst, wenn wir K1 sorgfältiger auswerten, indem wir die Zustandsdichte D(ε) v2 nicht konstant setzen sondern um ∂ 2 die Fermi-Kante entwickeln, D(ε)v2 = D(εF) vF + (ε – εF) [D(ε)v2]|ε=ε . Dann gilt ∂ε F tr K1 = 2 τimp

tr = 2 τimp

 ∂f0  2 1 ∂ d ε ∫  − ∂ ε (ε − µ) 3 ∂ε [D(ε)v2]|ε=εF ∂ π2 ∂ π2 [D(ε)v2]|ε=ε = (kT) 2 σ(ε) ε=ε . (kT) 2 ∂ε F F ∂ε 3 9

Der Ausdruck für K1 ist nun von Null verschieden aber klein solange T/εF « 1. Wir erhalten also die folgenden Transportkoeffizienten:

141 1) Elektrische Leitfähigkeit σˆ ˆ . Wenn nur ein elektrisches Feld E angelegt ist, gilt je = σˆ E mit σˆ = e2 K 0 2) Thermische Leitfähigkeit κˆ (der Elektronen) Nun sei ein Temperaturgradient ∇T aufgeprägt. Die thermische Leitfähigkeit ist dann definiert ˆ /T 0) = K durch jq ≡ κˆ (∇T) . Aus den oben gegebenen Relationen schließen wir, dass κˆ (E = 2 ist. Ein typisches Experiment wird jedoch bei je = 0 durchgeführt, d.h. es existiert auch ein ˆ E=1 K ˆ ∇T. Dann ist der Wärmestrom elektrisches Feld e K 0 1 T jq =

ˆ K ˆ −1 ˆ K 1 ˆ 1 0 K1 ˆ ∇T – T K 2 ∇ T = κ ∇T , T

und der so erhaltene Wert von κˆ ˆ ˆ −K ˆ K ˆ −1 ˆ K K 1 0 K1 2 ˆκ = 2 ≈ T T ˆ /T ab. Das Verhältnis zwischen Wärme- und elektrischer Leitfähigkeit weicht geringfügig von K 2

π2 k2 ist κˆ = 3 2 T σˆ . Dies ist die Aussage des Wiedemann-Franz-Gesetzes. e 3) thermoelektrischen Effekte Es gibt eine ganze Reihe von thermoelektrischen Effekten. Sie sind alle schwache Effekte (kleine ˆ klein ist. Beispiele sind Spannungen, …), da K 1 a) Seebeck Effekt Hier untersucht man einen offenen Stromkreis bestehend aus zwei verschiedenen Materialien A und B, an den ein Temperaturgradient angelegt ist. Da Je = 0 ˆ E = 1 K ˆ ∇T. Die Thermokraft ist, gilt wieder e K 0 1 T ˆ , definiert durch Q ˆ ∇ T , ist Q ˆ = 1 K ˆ . ˆ −1 K E =Q 1 0 eT

Aufgrund der Thermokraft misst man eine Spannung (für isotrope Materialien)

142 V = ∫ dx ⋅ E dx =

x1

x2

x0

x0

1

2

∫ d x E B + x∫ d x E A + x∫ d x E B

= (QA – QB) (T2 – T1) , die proportional zur Temperaturdifferenz und der Differenz der Thermokräfte ist. (Hier ist T(xi) = Ti, i=0,1,2, siehe Skizze.) b) Peltier Effekt Ein elektrischer Strom ist i.a. verbunden mit einem Wärmefluss. Wir betrachten eine Situation ˆ E, und j = e K ˆ E, also ohne Temperaturgradient, ∇T = 0, aber E ≠ 0. Dann gilt jq = e K 1 e 0 1 ˆ ˆ −1 ˆ jq = e K 1 K 0 je = Π je . ˆ wird als Peltier Koeffizient bezeichnet. Der so definierte Koeffizient Π

c) Thomson Effekt Die Energiedichte q =

∑ k

(εk − µ) fk ändert sich durch Wärmeströme und Joule'sche Wärme-

produktion dq 1 = –∇ j + ( E – q dt e ∇µ) je . Eine etwas mühsame Rechnung liefert dafür dq dt

=

je2 dκ dQ + (∇T) 2 – T (∇T ⋅ je ) . σ dT dT

Wechseln wir die Richtung von je, dann ändert auch ∇T·je das Vorzeichen. Dies bedeutet, dass dq dt nicht symmetrisch ist. Im magnetischem Feld gibt es eine ganze Reihe weiterer Effekte: Nernst, Ettinghausen, RighiLeduc Effekt, die hier nicht weiter diskutiert werden.

Symmetrien der Verteilungsfunktionen Wir können verschiedene Nichtgleichgewichtssituationen erzeugen, die sich in der Symmetrie der Verteilungsfunktion unterscheiden.

143 Zugefügte Teilchen ergeben eine Verschiebung des chemischen Potentials  ∂f0  δf = δµ –  .  ∂εk 'Heiße' Elektronen sind beschrieben durch δT (>0)

f(εk) T T +δ T

εk–µ  ∂f0  δf = δT T –  .  ∂εk Ein elektrischer Strom verschiebt die Verteilung

k f(εk)

 ∂f0  δf ∝ E vk –  .  ∂εk Ein Wärmestrom ist beschrieben durch  ∂f0  δf ∝ ∇T vk (εk – µ) –  .  ∂εk

7.6

k

f(εk)

k

Onsager Relationen

Bei der Thermodynamik irreversibler Prozesse spielt die Entropieproduktion eine wichtige Rolle. Sie kann als bilineare Form in verallgemeinerten Strömen und verallgemeinerten Kräften d entwickelt werden, = S ∑ jn ⋅ Fn . Weiterhin gilt zwischen Strömen und Kräften die lineare dt n Relation jn =

L nm Fm . Für ein solches Schema fand Onsager, dass die Matrix der Lnm symme∑ m

trisch ist, Lnm = Lmn . Beispiel: thermoelektrische Koeffizienten •

S = je·

 jq  E − ∇µ / e E − ∇µ / e 1 + ∇·   = je · + jq · ∇   T T T T

144 ⇒

 eq ∇  1   ee E − ∇µ / e + L je = L   T T  qe E − ∇µ / e + L  qq ∇  1  . jq = L   T T

Die oben beschriebene Lösung der Boltzmann-Gleichung lieferte tatsächlich, dass die  eq = L  qe = T e K ˆ . Die anderen Koeffizienten sind nebendiagonalen Koeffizienten gleich sind, L 1  ee = T e2 K ˆ , L qq = T Kˆ . L 0

2

7.7 Boltzmann-Gleichung im magnetischen Feld Im magnetischen Feld lautet die Boltzmann-Gleichung

[∂t∂

+ vk · ∇r +

 ∂f e 1 (E + vk × B) · ∇k] fk =  k c   ∂t

  . coll

Wir linearisieren und suchen eine stationäre, homogene Lösung bei Verwendung der Relaxationszeitnäherung für das Stoßintegral ⇒

eE · vk

∂f0 1 e + ( vk × B) · ∇k δfk = – δfk . ∂εk τ c

Hierbei haben wir verwendet, dass (vk × B) · ∇k f0 = (vk × B) · vk

∂f0 = 0. Mit dem Ansatz: ∂ε

 ∂f0  δfk = eτ vk F  k  und  k = m* v , sowie (A × B) · C = (B × C) · A = … erhalten wir  ∂ εk    eτ   v · E = v ·  F + ∗ B × F  (*) . m c  

Der Ansatz liefert die Stromdichte j = e



vk δfk

= σ0 F

ne2τ mit σ0 = m* . Durch

k entsprechendes Summieren der Gleichung (*) (ohne vorherige Auflösung nach F) erhalten wir 1 eτ 1 E= j + ∗ B × j =ρˆ j σ0 m c σ0

.

Diese Relation definiert einen spezifischen-Widerstandstensor ρ . Mit B in z-Richtung und γ = eτ m*c B finden wir

145

1 ρ = σ0

 1 −γ 0     γ 1 0 . 0 0 1  

Wir können die Relation (*) auch invertieren, mit dem Ergebnis F =

E − γ B × E + γ 2B B ⋅ E , und 1 + γ 2 B2

 E und den Leitfähigkeitstensor σ  bestimmen. Dieser ist (für B in z-Richtung) daraus j = σ 1 γ 0  σ   0 = −γ 1 0 . σ 2  1+ γ  2  0 0 1+ γ   –1 = ρ . Offensichtlich gilt σ Wir betrachten nun eine typische HallGeometrie wie dargestellt. Die zu j parallele und senkrechte Komponenten des Widerstandtensors liefern dann 1 E|| = ρ0 j ; ρ0 = σ

0

eτ 1 E⊥ ≡ EH = m*c B j ≡ RH B j . σ0 eτ 1 1 Der so definierte Hall-Widerstand ist also RH = m*c = nec . Er hängt ab von der Dichte σ0 und dem Vorzeichen der Ladungsträgern. Messung des Hall-Widerstands erlaubt es, diese zu bestimmen Der Widerstand für Transport in B-Richtung ist in dem Grenzfall, den wir hier betrachten, nicht beeinflusst durch ein magnetisches Feld. D.h. der Magnetowiderstand, der die B-abhängigen Abweichungen bezeichnet, verschwindet.

7.8

Wigner-Funktion

Im Prinzip können wir, ähnlich wie die Boltzmann-Einteilchen-Verteilungsfunktion f1(r,p,t) aus der klassischen Gibbs'schen Verteilung durch Ausintegrieren der anderen N–1 Teilchen erhalten wurde, auch in der Quantenmechanik verfahren. Ausgangspunkt ist dann die Dichtematrix ρˆ (t) , ∂ ˆ ρˆ (t)  . deren Zeitentwicklung aus der Liouville-Gleichung folgt i ρˆ (t) =  H,  ∂t

146 Betrachten wir zunächst ein einzelnes Teilchen, dessen Zustand durch eine Dichtematrix beschrieben ist. Dann können wir das Matrixelement 〈 r | ρˆ (t) | r' 〉 =



*

ψn(r) 〈 n | ρˆ (t) | n' 〉 ψn'(r')

n,n'

auch in Schwerpunkts- und Relativkoordinaten 〈 R+r/2 | ρˆ (t) | R–r/2 〉 betrachten. Wenn wir viele (N) Teilchen haben, können wir aus der Dichtematrix eine 1-Teilchengröße dadurch erhalten, dass wir eine Spur über die anderen N–1 Teilchen bilden f1 (R,r,t) = tr N −1 〈 R+r/2 | ρˆ (t) | R–r/2 〉 .

{

}

Die so erhaltene Größe wird nach Fourier-Transformation bezüglich r die sogenannte "WignerFunktion" f1 (R,k,t) ≡ ∫ d3r eikr tr N −1 〈 R+r/2 | ρˆ (t) | R–r/2 〉 .

{

}

Sie hat formale Ähnlichkeiten mit der Boltzmann-Verteilungsfunktion. Die Dichten im Orts- oder Impulsraum sowie die Stromdichte d 3k  ∫ (2π)3 f 1 (R,k,t) n(k,t) = 〈 k | ρˆ (t) | k 〉 = ∫ d3R f1 (R,k,t)

n(R,t) = 〈 R | ρˆ (t) | R 〉 =

j(R,t) =



d 3k  k  f 1 (R,k,t) , (2π)3 m

können korrekt aus f1 (R,k,t) gewonnen werden. Bei diesen Größen wird entweder über den Impuls oder über den Ort integriert. Die Unschärferelation in der Quantenmechanik verhindert jedoch, eine Größe einzuführen, bei der sowohl Ort als auch Impuls festgelegt werden. Entsprechend ist die Größe f1 (R,k,t) nicht allgemein als eine Verteilungsfunktion zu interpretieren. Man findet unter anderem, dass f1 (R,k,t) negativ werden kann. Aus diesen Gründen hat die Wigner Funktion i.A. keine einfache anschauliche Bedeutung, sie charakterisiert aber den quantenmechanischen Zustand des Systems.

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

147

8. Linear Response, Kubo-Formalismus 8.1 Schrödinger, Heisenberg und Wechselwirkungsbild Wir betrachten einen zeitabhängigen Hamilton Operator H(t) = H0 + H1(t), wobei H1(t) im folgenden den Effekt einer schwachen aber zeitabhängigen Störung beschreibt. a) Schrödinger-Bild (Darstellung): Die Lösung der zeitabhängigen Schrödinger-Gleichung kann formal mit Hilfe des Zeitentwicklungsoperators U(t,t0) geschrieben werden i

d S(t) = H(t) S(t) dt



i

d U(t,t0) = H(t) U(t,t0) ; dt



U(t,t0) = 1 –



S(t) = U(t,t0) S(t0) U(t0,t0) = 1

t  i t  i  . exp dt ' H(t ')  dt ' H(t') U(t',t ) = T 0  t  t   0  0

Hier ist der Zeitordnungsoperator T eingeführt worden. Er ordnet Operatoren entsprechend ihrer Zeit so, dass die mit der spätesten Zeit links stehen. Für H(t) = H0 reduziert sich der Zeitentwicklungsoperator auf U0(t,t0) = e

iH0 (t  t 0 )/ 

.

b) Heisenberg-Bild: Im Heisenberg-Bild enthalten Operatoren die Zeitabhängigkeit, während Zustände zeitunabhängig sind OH(t)  U+(t,t0) OS(t) U(t,t0) H = U+(t,t0) S(t) = S(t0) . Erwartungswerte sind in beiden Bildern gleich,  O  =  H(t) |OH(t)| H(t)  =  S(t) |Os| S(t)  .

Die Operatoren erfüllen die Heisenberg-Bewegungsgleichung i

∂ d O H (t) = [OH(t), HH(t)] + i  U+(t,t0) (∂t OS(t)) U(t,t0) . dt

Der letzte Term berücksichtigt eine explizite Zeitabhängigkeit, die in OS(t) enthalten sein kann.

148 c) Wechselwirkungsbild: Im Wechselwirkungsbild wird die einfache Zeitabhängigkeit, die von H0 herrührt, abgespalten OI(t) = e



i

iH0 t / 

OS(t) e

iH0 t / 

,

I(t) = e

iH0 t / 

S(t)

 iH0 t /  d iH t /    . O I (t) = [OI (t), H0] + i  e 0  OS (t)  e dt t 

Wir betrachten nun ein System, das durch eine Dichtematrix (t) beschrieben ist. Diese erfüllt die d Liouville-Gleichung i  (t) = [H(t), (t)] . dt In der Wechselwirkungsdarstellung gilt

 

I (t) = e

iH0 t / 

(t) e

iH0 t / 

d I (t) = [H1I (t), I (t)] dt t i I (t) = (t0) –  dt ' [H1I (t'), I (t')] . t i

0

Diese Form eignet sich besonders für die unten folgende Störentwicklung.

8.2 Linear Response 1 Bei t0 sei das System in einem Zustand beschrieben durch eine Dichtematrix 0 = Z e–H0 . 0 Dabei ist die Normierung die Zustandssumme Z0 = tr e–H0. Weiterhin greife eine externe Störung F(r,t) an, die an eine physikalische Größe Q(r) koppelt in dem Sinne, dass der Beitrag zum Hamilton-Operator gegeben ist durch H1 (t)    d3r F(r, t) Q(r ) Beispiele: Ein elektrisches Potential koppelt an die Ladungsdichte e +(r) (r), ein Vektorpotential A an den Strom (s. unten), ein Magnetfeld H an die Magnetisierung M. In linearer Näherung können wir die Integralgleichung für I (t) nach einer Iteration abbrechen I (t) ≈ 0 –

t

i dt ' [H1I (t'), 0] .  t 0

Damit bestimmen wir den Erwartungswert einer physikalischen Größe O(t)

 O(t)  = tr [I (t) OI (t)] =  O   – 0

i 

149

t

 dt ' tr {0 [OI (t), H1I (t')]} .

t0

(Hier haben wir die Invarianz der Spur unter zyklischen Permutationen des Argumentes ausgenutzt.) Wir führen die Abweichung vom ungestörten Wert O(r,t) = O(r,t) –  O  0 ein, setzen H1 ein und lassen t0→ – ∞



i  O(r,t)  = t

t

0

 dt '  d r ' tr {0 [OI (r,t), QI (r',t')]}  3

F(r',t') .

Die verallgemeinerte Suszeptibilität oder Lineare-Antwort-Funktion (“linear response”) ist definiert durch O(r, t) 



 dt'  d r' (r, t, r ', t') F(r ', t') 3

.

Der Vergleich zeigt (r, t, r ', t') 

i tr 0 O I (r, t), Q I (r ', t')  (t  t') 

.

Dies ist die Kubo-Formel. Sie drückt die Lineare-Antwort-Funktion  durch Eigenschaften des ungestörten Systems aus. Bei räumlicher und zeitlicher Translationsinvarianz hängt nur von Orts- und Zeitdifferenzen ab. Nach Fourier-Transformation (r – r', t – t') → (k,) wird aus der oben geschriebenen Faltungsrelation O(k , )  (k , ) F(k , ) Oft sind wir an der Änderung der Größe Q, an die F ankoppelt, interessiert, d.h. O = Q. Dann gilt (r,t, r',t') =

i tr {0 [QI (r,t), QI (r',t')]}  (t – t') . 

(Der Einfachheit halber betrachten wir im Folgenden nur die Zeitabhängigkeit.) Wir können  weiter auswerten, indem wir Energieeigenzustände H0 |n  = En |n  einschieben i(E  E )(t  t')/  i(En  En' )(t  t')/  i (t  t ') e–En |  n | Q | n'  |2 [e n n' e ].   Z0 nn'  –1 P Nach Fourier-Transformation und mit  dt eit (t) = = i + () finden wir i– 



(t – t') =



150 () = '() + i"() ; 

"() =

=

'() = '()

 1  e–En |  n | Q |n'  |2  Z0 nn'

"(–) = –"()

  E n  E n'   E  E n'     n             

 1  e     e–En  n | Q |n'  |2  Z0 nn'

'() = –

;

E  E n'    n    

1 P (e En  e En ' ) |  n |Q|n'  |2 .  Z0 nn' E n  E n'   

8.3 Fluktuations-Dissipations-Theorem Wir betrachten die Korrelationsfunktion im Gleichgewicht

 Q(t) Q(t')  . Da bei

quantenmechanischen Operatoren i.A. die Ordnung der Operatoren eine Rolle spielt, definiert man die Korrelationsfunktion durch die symmetrisierte Form 1 G(t–t') = 2 tr {0 [Q(t) Q(t') + Q(t') Q(t)]} . Nach Fourier-Transformation erhalten wir analog zu den oben gezeigten Schritten G()   Q Q   = 

E  E n' 1  e    e–En |  n |Q|n'  |2 ( + n   Z0 nn'

).

Der Vergleich mit der Responsefunktion liefert das Fluktuation–Dissipations–Theorem QQ   coth

   "() 2

Im klassischen Grenzfall  « kT gilt also

 Q Q   ≈

2kT " () . 

Zur Erläuterung der Bezeichnung "Dissipation" zeigen wir, dass " die Energiezunahme beschreibt und daher im stationären Fall proportional zur Dissipation ist. d d ∂ • dt  E(t)  = dt tr [ H(t)] = tr [H ] =  ∂t H1(t)  . •

Hier haben wir benutzt, dass i  tr { H} = tr {[H, ] H} = tr { [H,H]} = 0.



d • • dt  E(t)  = –  Q(t)  F(t) = –  dt ' (t – t') F(t') F(t)

151 und

E =  dt

d  E(t)  =  d ( i) () |F()|2 =  d "() |F()|2 . dt

E ≥ 0 nimmt zu, d.h. " hängt mit der Energieänderung und damit der Dissipation zusammen.

8.4 Kramers-Kronig-Relationen Die Responsefunktion ist “kausal”, (t–t')  (t–t') , d.h. der Response zur Zeit t hängt nur von der Störung F(t') zu Zeiten t' ≤ t ab. Aus der Kausalität folgt die wichtige Eigenschaft, dass () analytisch in der oberen -Halbebene ist. Es gilt außerdem für alle sinnvollen Modelle, dass |()| < 1/|| für || → ∞. Wir wenden nun zunächst Cauchy's Theorem an (mit einer Kontur ~ längs der reellen Achse und zurück in der oberen Halbebene) und verwenden dann die Relation 1/(x–i0)=P/x +i(x) ( + i0) =





() d ' ( ') d ' ( ') = P + 2 2 i  '   i0 2 i  ' 



P ( ') () = d ' .  i   ' 

Eine Zerlegung nach Real-und Imaginärteil liefert die Kramers-Kronig-Relationen Re () = '() = 

P  "() d '     ' 

Im () = "() = –

P  '() d ' .    ' 

Sie erlauben die Berechnung des Imaginärteils der Responsefunktion, wenn der Realteil gemessen ist und umgekehrt. Daher sind sie von großer praktischer Bedeutung.

8.5

Die elektrische Leitfähigkeit

Als konkretes Beispiel werten wir nun die elektrische Leitfähigkeit aus  j()  =  () E() ; ,  = x, y, z .  

152 Der Leitfähigkeitstensor  ist die lineare Responsefunktion, die Änderungen des Stromes als 1 • Antwort auf ein elektrisches Feld E = – grad  – A beschreibt. Für die weitere Auswertung c 1 • wählen wir die Eichung  = 0 . D.h. E = – A c



i A() c

 j()  =  () 

A(t) =

d

 2 e–it A() .

Zu beachten ist das Auftreten des Faktors i in der Relation zwischen  j()  und A(). Das Vektorpotential geht in der eichinvarianten Ableitung in den Hamilton-Operator ein 1 H =  d 3r +(r) {2m

[   – ec i

2

A(r,t)] + U(r)} (r) + ...

Nach Linearisierung finden wir also H1 = –  d3r

A(r, t) j1(r) c

mit

e   j1(r)  2m [+(r) (r) – (+(r)) (r)] . i i

Der Strom e j(r,t) = 2m

{+(r) (   – i

e  e A) (r) + [(–  – A) +(r)] (r)} c c i

e2 + besteht aus 2 Beiträgen j(r,t) = j1(r) –  (r) (r)A(r,t) . In linearer Ordnung in A finden mc

wir dann auch 2 Terme  j (r,t)  = –

 1 e2  +(r) (r)  A(r,t) +   dt '  d 3 r '  (r,t, r',t') c A(r',t') . mc  

Dabei ist  +(r) (r)  = n(r,t) die Dichte der Elektronen, während die Responsefunktion  nun nach den obigen Regeln folgt  (r,t, r',t') =

i tr {0 [j1I (r,t), j1I (r',t')]}(t–t') . 

Wenn wir Raum- und Zeittranslationsinvarianz annehmen, wird dies 

 j (k,)  = –

1 e2 n A (k,) +  (k,) c A (k,) mc 

 1  e2  (k,) =   n    (k , )  . i  m 

153 Der erste Term beschreibt eine freie Beschleunigung (vergleiche die Drude-Leitfähigkeit) und ist rein imaginär, der zweite Term beschreibt den dissipativen Anteil.

Einstein-Relation Zur weiteren Auswertung nehmen wir, dass ein homogenes Feld angelegt ist, k = 0, und betrachten nur die -Abhängigkeit des Realteils der Leitfähigkeit 

e2 Re  () = Re  d(t  t ') ei (t–t') tr {0 [pI (t), pI (t')]} (t–t')  m 2 





=

e2 iH t /  iH t /  Re   d t ei t  n | 0 e 0 p e 0 | n ' n ' | p | n  2  m n n' 0

  n ' | 0 p | n  n | e =

iH0 t / 

p e

iH0 t / 



| n '

f (E n )  f (E n' ) e2 Re  ()  n | p | n'   n' | p | n  . 2 i (   E n  E n' )   m n n' 2

2

Wir betrachten außerdem ein isotropes SystemD.h. =   ;  px  =  py  = ...



Re  () =

 e2   n | p | n'  |2  (  + En – En') [ f(En) – f(En')] , 3 m 2 n n'

und ein entartetes Elektronengas, d.h.  , kT « EF  [f(En) – f(En +  )] /   = (En – EF)

 e2 (En – EF) (   + En – En') |  n | p | n'  |2.  2  3m n n'  d t i t  iEn t /   iEn' t /  e Jetzt drücken wir die zweite -Funktion wieder als Integral aus Re    0



Re () =



Re () =

 e2 Re (En – EF)  n | p(t) p(0) | n  eit.  dt  3m 2 n 0

Es bleibt eine Mittelung über die Richtung der Impulse auf der Fermi-Oberfläche. Mit Hilfe der Zustandsdichte pro Spin N(EF) schreiben wir

 n

(En – EF)  n| ... | n  N(EF)  ...  FS.Damit

wird die Gleichstromleitfähigkeit ausgedrückt durch die Diffusionskonstante Re ( = 0) = 2e2 N(EF) D

Einstein-Relation

154 

D=

1

 dt 3 0

Re  v(t) v(0)  FS

Für freie Elektronen gilt weiter

Diffusionskonstante

N(E F) 

pFm

2  2 3 V

p3F 4 und die Dichte ist n  2 . 3 (2)3 V

Schließlich nehmen wir ein einfaches Relaxationsmodell an,  v(t)v(0)  FS = e–t/ vF2, und finden vF2 n e2  und   . so die altbekannten Ergebnisse wieder, D = 3 m

Statistische Physik, G. Schön, Karlsruher Institut für Technologie (Universität)

9.

Phasenübergänge

9.1

Paramagnetismus

155

Wir betrachten zunächst N wechselwirkungsfreie Teilchen mit Spin S = ½ und magnetischem Moment 0 in einem externen Magnetfeld beschrieben durch H =  2 0

N

H  Si .  i 1

Für Elektronen ist  0  g  B / 2 , das Bohr'sche MagnetonB = e  /(2m e c) und g = 2. Für ein Feld in z-Richtung betrachten wir nur die z-Komponente Siz = (1/2) i mit i = ±1. Damit wird N

H =  h  i

h =  0 Hz .

mit

i 1

Die Zustandssumme des Systems ist Z=



{i 1}

e–H =



{i 1}

N

 eh ∑ i =  i

βhσ   e  = 2N coshN(h)  σ1 

Daraus folgt die freie Enthalpie

< > = M/N0

G(T, Hz) = –kT ln Z

1

= –kT N [ln 2 + ln cosh (h)]

T 1 < T2 < T3

und ∂G M(T, Hz) = – ∂H

z

= N 0 tanh (h) .

h 0

= N 0 σ

Der Mittelwert eines Spins ist also σ = tanh (h). Dasselbe Ergebnis erhalten wir aus 1 σ j    σj e Z {σ 1}

βh  σi i

i

 βhσ j     e  σ 1  j  

1

σ σ 1

βhσ j

j

e

= tanh (h)

j

Für Teilchen mit allgemeinem Spin S gilt Siz = mi ; mi = –S, –S+1, ... +S und N



sinh [(2S+1)h]N  s   . ZS =   e2 hm  =  sinh (h)    ms 

Daraus ist wieder G(T,Hz) und die Magnetisierung direkt zu bestimmen.

156

9.2

Molekularfeld-Näherung (mean field) für das Ising-Modell

Wir betrachten nun wechselwirkende Spin-1/2 Teilchen im Magnetfeld (in z-Richtung), beschrieben durch das Ising Modell

H

1

 Jiji j  h  i

2 ij

i

Die Summen laufen über alle Gitterplätze. Die Doppelzählung der Paare in der ersten Summe wird durch den Faktor 1/2 kompensiert. Oft betrachten wir den Fall nächster-NachbarWechselwirkung (nn). Dann ist Jij = J für i,j nächste Nachbarn, und Jij = 0 sonst. In 1 Dimension existiert eine exakte Lösung, die keinen Phasenübergang zeigt (siehe Kap. 6). In 2 Dimensionen existiert nur für h = 0 eine exakte Lösung (von Onsager, siehe Kap. 9.4.). Sonst brauchen wir Näherungen, z.B. die Molekularfeld-Näherung, Numerik wie Monte-Carlo-Methoden, oder Renormierungsgruppenmethoden, die das singuläre Verhalten am Phasenübergang beschreiben . Molekularfeld-Näherung

Jeder Spin sieht ein Molekularfeld erzeugt durch das äußere Feld und alle anderen Spins H=–

i

hi({j})i

mit

1 h i({j}) = h + 2  Jijj . j

In der Molekularfeld-Näherung wird (1) das lokale, konfigurationsabhängige Feld durch ein mittleres (effektives) Feld ersetzt h i({j}) → heff = h +  Jij  j  , j

(2)

 j  abhängig von heff berechnet. Dies liefert eine Selbstkonsistenzbedingung für  j  .

Zur Begründung (und Bestimmen der Faktoren) nehmen wir an, dass die Abweichungen vom Mittelwert i –    klein sind. Bei Vernachlässigung von Termen 2. Ordnung erhalten wir dann 

1 HMF = – 2  Jij { σ 2 + 2 (i – σ ) σ } – h  i . ij

Also

i

H MF   h eff i   J ij  i

ij

mit h eff  h   J ij  . j

Wir definieren nun J0   Jij . Für n.n.-Kopplung bei z nächsten Nachbarn gilt J0= z J . j



1 HMF = –  (h + J0 σ ) i + 2 N J0 σ 2 . i

157 Die Zustandsumme und die weiteren thermodynamischen Größen können nun wie beim paramagnetischen System bestimmt werden, Z=

e

 HMF

{i }

 1 NJ0  2 =e 2

 (h  J0  )  i

e

{i }

i

 1 NJ0  2 =e 2 2N coshN(h+  J 0  )

Die Gibbs'sche freie Energie ist nun G(T,H) = –kT ln Z = N kT {– ln 2 – ln cosh[(h + J0 σ )]} +

NJ 0  σ 2 . 2

Daraus folgt die Magnetisierung M(T, H)  G / H bzw. der Mittelwert von 

  tanh   h  J 0    . Wir haben also ein Selbstkonsistenzproblem zu lösen. Die Auflösung der transzendenten Gleichung nach σ ist analytisch nicht möglich. Es bietet sich aber ein graphisches Verfahren an, das hier für h = 0 verdeutlicht ist.

Oberhalb der kritischen Temperatur, T > Tc, gibt es nur 1 Lösung: σ = 0. Unterhalb der kritischen Temperatur, T < Tc, gibt es 3 Lösungen: σ = 0 und σ = ± 0 , dabei sind nur σ = ± 0 stabile Lösungen, dagegen ist σ = 0 instabil (s.u.). Bei der kritischen Temperatur Tc ist die Gerade σ gerade die Tangente der Funktion tanh(J0 σ ) am Ursprung. Dies bedeutet dass c J0 = 1, d.h. kTc  J 0

.

158 Für T < Tc ist    auch ohne angelegtes Feld von Null verschieden. Es gibt also eine geordnete Phase mit spontaner Symmetrieberechnung und spontaner Magnetisierung M = N 0  σ . Wir können  σ als einen Ordnungsparameter ansehen. In der ungeordneten Hochtemperaturphase verschwindet der Ordnungsparameter,  σ = 0. Dagegen ist  σ ≠ 0 in

< > 1 h=0

0 Tc

T

–1

der geordneten Tieftemperaturphase. Für endliche Felder, h≠0, sehen die Lösungen wie folgt aus

Die ausgezogenen Linien sind die stabilen Lösungen, die gestrichelten Lösungen bezeichnen instabile bzw. metastabile Lösungen. Da  σ = tanh [(h + J0 σ ], gilt cosh[(h + J0 σ ] = 1/ 1   σ 2 . Damit erhalten wir für die Gibbs'sche freie Energie in Molekularfeld-Näherung



1  G(T, H)  N kT   ln 2  ln 1  (T, H) 2 

2

  N2 kT

c

(T, H)

2

.

Damit finden wir für G(T,H) die folgende Skizze (am einfachsten, indem wir von der obigen Skizze für M(T,H) ausgehen und diese über die Relation M(T, H)  G / H integrieren):

159

Für die freie Energie erhalten wir F(T,M) = G(T,H(M)) + M H(M)

,

M = N0    .

Um H(M) zu eliminieren, lösen wir die Selbstkonsistenzgleichung nach h auf  h  Arth    J 0  

T 1 1  ln  c  . 2 1  T

Mit Hilfe dieses Ausdrucks können wir M H     h durch    ausdrücken und erhalten 1 1 1+ σ  1  2 F(T,M) = N kT   ln 2 + ln (1   σ 2 ) +  σ ln  – 2 N kTc    . σ    2 2 1   Das Ergebnis (am einfachsten wieder durch Integration der Relation H  F(T, M) / M zu erhalten) ist unten dargestellt. In dieser Form wäre F(T,M) nicht überall eine konvexe Funktion von M. Wir korrigieren dies durch die Maxwell-Konstruktion. Dies zeigt dann auch, welche Zweige von M(H) thermodynamisch stabil und welche instabil (oder metastabil) sind.

160

Singuläres Verhalten am Phasenübergang Tc

Die Potenzgesetze bzw. das singuläre Verhalten in der Nähe des Phasenübergangs definiert so genannte kritische Exponenten. Um sie zu bestimmen, entwickeln wir die oben hergeleitete Relation zwischen h und    für kleine    h 

T 1 1  3  T  1  c    1  c     ln 2 1  T T 3 

Wir definieren die Größe  

T  Tc ≈ Tc

. (*)

T  Tc , die nahe Tc ein kleiner Parameter ist, und T

erhalten: a) Für h = 0 und T < Tc gilt    2 = –3 . Unterhalb Tc wächst der Ordnungsparameter also wie die Wurzel     ( ε) . Der Exponent wird mit  bezeichnet und ist in MolekularfeldNäherung  = 1/2

b) Für  = 0 (d.h. T = Tc) finden wir für die Magnetfeldabhängigkeit    3 = 3h      h1/

mit

=3 .

161 c)

2

Zur Berechnung der Suszeptibilität verwenden wir   /  h   / (   ) , was durch

Ableiten der oben gegebenen Relation (*) folgt. Oberhalb Tc ist  2 = 0, unterhalb gilt +  2 = 2||. Daraus folgt

T 

M H H 0

 02 1 für T  Tc N  kT    c  02 N  2 h  0 1  N kT 2  für T  Tc c 

Die Divergenz der Suszeptibilität bei Tc ist beschrieben durch die kritischen Exponenten  und ',

  T    '  

für T  Tc für T  Tc

 Dann gilt in MFA

 = ' = 1 .

∂2F(T,M) d) Die Wärmekapazität bei fester Magnetisierung verschwindet, CM = –T   = 0.  ∂T2  M ∂2G(T,H) Die Wärmekapazität bei festem Feld, CH = –T   , bestimmen wir am bequemsten  ∂T2  H unter Verwendung der thermodynamischen Relation ∂M  2 1 . CH – CM = T  ∂T    H T 2

(In Kap 1.7 ist die analoge Relation für CP – CV =  T  V / T P /  V / P T hergeleitet.) Wieder gewinnen wir die Ableitung ∂    /∂ T aus der Relation (*). Für H = 0 verschwindet es oberhalb Tc. Unterhalb gilt

3|  | 1   1 . Daraus folgt   2 T Tc    Tc 2 |  |

0 für T > Tc   CH =  3  2 N k [1 + O(ε)] für T < Tc Die Wärmekapazität hat einen Sprung bei Tc. Also ist G / T stetig aber  2G / T 2 unstetig. Dies bedeutet, dass der Phasenübergang von 2. Ordnung ist. Entsprechend der Definition, die unten gegeben wird, ist der Wert des entsprechenden kritischen Exponenten

 = '= 0 .

Kritik an der Molekularfeld-Näherung: Die Fluktuationen sind nicht (ausreichend) berücksichtigt. Sie sind besonders groß dicht bei Tc. Dies hat zur Folge, dass das kritische Verhalten und damit die Werte der kritischen Exponenten i. A. nicht korrekt beschrieben sind.

162

9.3

Die Landau-freie-Energie

1. Das freie-Energiefunktional

Das Landau-freie-Energiefunktional ist eine effektive Hamilton-Funktion, die die wesentlichen Eigenschaften von Phasenübergängen enthält. Es ist eine phänomenologische Beschreibung, konstruiert für die Nähe des Phasenübergangs, ist aber auch oft aus mikroskopischen Modellen herleitbar. Als Beispiel betrachten wir ein magnetisches System im Magnetfeld H = h/mit einer “coarse grained” Magnetisierung m(r). Diese ergibt sich durch Mitteln der mikroskopischen Konfiguration über Längen, die groß sind im Vergleich zum Gitterabstand, aber klein im Vergleich zu makroskopischen Längen. m(r) ist ein lokaler “Ordnungsparameter”

m(r)

Die Summe in der Zustandssumme wird entsprechend aufgespalten: Z = tr e–H

=

 D m(r) ↑

 tr' e

βH m (r )





2. Summe über alle Konfigurationen m(r)

1. Spur über mikroskopische Konfigurationen bei festem m(r)

tr' e–H| m(r) = W({m(r)}) e–E({m(r),h}) = e–F({m(r),h}) . ↑ Zahl der Zustände mit m(r) S({m(r)})/k W=e





Energie für

freie-Energiefunktional

gegebenes m(r)

für m(r)

Das “freie-Energiefunktional” F ({m(r)},h) ist nicht die thermodynamische freie Energie F(T,M) oder Enthalpie G(T,H) sondern ein Funktional der lokalen Magnetisierung m(r), über deren Konfigurationen mit e–F({m(r)},h) gewichtet zu summieren ist. Die thermodynamischen Potentiale erhalten wir aus der Zustandssumme, nachdem diese Summation ausgeführt ist Z   Dm(r ) eβ F ({m (r )},h)  eβG(T,H ) .

163 Das freie-Energiefunktional F kann wiederum als Raumintegral eines freie-Energiedichtefunktionals f geschrieben werden F({m(r)},h) =  d d r f({m(r)},h) .

I. A. kennen wir das freie-Energiefunktional nicht, aber in der Nähe des Phasenüberganges, wo m(r) klein ist, können wir es durch eine Entwickung ausdrücken, die weitgehend durch allgemeine Überlegungen und Symmetrien festgelegt ist. Der Einfachheit halber betrachten wir zunächst ein skalares Feld m(r). Auch vom Magnetfeld soll nur eine Komponente eine Rolle spielen, z.B. H = h/ eˆ z . Dann muss gelten f

b(T) 4 1 2 m 2 (r )  m (r )  02 m(r )  m(r) , h   f N  f0  a(T) 2 4 2 



 h  m(r ) .

Erläuterungen: (1) fN beschreibt die Eigenschaften der ungeordneten Phase, hat aber nichts mit dem Phasenübergang zu tun. Daher kann fN oft ignoriert werden. (2) Für h = 0 können nur gerade Potenzen von m auftreten, da m und –m gleichwertig sind. (3) Wir haben eine Gradientenentwicklung gemacht. 0 definiert eine natürliche Längenskala. (4) Für h ≠ 0 kommt ein Feld-Term hinzu, der linear an m ankoppelt. (5) a(T) hängt von der Temperatur ab. Wir werden sehen, dass der Phasenübergang (bei Tc) durch ein Verschwinden des Koeffizienten a(T) charakterisiert ist. (6) Dagegen können wir b meist als temperaturunabhängig annehmen mit b > 0. Sonst muss ein weiterer Term cm6 berücksichtigt werden, da die Stabilität erfordert, dass f(|m|→ ±∞)→ ∞. (7) Hier haben wir a,b und m dimensionslos gewählt. f0 enthält die nötige Energieskala. Für räumlich konstante m erhalten wir also folgendes Bild (mit a(T) = ):

164 2. Molekularfeld-Näherung

Die Molekularfeld-Näherung ergibt sich als Sattelpunkt der Funktionalintegralbeschreibung: Der Hauptbeitrag zu Z kommt von dem m(r), das F({m},h) minimal macht 0 =

h 1 δF ({m},h) 3 2 = a(T) m0(r) + b m0(r) – 0  2 m0(r) – f . 0 f 0 δm(r ) m0

Eine homogene Lösung für h = 0 ist 0  m0 =   | a(T)|/b

für a(T)  0 für a(T)  0

.

δ2 F > 0, also F(m0) ein Minimum. Dagegen ist für die bei a(T) < 0 δm 2 m=m0 ebenfalls existierende Lösung m0 = 0 das Funktional ein lokales Maximum.

Für diese Werte ist

Es kommt also zu einem Phasenübergang, wenn a(T) negativ wird. Nur für a < 0 gibt es einen von Null verschiedenen Ordnungsparameter. Die Temperatur, wo a(T) verschwindet, a(Tc) = 0, ist die kritische Temperatur Tc. In einer Entwicklung nahe Tc gilt T–Tc a(T) = T  . c Für T < Tc ist also m0 = ± ||/b . Dies bedeutet, wir finden, wie zuvor bei der MolekularfeldNäherung des Ising Modells, den Wert für den kritischen Exponenten  = 1/2. Die Suszeptibilität und der damit verbundene kritische Exponent sind ∂m 

1/ f

1/ 

für T  T

0 c 0   ∂h  =   2   3b m 0 (T) h=0 1/(2 |  |) für T  Tc

  = ' = 1 .

Für die h-Abhängigkeit bei Tc ( = 0) finden wir m0 (h,Tc) =

3

 =3.

h / bf 0

In der MFA drücken wir das Funktionalintegral approximativ durch den Wert am Sattelpunkt aus (wir können das Integral aber auch besser auswerten, siehe Kap. 9.4.) und erhalten so für die Zustandssumme und das entsprechende thermodynamische Potential Z ≈ e–F(m0,h)



G(T,H) ≈ F{m0,h} .

165 D.h. 1 1 2 4 G(T,H=0) ≈ F{m0, 0} = FN + f0V( 2  m0 + 4 b m0 )  FN  =  f0V 2  FN  4 b ε 

für T > Tc für T < Tc

.

Der erste Beitrag FN ist regulär bei Tc. Damit erhalten wir für die Wärmekapazität



 CN ∂2G  CH=0 = –T 2 =  V f0 T ∂T C N + 2 b T 2 c 

für T > Tc   = ' = 0 .

für T < Tc

Alle kritischen Exponenten, die wir hier finden, sind also dieselben wie die der MFA des Ising Modells. In der Landau'schen freie-Energiefunktional-Beschreibung können wir auch inhomogene Lösung beschreiben, z.B. eine Wand, die Bereiche mit m = +m0 für x   von anderen mit m = –m0 für x   trennt. (Hier betrachten wir eine 1-dimensionale Abhängigkeit bei T 0 b(T) 4 c(T) 6 1  a(T) 2  f({m(r)}, h) = fN + f0  m (r )  m (r )  m (r )  ξ 02 |m(r ) |2   h  m(r ) . 4 6 2  2 

Damit ergibt sich nun für c > 0 folgendes Bild, abhängig vom Vorzeichen von a(T) und b(T)

170

f–f N

b

m

Phasenübergang 2. Ordnung

Trikritischer Punkt

a

Phasenübergang 1. Ordnung

b = -4(ca/3)1/2

Beim Phasenübergang 1. Ordnung findet ein diskontinuierlicher Übergang von m = 0 zu m ≠ 0 statt.

9.4

Weitere Modelle

1. Onsager-Lösung des 2-dimensionalen Ising-Modells (h = 0)

Zum Vergleich und um einige Trends zu zeigen, zitieren wir die Ergebnisse der von Onsager gefundenen exakten Lösung des 2-dimensionalen Ising Modells ohne Feld (eine Herleitung findet sich in Appendix B von Stanley and in Feynman 'Statistical Mechanics') H=–



J i j

Übergangstemperatur:

.

171 2J Die exakte Lösung liefert sinh kT = 1, d.h. c

2 kTc = J ≈ 2,269 J. ln( 2  1)

In Molekularfeld-Näherung in 2 Dimensionen (mit z = 4 nächsten Nachbarn) finden wir dagegen MF

MF

kTc = 4J, d.h. kTc = 0.567kTc Hier sehen wir einen allgemein Trend: Die MFA vernachlässigt Fluktuationen und überschätzt daher Tc. Spezifische Wärme: CH (T,H = 0) = –

2k  J  2 T – Tc 2 ln  T  + regulär .     kTc

Die spezifische Wärme divergiert logarithmisch bei Tc, d.h. der kritische Exponent bleibt _____ =0 . Magnetisierung: 0     (T,H = 0)  =  1/8 4  1  1/ sinh (2J/kT) 

für T > Tc für T  Tc



 = 1/8 . ______

2. Das Gauß'sche Modell

Eine Entwicklung des Landau-Funktionals um ein Extremum bis zur quadratischen Ordnung (z.B. im Rahmen einer Sattelpunktsnäherung) liefert ein Gauß'sches Modell, das dann exakt ausgewertet werden kann. Konkret betrachten wir ein System oberhalb Tc in d Dimensionen  ε 1   F =  d d r f 0  m 2 + ξ 0 2 (m) 2   mh  . 2   2  Nach Reskalierung r/0 → r, Fourier-Transformation mit m(k) = m*(–k) und Einführen des Symbols J, sowie eines Skalarprodukts erhalten wir f0  1 F =   2 [( + k2) |m(k)|2] – m(k) h(–k)  2 (m, J m) – (m, h)  

k

und

Z=



Dm(r)) e–F ({m(r)}) = (   dm(k ) ) e–F ({m(k)} . k

Nach quadratischer Ergänzung wegen des linearen Terms kann die Gauß'sche Integration durchgeführt werden, 

Z=

(h, J–1 h) c e2 . det (βJ)

Dabei ist c eine Konstante, die Determinante ist

172

det (J) =

1 1  f0(+k2) = exp {2  ln[f0(+k2)]} = exp { V k

und

1 1 –1 2 (h, J h) = 2

 k

1 |h(k)|2 . f0(+k2) 1

Z = c exp { V 

Für h = 0 gilt also und

2

k

2

1

G(T, H=0) =

2

dd k  (2π)d ln[f0(+k2)]},

kT V 

dd k ln[f0(+k2)]} d (2π)

dd k dd k 2)] = Greg + 1 kT V ln [ f (+ k ln (+k2) . 0 c  2 (2π)d (2π)d

Damit wird die Wärmekapazität C = T

∂2G dd k 1 reg + k V = C . 2  2 2 d 2 ∂T |k | k c (2) (  k )

Wir konzentrieren uns auf den singulären Teil, der vom oberen cut-off des Integrals abhängt

Csing V



kc

0

k d 1 dk   ε d/22 (ε+k 2 )2

xc

0

dx

x d 1 (1+x 2 ) 2

a) d < 4  Das Integral ist konvergent auch für xc → ∞

 – ,

xc = kc/  .

C  

(d4) / 2



=

(4 – d)/2 b) d = 4  Das Integral divergiert logarithmisch C  ln xc  ln 

 =0

c) d > 4  Das Integral ist ultraviolett-divergent, der cut-off kc ist nötig. Das Integral ist dominiert durch Beiträge von großen k  kc und wird unabhängig von  



C ≈ const   = 0 .

D.h. nur für d ≥ 4 finden wir das Molekularfeld-Ergebnis.

9.5

Kritische Exponenten und Universalitätsklassen

Beim Phasenübergang sind mehrere physikalische Größen singulär. Verschiedene Größen f() verhalten sich am Phasenübergang wie f()  ||. Dann wird  kritischer Exponent genannt. Mathematisch genauer definiert man: Wenn

ln f(ε) |ε|0 ln |ε|

  lim

existiert, dann ist  der kritische Exponent von f().

Man verwendet dafür die Kurzbezeichnung: f() ~ Beispiele

Magnetisches System

und

173

|| . Flüssig-Gas-Übergang

– Ordnungsparameter für T < Tc m ~ ||

Magnetisierung

fl – gas ~ || .

Dichteunterschied

– spezifische Wärme  ε  α CH=0    α' |ε|

für T > Tc für T < Tc

; H=0

 ε  α CV    α' |ε|

für T>Tc ; ρ=ρ gas (T) für TTc ; ρ=ρgas (T) für T