In der kanonischen Ensemblebeschreibung eines thermodynamischen Systems ergeben sich die mittleren Werte der Energie und ihrer Quadrate als gewichtete Summen über die möglichen Mikrozustände. Diese Gewichtung erfolgt durch den Boltzmann-Faktor exp(−βE), wobei β = 1/(k₍B₎T) steht. Die mittlere Energie ⟨E⟩ ergibt sich als:

⟨E⟩ = ∑Eₛ · pₛ = (1/Z) · ∂(ln Z)/∂β = −(1/Z) · ∂Z/∂β

Das mittlere Quadrat der Energie ist:

⟨E²⟩ = (1/Z) · ∂²Z/∂β²

Die Energiefluktuation ΔE² ergibt sich als:

ΔE² = ⟨E²⟩ − ⟨E⟩² = (1/Z) · ∂²Z/∂β² − [(1/Z) · ∂Z/∂β]²

Diese Differenz entspricht exakt der Varianz der Energieverteilung im Ensemble. Der negative Temperaturgradient der mittleren Energie ist identisch mit der Energiefluktuation:

−∂⟨E⟩/∂β = ΔE²

Da die Wärmekapazität C durch ∂⟨E⟩/∂T gegeben ist, lässt sich ein direkter Zusammenhang zwischen den Fluktuationen und makroskopisch messbaren Größen herstellen:

ΔE² = k₍B₎ · C · T²

Diese Beziehung ist bemerkenswert, weil sie eine Brücke schlägt zwischen thermodynamischen Ableitungen und mikroskopischen Schwankungen.

Die relative Fluktuation der Energie skaliert mit der Anzahl der Teilchen N als:

(ΔE/E) ~ 1/√N

Für makroskopische Systeme mit sehr großer Teilchenzahl (z. B. 10²³) ist diese relative Fluktuation verschwindend klein – ein zentrales Resultat, das erklärt, warum makroskopische Messgrößen stabil erscheinen, obwohl sie auf stochastischen Prozessen beruhen.

Fluktuationen können jedoch unter bestimmten Bedingungen nicht mehr vernachlässigt werden. In der Nähe eines Phasenübergangs zweiter Ordnung können Energiefluktuationen divergieren und dominieren das Verhalten des Systems. Hier sind kritische Phänomene beobachtbar, die sich nicht mehr durch klassische thermodynamische Betrachtungen allein erfassen lassen, sondern explizit die statistische Beschreibung auf mikroskopischer Ebene benötigen.

Die Druckfluktuationen lassen sich analog behandeln. In der kanonischen Beschreibung sind Temperatur, Volumen und Teilchenzahl festgelegt. Der Druck ist nicht festgelegt und kann fluktuieren. Ausgehend von der Definition des mittleren Drucks über die freie Energie ergibt sich:

⟨P⟩ = −(1/βZ) · ∂Z/∂V

Die Fluktuation des Drucks folgt dann:

ΔP² = ⟨P²⟩ − ⟨P⟩² = −k₍B₎T · ∂⟨P⟩/∂V

Auch hier steht die Fluktuation in direktem Zusammenhang mit einer thermodynamischen Größe – in diesem Fall der Kompressibilität des Systems. Diese zweite Ableitung der freien Energie in Bezug auf das Volumen quantifiziert das Ausmaß der Druckschwankungen.

In beiden Fällen – bei Energie und Druck – zeigen sich die Fluktuationen als Ableitungen der freien Energie: Die Wärmekapazität C₍V₎ als ∂²F/∂T² und die Druckfluktuation als ∂²F/∂V². Daraus ergibt sich die fundamentale Einsicht, dass Fluktuationen eine direkte thermodynamische Signatur besitzen. Thermodynamik und statistische Mechanik verschränken sich an dieser Stelle auf konzeptioneller Ebene.

Was sich ebenfalls zeigt, ist die Rolle der Zustandssumme Z als zentrales Objekt der statistischen Mechanik: Ihre erste und zweite Ableitungen enthalten die vollständige Information über die mittlere Energie, ihre Fluktuation und verwandte thermodynamische Größen.

In Systemen mit großer Teilchenzahl gehen diese Fluktuationen typischerweise gegen null, was die Stabilität makroskopischer Größen erklärt. Doch gerade diese scheinbar kleine Abweichung gewinnt Bedeutung, sobald man Systeme kleiner Skala betrachtet oder sich in der Nähe kritischer Punkte befindet, wo kollektive Effekte auftreten. In diesen Fällen reichen klassische Näherungen nicht mehr aus, und die exakte statistische Beschreibung wird unerlässlich.

Außerdem ist zu beachten, dass die mathematische Struktur dieser Fluktuationen – als Varianz mikroskopischer Verteilungen – zugleich ein Zugang ist zur Definition von Entropie und Irreversibilität. Die Formeln zeigen nicht nur Schwankungen auf, sondern sie liefern Hinweise auf die Tiefe des Zusammenhangs zwischen Information, Energie und Ordnung.

Die Stabilität der thermodynamischen Größen entsteht also nicht durch deterministische Prozesse, sondern durch das Gesetz der großen Zahlen. Die Reduktion der Fluktuationen mit wachsendem N ist kein triviales Resultat, sondern Ausdruck kollektiver Selbstorganisation. Genau darin liegt die Stärke der statistischen Mechanik: in der Erklärung der Ordnung aus der Wahrscheinlichkeit.

Wie die Atomvibrationen in Festkörpern das Konzept der Phononen beeinflussen

Die Schwingungen von Atomen in Festkörpern sind ein faszinierendes Thema der statistischen Mechanik, da sie den grundlegenden Charakter von Feststoffen und deren thermischen Eigenschaften bestimmen. Ein zentrales Konzept in diesem Zusammenhang ist das der Phononen, die Quanten von Schwingungen in einem Kristallgitter, das Analogon zu den Photonen der elektromagnetischen Strahlung. Der Grundgedanke der Phononen basiert auf der Theorie der atomaren Schwingungen, wobei diese Schwingungen durch wellenartige Bewegungen beschrieben werden können.

Zunächst betrachten wir das einfache Modell eines eindimensionalen Festkörpers, der aus einer Kette von Atomen besteht. Jedes Atom in dieser Kette ist durch eine Feder mit seinen benachbarten Atomen verbunden, und die Schwingungen der Atome um ihre Gleichgewichtslage erzeugen wellenartige Bewegungen. Für die Analyse der Schwingungen wird die Annahme gemacht, dass diese Bewegungen longitudinale Schwingungen sind, also entlang der Achse des Festkörpers stattfinden.

Die Bewegung eines jeden Atoms kann durch eine Wellenfunktion beschrieben werden, die die Verschiebung des Atoms in Abhängigkeit von der Zeit und seiner Position angibt. Eine solche Funktion könnte die Form un(t)=Dsin(ωtkna)u_n(t) = D \sin(\omega t - kna) haben, wobei un(t)u_n(t) die Verschiebung des Atoms mit der Nummer nn zur Zeit tt darstellt, aa der Abstand zwischen den Atomen ist und kk der Wellenvektor ist, der mit der Wellenlänge der Schwingung verknüpft ist.

Die Gleichung, die die Schwingungen der Atome beschreibt, lautet:

md2undt2=B(unun1)+B(un+1un)m \frac{d^2 u_n}{dt^2} = -B (u_n - u_{n-1}) + B (u_{n+1} - u_n)

wobei mm die Masse eines Atoms ist und BB die Federkonstante, die die Bindung zwischen benachbarten Atomen beschreibt. Durch die Annahme einer Lösung der Form einer harmonischen Schwingung, lässt sich eine Beziehung zwischen der Frequenz ω\omega und dem Wellenvektor kk ableiten, die die Schwingungen der Atome beschreibt. Diese Beziehung lautet:

ω=2(Bm)1/2sin(ka2)\omega = 2 \left( \frac{B}{m} \right)^{1/2} \sin \left( \frac{ka}{2} \right)

Diese Gleichung beschreibt, wie die Frequenz der Schwingungen von der Wellenzahl kk abhängt, und lässt wichtige Charakteristika der Schwingungen erkennen. Insbesondere gibt es eine maximale Frequenz ωM=2(Bm)1/2\omega_M = 2 \left( \frac{B}{m} \right)^{1/2}, die mit einem maximalen Wellenvektor k=π/ak = \pi/a und einer minimalen Wellenlänge λ=2a\lambda = 2a verbunden ist. Die maximal mögliche Anzahl an Schwingungsmoden in einem eindimensionalen Festkörper mit NN Atomen ist also ebenfalls NN.

Diese Schwingungsmoden sind die sogenannten normalen Modi des Systems. Für kleine Wellenzahlen, die mit den niedrigeren Frequenzen und größeren Wellenlängen korrespondieren, ist die Beziehung zwischen der Frequenz und dem Wellenvektor linear, was bedeutet, dass die Schallgeschwindigkeit im Material konstant ist. Diese Schallgeschwindigkeit kann durch die wellenmechanische Betrachtung der Schwingungen als eine Eigenschaft des Materials bestimmt werden.

Für drei dimensionale Festkörper kann das Konzept der Phononen auf komplexere Weise verallgemeinert werden. In einem dreidimensionalen Gitter gibt es nicht nur longitudinale Wellen (die entlang der Festkörperachse schwingen), sondern auch transversale Wellen (die in senkrechten Richtungen schwingen). Diese zwei Arten von Wellen können unterschiedliche Schallgeschwindigkeiten haben, die die thermischen Eigenschaften des Materials bestimmen.

Die Schwingungsfrequenzen der Atome in einem Festkörper sind nicht beliebig; sie sind quantisiert. Das bedeutet, dass die Atome nur in bestimmten diskreten Frequenzen schwingen können. Diese quantisierten Schwingungen entsprechen den sogenannten Phononen, die als Quanten der Schwingungsenergie betrachtet werden. In der Quantenmechanik werden Phononen als Bosonen beschrieben, was bedeutet, dass sie keine feste Anzahl haben und ihr chemisches Potential Null ist. Die Energie eines Phonons ist proportional zur Frequenz der Schwingung, ähnlich wie die Energie eines Photons proportional zur Frequenz des Lichtes ist.

Für das Verständnis von Phononen ist es von entscheidender Bedeutung zu erkennen, dass Phononen nicht nur die Schwingungen von Atomen beschreiben, sondern auch die thermischen Eigenschaften eines Festkörpers beeinflussen. Dies hat Auswirkungen auf die Wärmeleitfähigkeit und die spezifische Wärme von Feststoffen. Bei sehr niedrigen Temperaturen tragen nur die niedrigen Frequenzen der Phononen zur Wärmeleitung bei, da nur diese Phononen in der Lage sind, mit den thermischen Feldern zu interagieren.

Phononen sind jedoch nicht nur eine theoretische Konstruktion; sie haben praktische Auswirkungen auf die physikalischen Eigenschaften von Materialien. Beispielsweise können die Wechselwirkungen zwischen Phononen und Elektronen die elektrischen und thermischen Eigenschaften von Halbleitern und anderen Materialien erheblich beeinflussen. Diese Wechselwirkungen spielen eine zentrale Rolle in der modernen Materialwissenschaft und Festkörperphysik.

Zusammengefasst lässt sich sagen, dass Phononen nicht nur als theoretisches Konzept wichtig sind, sondern auch tiefgreifende Auswirkungen auf die praktischen Eigenschaften von Festkörpern haben. Sie sind der Schlüssel zum Verständnis von Phasenübergängen, Wärmeleitung, und der Interaktion von Festkörpern mit anderen Teilchen. Ein detailliertes Verständnis der Phononen und ihrer Eigenschaften ist daher entscheidend für die Entwicklung neuer Materialien und Technologien in der Physik und Materialwissenschaft.

Wie man das elektronische Verhalten von Festkörpern in Bezug auf spezifische Wärme und Leitfähigkeit versteht

In der Statistischen Mechanik spielt die Untersuchung des Verhaltens von Elektronen in verschiedenen Materialien eine entscheidende Rolle. Besonders in Metallen und Halbleitern kann die elektronische spezifische Wärme (CV) als wertvolles Instrument verwendet werden, um Informationen über die Elektronenverteilung und ihre energetischen Zustände zu gewinnen. Ein zentraler Bestandteil dieser Untersuchung ist die Betrachtung der Fermi-Energie und ihrer Auswirkungen auf das Verhalten von Elektronen. Im Folgenden wird eine mathematische Herleitung zur spezifischen Wärme in Metall- und Halbleitermodellen sowie eine Betrachtung der Elektronen in Festkörpern skizziert.

Die spezifische Wärme eines Elektronensystems lässt sich durch die Zustandsdichte und die Energieverteilung der Elektronen bei verschiedenen Temperaturen berechnen. Eine der grundlegenden Beziehungen lautet:

CV=π2/3n(μ0)kB2TC_V = \pi^2 / 3 \cdot n(\mu_0) k_B^2 T

Dabei ist n(μ0)n(\mu_0) die Anzahl der Elektronen am Fermi-Niveau und TT die Temperatur. Diese Formel zeigt, dass die spezifische Wärme proportional zur Anzahl der Elektronen im Bereich um die Fermi-Energie ist. Ein weiteres wichtiges Konzept, das hier eine Rolle spielt, ist die Definition der Zustandsdichte n(E)n(E), die die Anzahl der Elektronen in der Nähe einer bestimmten Energie EE beschreibt. Insbesondere für E=μ0E = \mu_0, das Fermi-Niveau, lässt sich die Zustandsdichte wie folgt ausdrücken:

n(μ0)=3N2μ0n(\mu_0) = \frac{3N}{2\mu_0}

Dies bedeutet, dass die Fermi-Energie (μ0\mu_0) direkt mit der Anzahl der Elektronen und der Gesamtzahl der Teilchen NN im System verknüpft ist. Diese Beziehung wird später verwendet, um aus Messungen der spezifischen Wärme auf die Elektronendichte und damit auf die Fermi-Energie zu schließen.

Ein wichtiger Schritt in der Analyse des Verhaltens von Elektronen in Festkörpern ist die Betrachtung der Energiebandstruktur. In einem isolierten Atom sind die Elektronenenergien diskret, aber in einem Festkörper, der durch die Wechselwirkung vieler Atome gebildet wird, entstehen kontinuierliche Bänder, in denen sich die Elektronen bewegen können. In einem Metall beispielsweise sind die Elektronen in den so genannten "Leitungsbändern" frei und können Elektrizität leiten, da sie nicht an spezifische Atome gebunden sind. Im Gegensatz dazu sind die Elektronen in einem Isolator an ihre Atome gebunden, was bedeutet, dass keine Elektrizität geleitet werden kann, solange keine äußeren Einflüsse wie Temperatur oder Licht die Elektronen aus ihren Bindungen befreien.

In Metallen sind die unteren Bänder des Elektronenspektrums vollständig besetzt, während das oberste Band teilweise besetzt ist, was die Leitfähigkeit des Materials ermöglicht. Die Fermi-Energie in Metallen liegt innerhalb des Leitungsbandes, was bedeutet, dass bei Temperaturen oberhalb des absoluten Nullpunkts immer Elektronen im Leitungsband vorhanden sind, die zur elektrischen Leitfähigkeit beitragen.

Für Halbleiter ist die Situation etwas komplexer. Diese Materialien können als Isolatoren betrachtet werden, bei denen sich die Elektronen in einem vollständig besetzten Valenzband befinden. Bei höheren Temperaturen jedoch können Elektronen durch thermische Anregung in das Leitungsband übergehen, wodurch das Material eine gewisse elektrische Leitfähigkeit entwickelt. Der Unterschied zwischen Halbleitern und Metallen liegt darin, dass bei Halbleitern die Fermi-Energie unterhalb des Minimums des Leitungsbandes liegt, während sie in Metallen direkt im Leitungsband liegt. Das führt dazu, dass Halbleiter im Wesentlichen nicht die Fermi-Dirac-Verteilung gehorchen, sondern eher der Maxwell-Boltzmann-Verteilung, da die Elektronen im Leitungsband nicht immer vorhanden sind und ihre Zahl mit der Temperatur variiert.

Ein weiteres wichtiges Konzept bei der Betrachtung von Halbleitern ist die Dichte der Zustände, die in der Nähe des Minimums des Leitungsbandes durch eine parabolische Näherung beschrieben werden kann. Diese Annahme vereinfacht die Berechnung der Anzahl der Elektronen im Leitungsband und erklärt die starke Temperaturabhängigkeit der elektrischen Leitfähigkeit in Halbleitern. Hierbei wird die effektive Masse der Elektronen berücksichtigt, die in Halbleitern aufgrund der Wechselwirkung mit dem Kristallgitter von der freien Elektronenmasse abweicht.

Für die Berechnung der Anzahl der Elektronen im Leitungsband von Halbleitern lautet die Formel unter Verwendung der parabolischen Näherung:

Ne=EC8πVh3(2me2)3/2(EEC)1/2(1eβ(Eμ)+1)dEN_e = \int_{E_C}^{\infty} \frac{8\pi V}{h^3} \cdot \left(\frac{2m_e}{\hbar^2}\right)^{3/2} (E - E_C)^{1/2} \left(\frac{1}{e^{\beta(E - \mu)} + 1} \right) dE

Dabei ist ECE_C die minimale Energie des Leitungsbandes, mem_e die effektive Elektronenmasse und μ\mu das chemische Potential. Die Funktion beschreibt die Dichte der Zustände im Leitungsband und wird verwendet, um die Elektronenkonzentration zu berechnen, die bei verschiedenen Temperaturen im Leitungsband vorhanden ist.

In der Praxis ist die Zahl der Elektronen in Halbleitern wesentlich temperaturabhängig, was bedeutet, dass die elektrische Leitfähigkeit stark durch die Temperatur beeinflusst wird. Im Gegensatz dazu bleibt die Zahl der freien Elektronen in Metallen weitgehend temperaturunabhängig, da die Elektronen bereits bei sehr niedrigen Temperaturen ausreichend angeregt sind, um den elektrischen Strom zu leiten.

Es ist auch wichtig, bei der Analyse von Halbleitern die Tatsache zu berücksichtigen, dass die freie Elektronenbewegung durch die Wechselwirkungen mit dem Kristallgitter und den Phononen (Gittervibrationen) beeinträchtigt wird. Diese Wechselwirkungen verursachen einen Widerstand, der mit steigender Temperatur zunimmt und das Leitungsverhalten der Halbleiter bestimmt.

Was ist das freie Energiepotenzial und wie beeinflusst es die Thermodynamik und statistische Mechanik?

Die freie Energie ist ein fundamentaler Begriff in der Thermodynamik, dessen Definition für viele physikalische Systeme von zentraler Bedeutung ist. Sie lässt sich als FM = E − TS − MH ausdrücken, wobei E die gesamte Energie des Systems, T die Temperatur, S die Entropie und H das Magnetfeld darstellen. Die Differentialform dieser freien Energie ist dann gegeben durch dFM = −SdT − PdV + μdN − MdH, was auf die Variablen T (Temperatur), V (Volumen), N (Teilchenzahl) und H (Magnetisches Feld) hinweist.

In diesem Zusammenhang ist es wichtig zu verstehen, dass das Magnetisierungsverhalten des Systems durch die Ableitung der freien Energie nach H beschrieben werden kann, also M = −(∂FM/∂H)T,V,N. Dies führt uns zu einem grundlegenden Konzept in der Thermodynamik: Der Zusammenhang zwischen den makroskopischen Größen, die wir messen können, und den mikroskopischen Zuständen, aus denen das System zusammengesetzt ist.

Betrachten wir nun das große Potenzial, das in einem System vorkommt, das in thermischen Kontakt mit einem Reservoir besteht, das aus denselben Partikeln besteht. In einem solchen Fall wird das System von einem Volumen V umschlossen, dessen Wände durchlässig für die Teilchen sind. Die thermodynamischen Variablen dieses Systems sind also V (Volumen), T (Temperatur) und das chemische Potential μ. Wenn ein Teilchen vom Reservoir in das System übertritt, ohne dass andere Variablen sich ändern, wird die Energie des Reservoirs um −μR reduziert, während das System um μS an Energie gewinnt. Das führt zu der Bedingung, dass die chemischen Potentiale von System und Reservoir gleich sind.

Das grandiose Potential Ψ(T, V, μ) lässt sich dann als Ψ = E − TS − μN formulieren. Durch Anwendung der grundlegenden thermodynamischen Beziehung E = TS − PV + μN erhält man die Gleichung Ψ = −PV. Der Unterschied des grandiosen Potentials ergibt sich in seiner Differentialform, dΨ = −SdT − PdV − Ndμ, wodurch die Entropie, der Druck und die Anzahl der Teilchen als Funktionen der Variablen T, V und μ beschrieben werden können.

In der statistischen Mechanik, die sich mit den mikroskopischen Eigenschaften von Teilchen beschäftigt, sind die Potenziale nicht genau definierte Größen, sondern geben Wahrscheinlichkeitsverteilungen für die möglichen Zustände eines Systems an. Dies liegt an der unordentlichen Natur der mikroskopischen Welt. Die statistische Mechanik unterscheidet sich von der klassischen Thermodynamik, indem sie nicht feste Werte liefert, sondern eine Verteilung von möglichen Werten, aus denen mit hoher Wahrscheinlichkeit bestimmte Zustände auftreten.

Wenn wir das System als geschlossen betrachten, ist es im Prinzip ein Ensemble von vielen identischen Systemen, die jeweils in einem Mikrozustand sind. Jeder Mikrozustand entspricht einer bestimmten Anordnung der Teilchen und deren Energie. Für ein Ensemble von Teilchen, die eine Gesamtenergie von 3ε besitzen, können verschiedene Mikrozustände existieren: Alle Teilchen könnten in einem Zustand mit Energie ε sein, ein Teilchen könnte in einem Zustand mit Energie 3ε sein, während die anderen bei 0ε verbleiben, oder eine Kombination aus mehreren Zuständen mit unterschiedlichen Energien. Der Zustand des Systems wird durch diese mikroskopischen Anordnungen bestimmt, und das Ensemble stellt alle möglichen Mikrozustände zusammen.

Die Entropie ist in der Thermodynamik ein zentraler, wenn auch mysteriöser Begriff. Sie wird in der statistischen Mechanik als eine Funktion der Anzahl der Mikrozustände Ω formuliert und erhält dadurch eine konkrete Bedeutung. Das Boltzmannsche Gesetz, S = kB * ln Ω, verbindet die Entropie mit der Anzahl der möglichen Mikrozustände, wobei kB die Boltzmann-Konstante ist. Dies bedeutet, dass ein System mit mehr Mikrozuständen eine höhere Entropie aufweist, was eine größere Unordnung im System anzeigt.

Die statistische Mechanik verfolgt das Ziel, thermodynamische Größen wie Entropie (S), freie Energie (F) und das große Potential (Ψ) aus den mikroskopischen Eigenschaften der Teilchen abzuleiten. In einem geschlossenen System, in dem die Zahl der Teilchen, das Volumen und die Energie festgelegt sind, spielt die Entropie eine entscheidende Rolle, da sie die Anzahl der möglichen Mikrozustände des Systems beschreibt und somit das mikroskopische Verhalten des Systems vollständig charakterisiert.

Die statistische Mechanik geht jedoch noch weiter, da sie auch die Fluktuationen und Verteilungen in den thermodynamischen Größen berücksichtigt. Diese Fluktuationen sind in einem makroskopischen System, das aus einer großen Anzahl von Teilchen besteht, oft vernachlässigbar, aber sie spielen eine Rolle in Systemen, die kleiner oder näher an einem kritischen Punkt sind. In solchen Fällen kann es wichtig sein, die genauen Wahrscheinlichkeiten der einzelnen Mikrozustände zu betrachten, um das Verhalten des Systems genau zu verstehen.

Das freie Energiepotenzial und das grandiose Potential sind also nicht nur nützliche Konzepte für die Thermodynamik, sondern auch entscheidend, um das Verhalten von Systemen in der statistischen Mechanik zu modellieren. Ihre Anwendung ermöglicht es uns, das makroskopische Verhalten eines Systems zu verstehen, indem wir die Mikrozustände und die Wahrscheinlichkeit ihrer Erscheinung berücksichtigen. Das zentrale Anliegen dieser Disziplin ist es, die Brücke zwischen der mikroskopischen Welt der Teilchen und den makroskopischen Eigenschaften von Systemen zu schlagen.

Warum ist die Entropie eine Funktion der Energie, des Volumens und der Teilchenzahl?

In einem abgeschlossenen System aus zwei Subsystemen mit variabler Austauschbarkeit physikalischer Größen — Energie, Volumen und Teilchenzahl — ergibt sich der thermodynamische Gleichgewichtszustand aus dem Maximum der Gesamtentropie. Dies ist ein fundamentales Prinzip, das sich konsequent durch die statistische Mechanik zieht. Die Entropie SS, als extensive Größe mit der Dimension Energie durch Temperatur, reagiert auf infinitesimale Änderungen ihrer natürlichen Variablen: Energie EE, Volumen VV und Teilchenzahl NN.

Zunächst ergibt sich aus dem Zusammenhang (S/V)E,N=P/T(\partial S / \partial V)_{E,N} = P/T, dass Druck und Temperatur in direkter Relation zur Änderung der Entropie stehen, wenn das Volumen variiert wird. Dies spiegelt sich auch in der Beziehung P1/T1=P2/T2P_1/T_1 = P_2/T_2 wider, die den Gleichgewichtszustand zweier gekoppelter Volumen beschreibt. Diese fundamentale Symmetrie wird erweitert, wenn man eine trennende Wand im System nicht nur für Wärme, sondern auch für Teilchen durchlässig macht. Die Bedingungen für das thermodynamische Gleichgewicht lauten dann: gleiche Temperaturen, gleiche Drücke und schließlich auch gleiche chemische Potentiale μ1=μ2\mu_1 = \mu_2.

Die Herleitung dieser Gleichgewichtsbedingung erfolgt durch energetische Betrachtung eines Teilchentransfers durch die Wand, wobei die Gesamtenergie konstant bleibt und die Änderung auf jeder Seite proportional zum chemischen Potential ist. Da dE1=μ1dN1dE_1 = \mu_1 dN_1 und dE2=μ2dN2dE_2 = \mu_2 dN_2 gilt, folgt aus dE1+dE2=0dE_1 + dE_2 = 0 und dN1=dN2dN_1 = -dN_2 unmittelbar, dass μ1=μ2\mu_1 = \mu_2. Diese Bedingung wird auch durch das Maximum der Entropie bestätigt, wenn man N1N_1 als unabhängige Variable betrachtet und daraus ableitet (S1/N1)E,V=(S2/N2)E,V(\partial S_1 / \partial N_1)_{E,V} = (\partial S_2 / \partial N_2)_{E,V}, was mit Hilfe dimensionaler Analyse zu (S/N)E,V=μ/T(\partial S / \partial N)_{E,V} = -\mu / T führt. Das negative Vorzeichen ist nicht trivial und ergibt sich aus einer Beziehung zwischen drei partiellen Ableitungen: (x/y)z(y/z)x(z/x)y=1(\partial x / \partial y)_z (\partial y / \partial z)_x (\partial z / \partial x)_y = -1, eine Identität, die in der klassischen Thermodynamik häufig verwendet wird.

Wendet man dies auf die Variablen S(E,N)S(E,N) mit konstantem Volumen an, ergibt sich durch Einsetzen der Definitionen (S/E)N,V=1/T(\partial S / \partial E)_{N,V} = 1/T und μ=(E/N)S,V\mu = (\partial E / \partial N)_{S,V}, dass (S/N)E,V=μ/T(\partial S / \partial N)_{E,V} = -\mu / T. Zusammen mit den bereits bekannten Ausdrücken für (S/V)E,N(\partial S / \partial V)_{E,N} und (S/E)V,N(\partial S / \partial E)_{V,N} ergibt sich die vollständige differentielle Form der Entropie:

dS=dET+PTdVμTdNdS = \frac{dE}{T} + \frac{P}{T} dV - \frac{\mu}{T} dN

Dieser Ausdruck ist zentral für die Thermodynamik geschlossener Systeme und gilt im mikrokanonischen Ensemble, in dem Energie, Volumen und Teilchenzahl konstant gehalten werden.

Ein anschauliches Beispiel zur Verdeutlichung dieser Konzepte ist ein System von NN unterscheidbaren Teilchen in einem Festkörper, wobei jedes Teilchen sich nur in zwei energetisch verschiedenen Zuständen befinden kann: Zustand 1 mit Energie 0 und Zustand 2 mit Energie ee. Da das Volumen konstant bleibt und NN fest ist, sind alle thermodynamisch relevanten Größen lediglich Funktionen der Temperatur TT. Betrachtet man die Mikrozustände mit gegebener Verteilung nn von Teilchen im angeregten Zustand, ergibt sich die Energie des Systems zu E=neE = ne, und die Anzahl der Mikrozustände ist gegeben durch:

Ω=N!n!(Nn)!\Omega = \frac{N!}{n!(N-n)!}

Die Entropie ist dann S=kBlnΩS = k_B \ln \Omega, wobei unter Verwendung der Stirling-Näherung:

lnN!NlnNN\ln N! \approx N \ln N - N

die Entropie als Funktion von nn geschrieben werden kann:

S=kB[NlnNnlnn(Nn)ln(Nn)]S = k_B [N \ln N - n \ln n - (N - n) \ln (N - n)]

Durch Ausnutzung der thermodynamischen Definition (S/E)=1/T(\partial S / \partial E) = 1/T und dE=edndE = e \, dn ergibt sich die Bedingung:

[ \frac{1}{T} = \frac{1}{e} \frac{\partial S}{\parti]()