Entropie (statistische Thermodynamik) - Entropy (statistical thermodynamics)

Der Begriff Entropie wurde erstmals Mitte des 19. Jahrhunderts vom deutschen Physiker Rudolf Clausius als thermodynamische Eigenschaft entwickelt, die vorhersagt, dass bestimmte spontane Prozesse irreversibel oder unmöglich sind. In der statistischen Mechanik wird Entropie als statistische Eigenschaft unter Verwendung der Wahrscheinlichkeitstheorie formuliert . Die statistische Entropie- Perspektive wurde 1870 vom österreichischen Physiker Ludwig Boltzmann eingeführt , der ein neues Gebiet der Physik begründete , das die beschreibende Verbindung zwischen der makroskopischen Naturbeobachtung und der mikroskopischen Betrachtung basierend auf der rigorosen Behandlung eines großen Ensembles von Mikrozuständen herstellte, die die Thermodynamik bilden Systeme .

Boltzmanns Prinzip

Ludwig Boltzmann definierte die Entropie als Maß für die Anzahl der möglichen mikroskopischen Zustände ( Mikrozustände ) eines Systems im thermodynamischen Gleichgewicht , im Einklang mit seinen makroskopischen thermodynamischen Eigenschaften, die den Makrozustand des Systems ausmachen . Eine nützliche Illustration ist das Beispiel einer Gasprobe, die in einem Behälter enthalten ist. Die leicht messbaren Parameter Volumen, Druck und Temperatur des Gases beschreiben seinen makroskopischen Zustand ( Zustand ). Auf mikroskopischer Ebene besteht das Gas aus einer Vielzahl frei beweglicher Atome oder Moleküle , die zufällig miteinander und mit den Wänden des Behälters kollidieren. Die Kollisionen mit den Wänden erzeugen den makroskopischen Druck des Gases, der den Zusammenhang zwischen mikroskopischen und makroskopischen Phänomenen verdeutlicht.

Ein Mikrozustand des Systems ist eine Beschreibung der Positionen und Impulse aller seiner Teilchen. Die große Anzahl von Partikeln des Gases stellt eine unendliche Anzahl möglicher Mikrozustände für die Probe bereit, aber zusammen weisen sie einen wohldefinierten Durchschnitt der Konfiguration auf, der als Makrozustand des Systems dargestellt wird, zu dem jeder einzelne Mikrozustandsbeitrag vernachlässigbar klein ist . Das Ensemble von Mikrozuständen umfasst eine statistische Wahrscheinlichkeitsverteilung für jeden Mikrozustand, und das Maximum, eine Gruppe wahrscheinlichster Konfigurationen, liefert den makroskopischen Zustand. Daher kann das System als Ganzes nur durch einige makroskopische Parameter beschrieben werden, die als thermodynamische Variablen bezeichnet werden : Gesamtenergie E , Volumen V , Druck P , Temperatur T und so weiter. Diese Beschreibung ist jedoch nur relativ einfach, wenn sich das System im Gleichgewichtszustand befindet.

Das Gleichgewicht kann mit einem einfachen Beispiel veranschaulicht werden, in dem ein Tropfen Lebensmittelfarbe in ein Glas Wasser fällt. Der Farbstoff diffundiert auf komplizierte Weise, was schwer genau vorherzusagen ist. Nach ausreichender Zeit erreicht das System jedoch eine einheitliche Farbe, einen Zustand, der viel einfacher zu beschreiben und zu erklären ist.

Boltzmann formulierte eine einfache Beziehung zwischen der Entropie und der Anzahl möglicher Mikrozustände eines Systems, die mit dem Symbol Ω bezeichnet wird . Die Entropie S ist proportional zum natürlichen Logarithmus dieser Zahl:

Die Proportionalitätskonstante k B ist eine der fundamentalen Konstanten der Physik und wird zu Ehren ihrer Entdeckung Boltzmann-Konstante genannt .

Da Ω eine natürliche Zahl ist (1,2,3,...), ist die Entropie entweder null oder positiv ( ln 1 = 0 , ln Ω ≥ 0 ).

Die Boltzmann-Entropie beschreibt das System, wenn alle zugänglichen Mikrozustände gleich wahrscheinlich sind. Es ist die Konfiguration, die dem Entropiemaximum im Gleichgewicht entspricht. Die Zufälligkeit oder Unordnung ist maximal, ebenso wie der Mangel an Unterscheidung (oder Information) jedes Mikrozustands.

Entropie ist eine thermodynamische Eigenschaft, genau wie Druck, Volumen oder Temperatur. Daher verbindet es das mikroskopische und das makroskopische Weltbild.

Das Boltzmannsche Prinzip gilt als Grundlage der statistischen Mechanik .

Gibbs-Entropieformel

Der makroskopische Zustand eines Systems ist durch eine Verteilung auf die Mikrozustände gekennzeichnet . Die Entropie dieser Verteilung ergibt sich aus der Gibbs-Entropieformel, benannt nach J. Willard Gibbs . Für ein klassisches System (dh einer Sammlung von klassischen Teilchen) mit einem diskreten Satz von Mikro, wenn die Energie des Mikrozustandes ist I , und die Wahrscheinlichkeit , dass es während der Systemschwankungen auftritt, dann wird die Entropie des Systems ist ,

Entropieänderungen für Systeme in einem kanonischen Zustand

Ein System mit einer wohldefinierten Temperatur, dh eines im thermischen Gleichgewicht mit einem thermischen Reservoir, hat eine Wahrscheinlichkeit, sich in einem Mikrozustand i zu befinden , der durch die Boltzmann-Verteilung gegeben ist .

Änderungen der Entropie, die durch Änderungen der äußeren Randbedingungen verursacht werden, sind dann gegeben durch:

wobei wir zweimal die Wahrscheinlichkeitserhaltung verwendet haben, Σ dp i = 0 .

Nun ist Σ i d ( E i p i ) der Erwartungswert der Änderung der Gesamtenergie des Systems.

Wenn die Änderungen ausreichend langsam sind, so dass das System im gleichen mikroskopischen Zustand bleibt, sich aber der Zustand langsam (und reversibel) ändert, dann ist Σ i ( dE i ) p i der Erwartungswert der dadurch am System geleisteten Arbeit reversibler Prozess, dw rev .

Aber nach dem ersten Hauptsatz der Thermodynamik gilt dE = δw + δq . Deswegen,

Im thermodynamischen Grenzfall wird die Schwankung der makroskopischen Größen von ihren Mittelwerten vernachlässigbar; dies reproduziert also die oben gegebene Definition der Entropie aus der klassischen Thermodynamik.

Die Größe ist eine physikalische Konstante, die als Boltzmann-Konstante bekannt ist und wie die Entropie Einheiten der Wärmekapazität hat . Der Logarithmus ist , wie alle Logarithmen, dimensionslos .

Diese Definition bleibt auch dann sinnvoll, wenn das System weit vom Gleichgewicht entfernt ist. Andere Definitionen gehen davon aus, dass sich das System im thermischen Gleichgewicht befindet , entweder als isoliertes System oder als System im Austausch mit seiner Umgebung. Die Menge von Mikrozuständen (mit Wahrscheinlichkeitsverteilung), für die die Summe gebildet wird, wird als statistisches Ensemble bezeichnet . Jede Art von statistischem Ensemble (mikrokanonisch, kanonisch, großkanonisch usw.) beschreibt eine andere Konfiguration des Austauschs des Systems mit der Außenwelt, von einem vollständig isolierten System bis zu einem System, das eine oder mehrere Größen mit einem Reservoir austauschen kann , wie Energie, Volumen oder Moleküle. In jedem Ensemble wird die Gleichgewichtskonfiguration des Systems durch die Maximierung der Entropie der Vereinigung des Systems und seines Reservoirs gemäß dem zweiten Hauptsatz der Thermodynamik bestimmt (siehe Artikel zur statistischen Mechanik ).

Die Vernachlässigung von Korrelationen (oder allgemeiner statistischer Abhängigkeiten ) zwischen den Zuständen einzelner Teilchen führt zu einer falschen Wahrscheinlichkeitsverteilung auf den Mikrozuständen und damit zu einer Überschätzung der Entropie. Solche Korrelationen treten in jedem System mit nichttrivial wechselwirkenden Teilchen auf, also in allen Systemen, die komplexer sind als ein ideales Gas .

Dieses S wird fast allgemein einfach als Entropie bezeichnet . Sie kann auch als statistische Entropie oder thermodynamische Entropie bezeichnet werden, ohne die Bedeutung zu ändern. Beachten Sie, dass der obige Ausdruck der statistischen Entropie eine diskretisierte Version der Shannon-Entropie ist . Die von Neumann-Entropieformel ist eine Erweiterung der Gibbs-Entropieformel auf den quantenmechanischen Fall.

Es wurde gezeigt, dass die Gibbs-Entropie gleich der klassischen "Wärmekraftmaschinen"-Entropie ist, die gekennzeichnet ist durch

Ensembles

Die verschiedenen Ensembles, die in der statistischen Thermodynamik verwendet werden, sind durch die folgenden Beziehungen mit der Entropie verbunden:

ist die mikrokanonische Partitionsfunktion ist die kanonische Partitionsfunktion ist die großkanonische Partitionsfunktion

Mangelndes Wissen und der zweite Hauptsatz der Thermodynamik

Wir können Ω als Maß für unseren Mangel an Wissen über ein System betrachten. Um diese Idee zu veranschaulichen, stellen Sie sich einen Satz von 100 Münzen vor , von denen jede entweder Heads-Up oder Tails-Up ist . Die Makrozustände werden durch die Gesamtzahl von Kopf und Zahl angegeben, während die Mikrozustände durch die Gesichter jeder einzelnen Münze angegeben werden. Für die Makrozustände von 100 Heads oder 100 Tails gibt es genau eine mögliche Konfiguration, sodass unsere Systemkenntnis vollständig ist. Im entgegengesetzten Extrem besteht der Makrozustand, der uns am wenigsten Wissen über das System gibt, aus 50 Köpfen und 50 Schwänzen in beliebiger Reihenfolge, für die es 100.891.344.545.564.193.334.812.497.256 ( 100 wähle 50 ) ≈ 10 29 mögliche Mikrozustände gibt.

Selbst wenn ein System vollständig von äußeren Einflüssen isoliert ist, ändert sich sein Mikrozustand ständig. Zum Beispiel bewegen sich die Teilchen in einem Gas ständig und nehmen daher zu jedem Zeitpunkt eine andere Position ein; auch ihre Impulse ändern sich ständig, wenn sie miteinander oder mit den Behälterwänden kollidieren. Angenommen, wir bereiten das System in einem künstlich hochgeordneten Gleichgewichtszustand vor. Stellen Sie sich zum Beispiel vor, einen Behälter mit einer Trennwand zu teilen und auf einer Seite der Trennwand ein Gas zu platzieren, auf der anderen Seite ein Vakuum. Wenn wir die Trennwand entfernen und das anschließende Verhalten des Gases beobachten, werden wir feststellen, dass sich sein Mikrozustand nach einem chaotischen und unvorhersehbaren Muster entwickelt und dass diese Mikrozustände im Durchschnitt einem ungeordneteren Makrozustand entsprechen als zuvor. Es ist möglich , aber äußerst unwahrscheinlich , dass die Gasmoleküle so aneinander abprallen, dass sie in einer Behälterhälfte verbleiben. Es ist überwältigend wahrscheinlich, dass sich das Gas ausbreitet, um den Behälter gleichmäßig zu füllen, was der neue Gleichgewichtsmakrozustand des Systems ist.

Dies ist ein Beispiel, das den zweiten Hauptsatz der Thermodynamik veranschaulicht :

die Gesamtentropie eines isolierten thermodynamischen Systems neigt dazu, mit der Zeit zuzunehmen und nähert sich einem Maximalwert .

Diese Idee steht seit ihrer Entdeckung im Mittelpunkt vieler, zum Teil verworrener Gedanken. Ein Hauptverwirrungspunkt ist die Tatsache, dass der Zweite Hauptsatz nur für isolierte Systeme gilt. Die Erde ist beispielsweise kein isoliertes System, da sie ständig Energie in Form von Sonnenlicht erhält . Im Gegensatz dazu kann das Universum als isoliertes System betrachtet werden, so dass seine Gesamtentropie ständig zunimmt. (Klarstellung erforderlich . Siehe: Zweiter Hauptsatz der Thermodynamik#zitate-Grandy 151-21 )

Zählen von Mikrozuständen

In der klassischen statistischen Mechanik ist die Zahl der Mikrozustände eigentlich unzählbar unendlich , da die Eigenschaften klassischer Systeme stetig sind. Zum Beispiel wird ein Mikrozustand eines klassischen idealen Gases durch die Positionen und Impulse aller Atome spezifiziert, die kontinuierlich über den reellen Zahlen liegen . Wenn wir Ω definieren wollen, müssen wir eine Methode finden, um die Mikrozustände zu gruppieren, um eine abzählbare Menge zu erhalten. Dieses Verfahren wird als Grobkörnung bezeichnet . Im Fall des idealen Gases zählen wir zwei Zustände eines Atoms als „gleichen“ Zustand, wenn ihre Positionen und Impulse innerhalb von δx und δp voneinander liegen. Da die Werte von δx und δp beliebig gewählt werden können, ist die Entropie nicht eindeutig definiert. Sie ist nur bis zu einer additiven Konstante definiert. (Wie wir sehen werden, ist auch die thermodynamische Definition der Entropie nur bis zu einer Konstanten definiert.)

Um eine grobe Körnung zu vermeiden, kann man die Entropie nach dem H-Theorem nehmen .

Diese Mehrdeutigkeit lässt sich jedoch mit der Quantenmechanik auflösen . Der Quantenzustand eines Systems kann als Überlagerung von „Basis“ Zustände ausgedrückt werden, die gewählt werden können , um Energie sein Eigenzustände (dh Eigenzustände des Quanten Hamilton - Operator ). Normalerweise sind die Quantenzustände diskret, auch wenn es unendlich viele davon geben kann. Für ein System mit einer bestimmten Energie E nimmt man Ω als die Anzahl der Energieeigenzustände innerhalb eines makroskopisch kleinen Energiebereichs zwischen E und E + δE an . Im thermodynamischen Limes wird die spezifische Entropie unabhängig von der Wahl von δE .

Ein wichtiges Ergebnis, bekannt als Satz von Nernst oder dritter Hauptsatz der Thermodynamik , besagt, dass die Entropie eines Systems bei einer absoluten Temperatur von Null eine wohldefinierte Konstante ist. Dies liegt daran, dass ein System bei Nulltemperatur in seinem niedrigsten Energiezustand oder Grundzustand existiert , so dass seine Entropie durch die Entartung des Grundzustands bestimmt wird. Viele Systeme wie Kristallgitter haben einen einzigartigen Grundzustand, und (da ln(1) = 0 ) bedeutet dies, dass sie beim absoluten Nullpunkt Null Entropie haben. Andere Systeme haben mehr als einen Zustand mit derselben niedrigsten Energie und haben eine nicht verschwindende "Nullpunktentropie". Gewöhnliches Eis hat beispielsweise eine Nullpunktentropie von3.41 J/(mol⋅K) , da die zugrunde liegende Kristallstruktur mehrere Konfigurationen mit derselben Energie besitzt (ein Phänomen, das als geometrische Frustration bekannt ist ).

Der dritte Hauptsatz der Thermodynamik besagt, dass die Entropie eines perfekten Kristalls beim absoluten Nullpunkt (0 Kelvin ) Null ist. Dies bedeutet, dass fast alle Molekülbewegungen aufhören sollten. Die Oszillatorgleichung zur Vorhersage quantisierter Schwingungsniveaus zeigt, dass das Molekül auch dann noch Schwingungsenergie hat, wenn die Schwingungsquantenzahl 0 ist:

wobei die Plancksche Konstante, die charakteristische Frequenz der Schwingung und die Schwingungsquantenzahl ist. Auch wenn (die Nullpunktsenergie ) nicht gleich 0 ist, in Übereinstimmung mit der Heisenbergschen Unschärferelation .

Siehe auch

Verweise