Entropie - Entropy

Entropie
Gemeinsame Symbole
S
SI-Einheit Joule pro Kelvin (J⋅K −1 )
In SI-Basiseinheiten kg⋅m 2 ⋅s −2 ⋅K −1

Entropie ist ein wissenschaftliches Konzept sowie eine messbare physikalische Eigenschaft, die am häufigsten mit einem Zustand der Unordnung, Zufälligkeit oder Unsicherheit in Verbindung gebracht wird. Der Begriff und das Konzept werden in verschiedenen Bereichen verwendet, von der klassischen Thermodynamik , wo sie erstmals erkannt wurde, über die mikroskopische Beschreibung der Natur in der statistischen Physik bis hin zu den Prinzipien der Informationstheorie . Es hat weitreichende Anwendungen in der Chemie und Physik , in biologischen Systemen und deren Beziehung zum Leben, in der Kosmologie , Ökonomie , Soziologie , Wetterwissenschaft , Klimawandel und Informationssysteme einschließlich der Informationsübertragung in der Telekommunikation gefunden .

Das thermodynamische Konzept wurde 1850 vom schottischen Wissenschaftler und Ingenieur Macquorn Rankine mit den Namen thermodynamische Funktion und Wärmepotential bezeichnet . 1865 definierte der deutsche Physiker Rudolph Clausius , einer der führenden Begründer der Thermodynamik, ihn als den Quotienten einer infinitesimalen Wärmemenge zur momentanen Temperatur . Er beschrieb es zunächst als Transformationsinhalt , auf Deutsch Verwandlungsinhalt , und prägte später den Begriff Entropie aus einem griechischen Wort für Transformation . Unter Bezugnahme auf die mikroskopische Konstitution und Struktur interpretierte Clausius 1862 das Konzept als Disgregation .

Eine Folge der Entropie ist, dass bestimmte Prozesse irreversibel oder unmöglich sind, abgesehen von der Forderung , die Energieerhaltung nicht zu verletzen , die im ersten Hauptsatz der Thermodynamik ausgedrückt wird . Die Entropie ist von zentraler Bedeutung für den zweiten Hauptsatz der Thermodynamik , der besagt, dass die Entropie isolierter Systeme, die der spontanen Entwicklung überlassen werden, mit der Zeit nicht abnehmen kann, da sie immer einen thermodynamischen Gleichgewichtszustand erreichen, in dem die Entropie am höchsten ist.

Der österreichische Physiker Ludwig Boltzmann erklärte die Entropie als Maß für die Anzahl möglicher mikroskopischer Anordnungen oder Zustände einzelner Atome und Moleküle eines Systems, die der makroskopischen Bedingung des Systems entsprechen. Damit führte er das Konzept der statistischen Unordnung und Wahrscheinlichkeitsverteilungen in ein neues Gebiet der Thermodynamik, die statistische Mechanik , ein und fand die Verbindung zwischen den mikroskopischen Wechselwirkungen, die um eine mittlere Konfiguration schwanken, zum makroskopisch beobachtbaren Verhalten in Form einer einfachen logarithmischen Gesetz, mit einer Proportionalitätskonstante , der Boltzmann-Konstante , die zu einer der definierenden universellen Konstanten für das moderne Internationale Einheitensystem (SI) geworden ist.

1948 entwickelte der Bell Labs- Wissenschaftler Claude Shannon ähnliche statistische Konzepte zur Messung mikroskopischer Unsicherheit und Multiplizität für das Problem zufälliger Informationsverluste in Telekommunikationssignalen. Auf Vorschlag von John von Neumann benannte Shannon diese Einheit der fehlenden Information analog zu ihrer Verwendung in der statistischen Mechanik als Entropie und brachte das Gebiet der Informationstheorie hervor . Diese Beschreibung wurde als universelle Definition des Konzepts der Entropie vorgeschlagen.

Geschichte

Rudolf Clausius (1822–1888), Begründer des Entropiebegriffs

Der französische Mathematiker Lazare Carnot schlug in seinem 1803 erschienenen Artikel Fundamental Principles of Equilibrium and Movement vor, dass in jeder Maschine die Beschleunigungen und Stöße der beweglichen Teile Verluste an Aktivitätsmoment darstellen ; In jedem natürlichen Prozess besteht eine inhärente Tendenz zur Dissipation nützlicher Energie. Im Jahr 1824, aufbauend auf dieser Arbeit, Lazare Sohn Sadi Carnot , veröffentlicht Reflexionen über die Motive Power of Fire , die , dass in allen Wärme Motoren gesetzt, wann immer „ kalorische “ (was jetzt als Wärme bekannt ist) fällt durch eine Temperaturdifferenz, Arbeit oder Antriebskraft kann durch die Aktionen des Fallens von einem heißen in einen kalten Körper erzeugt werden. Er verwendete eine Analogie dazu, wie Wasser in ein Wasserrad fällt . Das war eine frühe Einsicht in den zweiten Hauptsatz der Thermodynamik . Carnot stützte seine Ansichten von Wärme teilweise auf dem Anfang des 18. Jahrhunderts „Newton - Hypothese“ , dass sowohl Wärme und Licht waren Arten von unzerstörbar Formen der Materie, die durch andere Materie angezogen und abgestoßen, und teilweise auf den zeitgenössischen Ansichten von Graf Rumford , der zeigten 1789, dass Wärme durch Reibung entstehen kann, wie bei der Bearbeitung von Kanonenbohrungen. Carnot argumentierte, dass, wenn der Körper des Arbeitsmittels, beispielsweise ein Dampfkörper, am Ende eines vollständigen Motorzyklus in seinen ursprünglichen Zustand zurückkehrt , "keine Änderung des Zustands des Arbeitskörpers auftritt".

Der erste Hauptsatz der Thermodynamik , abgeleitet aus den Wärme-Reibungs-Experimenten von James Joule im Jahr 1843, drückt das Konzept der Energie und ihrer Erhaltung in allen Prozessen aus; der erste Hauptsatz ist jedoch nicht geeignet, die Auswirkungen von Reibung und Verlust getrennt zu quantifizieren .

In den 1850er und 1860er Jahren widersprach der deutsche Physiker Rudolf Clausius der Annahme, dass im Arbeitskörper keine Veränderung auftritt, und interpretierte diese Veränderung mathematisch, indem er die Natur des inhärenten Verlusts an nutzbarer Wärme bei der Verrichtung von Arbeit in Frage stellte, z durch Reibung erzeugt. Er beschrieb seine Beobachtungen als dissipative Nutzung von Energie, was zu einem Transformation-Gehalt ( Verwandlungsinhalt in Deutsch), ein thermodynamischen Systems oder Arbeitskörper von chemischer Spezies bei einem Wechsel des Staates . Dies stand im Gegensatz zu früheren Ansichten, die auf den Theorien von Isaac Newton beruhten , dass Wärme ein unzerstörbares Teilchen mit Masse sei. Clausius entdeckte, dass die nicht nutzbare Energie zunimmt, wenn der Dampf in einer Dampfmaschine vom Einlass zum Auslass gelangt. Aus der Vorsilbe en- , wie in 'Energie', und aus dem griechischen Wort τροπή [tropē], das in einem etablierten Lexikon als Wende oder Veränderung übersetzt wird und das er im Deutschen als Verwandlung wiedergab , ein Wort, das ins Englische oft als Transformation übersetzt wird , 1865 prägte Clausius den Namen dieser Eigenschaft als Entropie . Das Wort wurde 1868 in die englische Sprache übernommen.

Später gaben Wissenschaftler wie Ludwig Boltzmann , Josiah Willard Gibbs und James Clerk Maxwell der Entropie eine statistische Grundlage. Im Jahr 1877 visualisierte Boltzmann eine probabilistische Methode zur Messung der Entropie eines Ensembles von idealen Gasteilchen, bei der er die Entropie als proportional zum natürlichen Logarithmus der Anzahl von Mikrozuständen definierte, die ein solches Gas besetzen könnte. Das wesentliche Problem der statistischen Thermodynamik bestand fortan darin, die Verteilung einer gegebenen Energiemenge E auf N identische Systeme zu bestimmen . Constantin Carathéodory , ein griechischer Mathematiker, verband die Entropie mit einer mathematischen Definition der Irreversibilität in Bezug auf Trajektorien und Integrierbarkeit.

Etymologie

1865 benannte Clausius den Begriff „Differential einer von der Konfiguration des Systems abhängigen Größe“ Entropie ( Entropie ) nach dem griechischen Wort für „Transformation“. Er gab „transformierende Inhalt“ ( Verwandlungsinhalt ) als Synonym, Parallelisierung seinen „thermischen und ergonal Inhalts“ ( Wärme- Werkinhalt und ) als den Namen , sondern lieber den Begriff der Entropie als enge Parallele der Wort Energie , wie er das gefunden Konzepte fast "analog in ihrer physikalischen Bedeutung". Dieser Begriff wurde gebildet, indem die Wurzel von ἔργον ('Arbeit') durch die von τροπή ('Transformation') ersetzt wurde.

Definitionen und Beschreibungen

Jede Methode, die den Begriff der Entropie beinhaltet, deren Existenz vom zweiten Hauptsatz der Thermodynamik abhängt, wird vielen zweifellos weit hergeholt erscheinen und kann Anfänger als dunkel und schwer zu verstehen abstoßen.

Willard Gibbs , Grafische Methoden in der Thermodynamik von Flüssigkeiten

Das Konzept der Entropie wird durch zwei Hauptansätze beschrieben, die makroskopische Perspektive der klassischen Thermodynamik und die mikroskopische Beschreibung von zentraler Bedeutung für die statistische Mechanik . Der klassische Ansatz definiert Entropie in Bezug auf makroskopisch messbare physikalische Eigenschaften wie Schüttmasse, Volumen, Druck und Temperatur. Die statistische Definition der Entropie definiert sie in Bezug auf den Statistiken der Bewegungen der mikroskopischen Bestandteile eines Systems - auf den ersten modellierten klassisch, zB Newtonsche Teilchen ein Gas bildet, und später quantenmechanisch (Photonen, Phononen , dreht, etc.) . Die beiden Ansätze bilden eine konsistente, einheitliche Sichtweise desselben Phänomens, wie es im zweiten Hauptsatz der Thermodynamik zum Ausdruck kommt, der universelle Anwendbarkeit auf physikalische Prozesse gefunden hat.

Funktion des Staates

Viele thermodynamische Eigenschaften haben eine besondere Eigenschaft, da sie einen Satz physikalischer Variablen bilden, die einen Gleichgewichtszustand definieren; sie sind Funktionen des Staates . Wenn zwei Eigenschaften eines Systems bestimmt werden, reichen diese oft aus, um den Zustand des Systems und damit die Werte anderer Eigenschaften zu bestimmen. Temperatur und Druck einer bestimmten Gasmenge bestimmen beispielsweise ihren Zustand und damit auch ihr Volumen. Als weiteres Beispiel wird ein System aus einer reinen Substanz einer einzelnen Phase bei einer bestimmten einheitlichen Temperatur und einem bestimmten Druck bestimmt (und ist somit ein bestimmter Zustand) und befindet sich nicht nur in einem bestimmten Volumen, sondern auch in einer bestimmten Entropie. Die Tatsache, dass die Entropie eine Funktion des Zustands ist, ist ein Grund, warum sie nützlich ist. Im Carnot-Zyklus kehrt das Arbeitsfluid in den gleichen Zustand zurück, den es zu Beginn des Zyklus hatte, daher ist die Änderung oder das Linienintegral jeder Zustandsfunktion, wie der Entropie, über diesen reversiblen Zyklus Null.

Reversibler Prozess

Die Gesamtentropie kann während eines reversiblen Prozesses konserviert werden , und die Änderung der Systementropie ist wohldefiniert als Wärme über der Temperatur, . Ein reversibler Prozess ist ein quasistatischer Prozess , der nicht mehr als infinitesimal vom thermodynamischen Gleichgewicht abweicht und Reibung oder andere Dissipation vermeidet. Jeder Prozess, der schnell genug abläuft, um vom thermischen Gleichgewicht abzuweichen, kann nicht reversibel sein, die Gesamtentropie nimmt zu und das Potenzial für die maximale Arbeit im Prozess geht ebenfalls verloren. Während zum Beispiel im Carnot-Zyklus der Wärmefluss vom heißen Reservoir zum kalten Reservoir eine Zunahme der Entropie darstellt, stellt die Arbeitsleistung, wenn sie reversibel und perfekt in einem Energiespeichermechanismus gespeichert wird, eine Abnahme der Entropie dar, die genutzt werden könnte die Wärmekraftmaschine rückwärts zu betreiben und in den vorherigen Zustand zurückzukehren; daher kann die Gesamtentropieänderung immer noch Null sein, wenn der gesamte Prozess reversibel ist. Ein irreversibler Prozess erhöht die Gesamtentropie von System und Umgebung.

Carnot-Zyklus

Der Begriff der Entropie entstand aus der Studie des Carnot-Zyklus von Rudolf Clausius . In einem Carnot-Zyklus wird Wärme Q H isotherm bei der Temperatur T H aus einem „heißen“ Reservoir aufgenommen und isotherm als Wärme Q C an ein „kaltes“ Reservoir bei T C abgegeben . Nach Carnots Prinzip arbeiten kann nur durch das System erzeugt werden , wenn es eine Temperaturdifferenz ist, und die Arbeit sollte eine gewisse Abhängigkeit von der Differenz in der Temperatur und die Wärme absorbiert (seine Q H ). Carnot unterschied nicht zwischen Q H und Q C , da er die falsche Hypothese aufstellte, dass die kalorische Theorie gültig sei und daher die Wärme erhalten blieb (die falsche Annahme, dass Q H und Q C gleich groß seien), wenn tatsächlich Q H ist größer als der Betrag von Q C . Durch die Bemühungen von Clausius und Kelvin ist nun bekannt, dass die maximale Arbeit, die eine Wärmekraftmaschine leisten kann, das Produkt aus dem Carnot-Wirkungsgrad und der vom heißen Reservoir aufgenommenen Wärme ist:

 

 

 

 

( 1 )

Um den Carnot-Wirkungsgrad abzuleiten, der 1 − T C / T H (eine Zahl kleiner als eins) beträgt, musste Kelvin mit Hilfe der Carnot-Clapeyron-Gleichung das Verhältnis der Arbeitsleistung zur aufgenommenen Wärme während der isothermen Expansion berechnen , die eine unbekannte Funktion namens Carnot-Funktion enthielt. Die Möglichkeit, dass die Carnot-Funktion die von einem Temperaturnullpunkt gemessene Temperatur sein könnte, wurde von Joule in einem Brief an Kelvin vorgeschlagen. Dies ermöglichte Kelvin, seine absolute Temperaturskala festzulegen. Es ist auch bekannt, dass das vom System in einem Zyklus produzierte Netzwerk W die absorbierte Nettowärme ist, die die Summe (oder die Differenz der Größen) der vom heißen Reservoir aufgenommenen Wärme Q H > 0 und der Wärme Q C . ist < 0 bis zum kalten Reservoir:

 

 

 

 

( 2 )

Da letztere über den gesamten Zyklus gültig ist, gab dies Clausius den Hinweis, dass Arbeit und Wärme in jeder Phase des Zyklus nicht gleich sind, sondern der Unterschied wäre die Änderung einer Zustandsfunktion, die nach Abschluss des Zyklus verschwinden würde Kreislauf. Die Zustandsfunktion wurde die innere Energie im Zentrum des ersten Hauptsatzes der Thermodynamik genannt .

Gleichsetzen von ( 1 ) und ( 2 ) ergibt

Dies impliziert, dass es eine Zustandsfunktion gibt, deren Änderung Q/T ist und die über einen vollständigen Zyklus des Carnot-Zyklus erhalten bleibt. Clausius nannte diese Zustandsfunktion Entropie . Man kann sehen, dass die Entropie eher durch Mathematik als durch Laborergebnisse entdeckt wurde. Es ist ein mathematisches Konstrukt und hat keine einfache physikalische Analogie. Dies macht das Konzept etwas unklar oder abstrakt, ähnlich wie das Konzept der Energie entstanden ist.

Clausius fragte dann, was passieren würde, wenn das System weniger Arbeit produzierte, als das Carnotsche Prinzip vorhersagte. Die rechte Seite der ersten Gleichung wäre die obere Schranke der Arbeitsleistung des Systems, die nun in eine Ungleichung umgewandelt würde

Wenn die zweite Gleichung verwendet wird, um die Arbeit als Netto- oder Gesamtwärme auszudrücken, die in einem Zyklus ausgetauscht wird, erhalten wir

oder

Es wird also mehr Wärme an das Kältereservoir abgegeben als im Carnot-Kreislauf. Bezeichnen wir die Entropieänderungen mit Δ S i = Q i / T i für die beiden Stufen des Prozesses, dann kann die obige Ungleichung als Abnahme der Entropie geschrieben werden

oder

Die Größe der Entropie, die das System verlässt, ist größer als die Entropie, die in das System eindringt, was bedeutet, dass ein irreversibler Prozess den Zyklus daran hindert, die von der Carnot-Gleichung vorhergesagte maximale Arbeitsmenge zu produzieren.

Der Carnot-Zyklus und der Wirkungsgrad sind nützlich, weil sie die obere Grenze der möglichen Arbeitsleistung und des Wirkungsgrades jeder klassischen thermodynamischen Wärmekraftmaschine definieren. Andere Zyklen, wie der Otto-Zyklus , Diesel-Zyklus und Brayton-Zyklus , können vom Standpunkt des Carnot-Zyklus aus analysiert werden. Eine Maschine oder ein zyklischer Prozess, der Wärme in Arbeit umwandelt und behauptet, einen höheren Wirkungsgrad als den Carnot-Wirkungsgrad zu erzeugen, ist nicht praktikabel, da er gegen den zweiten Hauptsatz der Thermodynamik verstößt. Für sehr kleine Teilchenzahlen im System muss die statistische Thermodynamik verwendet werden. Die Effizienz von Geräten wie Photovoltaikzellen erfordert eine Analyse vom Standpunkt der Quantenmechanik.

Klassische Thermodynamik

Die thermodynamische Definition der Entropie wurde in den frühen 1850er Jahren von Rudolf Clausius entwickelt und beschreibt im Wesentlichen, wie die Entropie eines isolierten Systems im thermodynamischen Gleichgewicht mit seinen Teilen gemessen wird . Clausius schuf den Begriff Entropie als eine umfangreiche thermodynamische Variable, die sich bei der Charakterisierung des Carnot-Zyklus als nützlich erwiesen hat . Es wurde festgestellt, dass die Wärmeübertragung entlang der isothermen Schritte des Carnot-Zyklus proportional zur Temperatur eines Systems (bekannt als seine absolute Temperatur ) ist. Diese Beziehung wurde in Entropieinkrementen ausgedrückt, die gleich dem Verhältnis der inkrementellen Wärmeübertragung dividiert durch die Temperatur waren, die sich im thermodynamischen Zyklus änderten, aber schließlich am Ende jedes Zyklus auf denselben Wert zurückkehrten. Somit wurde festgestellt, dass es sich um eine Funktion des Zustands handelt , insbesondere eines thermodynamischen Zustands des Systems.

Während Clausius seiner Definition einen reversiblen Prozess zugrunde legte, gibt es auch irreversible Prozesse, die die Entropie verändern. Nach dem zweiten Hauptsatz der Thermodynamik nimmt die Entropie eines isolierten Systems für irreversible Prozesse immer zu. Der Unterschied zwischen einem isolierten System und einem geschlossenen System besteht darin, dass Energie nicht zu und von einem isolierten System fließen kann, aber ein Energiefluss zu und von einem geschlossenen System ist möglich. Dennoch können sowohl für geschlossene als auch für isolierte Systeme und tatsächlich auch in offenen Systemen irreversible thermodynamische Prozesse auftreten.

Nach der Clausius-Gleichung gilt für einen reversiblen Kreisprozess: . Das heißt, das Linienintegral ist wegunabhängig .

Wir können also eine Zustandsfunktion S namens Entropie definieren, die erfüllt .

Um die Entropiedifferenz zwischen zwei beliebigen Zuständen eines Systems zu finden, muss das Integral für einen reversiblen Pfad zwischen dem Anfangs- und dem Endzustand ausgewertet werden. Da die Entropie eine Zustandsfunktion ist, ist die Entropieänderung des Systems für einen irreversiblen Weg dieselbe wie für einen reversiblen Weg zwischen denselben beiden Zuständen. Die Wärmeübertragung zu oder von der Umgebung und die Entropieänderung der Umgebung sind jedoch unterschiedlich.

Wir können die Entropieänderung nur durch Integration der obigen Formel erhalten. Um den Absolutwert der Entropie zu erhalten, benötigen wir den dritten Hauptsatz der Thermodynamik , der besagt, dass S = 0 am absoluten Nullpunkt für perfekte Kristalle ist.

Aus makroskopischer Sicht wird die Entropie in der klassischen Thermodynamik als Zustandsfunktion eines thermodynamischen Systems interpretiert : das heißt, eine Eigenschaft, die nur vom aktuellen Zustand des Systems abhängt, unabhängig davon, wie dieser Zustand erreicht wurde. In jedem Prozess, bei dem das System Energie Δ E abgibt und seine Entropie um Δ S sinkt , muss eine Menge von mindestens T R Δ S dieser Energie als Wärme an die Umgebung des Systems abgegeben werden ( T R ist die Temperatur des Systems äußere Umgebung). Andernfalls kann der Prozess nicht fortgesetzt werden. In der klassischen Thermodynamik ist die Entropie eines Systems nur definiert, wenn es sich im physikalisch- thermodynamischen Gleichgewicht befindet (aber kein chemisches Gleichgewicht erforderlich: Die Entropie einer Mischung aus zwei Mol Wasserstoff und einem Mol Sauerstoff bei 1 bar Druck und 298 K ist gut definiert).

Statistische Mechanik

Die statistische Definition wurde in den 1870er Jahren von Ludwig Boltzmann entwickelt, indem er das statistische Verhalten der mikroskopischen Komponenten des Systems analysierte. Boltzmann zeigte, dass diese Definition der Entropie der thermodynamischen Entropie innerhalb eines konstanten Faktors – bekannt als Boltzmann-Konstante – äquivalent ist . Zusammenfassend bietet die thermodynamische Definition der Entropie die experimentelle Definition der Entropie, während die statistische Definition der Entropie das Konzept erweitert und eine Erklärung und ein tieferes Verständnis ihrer Natur bietet.

Die Interpretation der Entropie in der statistischen Mechanik ist das Maß für Unsicherheit, Unordnung oder Verwechslung in den Worten von Gibbs , das über ein System verbleibt, nachdem seine beobachtbaren makroskopischen Eigenschaften wie Temperatur, Druck und Volumen berücksichtigt wurden. Für einen gegebenen Satz makroskopischer Variablen misst die Entropie den Grad, in dem die Wahrscheinlichkeit des Systems über verschiedene mögliche Mikrozustände verteilt ist . Im Gegensatz zum Makrozustand, der einfach beobachtbare Durchschnittsgrößen charakterisiert, gibt ein Mikrozustand alle molekularen Details des Systems an, einschließlich der Position und Geschwindigkeit jedes Moleküls. Je mehr solche Zustände dem System mit nennenswerter Wahrscheinlichkeit zur Verfügung stehen, desto größer ist die Entropie. In der statistischen Mechanik ist die Entropie ein Maß für die Anzahl der Möglichkeiten, wie ein System angeordnet werden kann, oft als Maß für die "Unordnung" (je höher die Entropie, desto höher die Unordnung). Diese Definition beschreibt die Entropie als proportional zum natürlichen Logarithmus der Anzahl möglicher mikroskopischer Konfigurationen der einzelnen Atome und Moleküle des Systems ( Mikrozustände ), die den beobachteten makroskopischen Zustand ( Makrozustand ) des Systems bewirken könnten . Die Proportionalitätskonstante ist die Boltzmann-Konstante .

Die Boltzmann-Konstante und damit die Entropie haben Dimensionen der Energie geteilt durch die Temperatur, die eine Einheit von Joule pro Kelvin (J⋅K −1 ) im Internationalen Einheitensystem (oder kg⋅m 2 ⋅s −2 ⋅K −1 in Basiseinheiten). Die Entropie eines Stoffes wird üblicherweise als intensive Eigenschaft angegeben  – entweder Entropie pro Masseneinheit (SI-Einheit: J⋅K −1 ⋅kg −1 ) oder Entropie pro Stoffmengeneinheit (SI-Einheit: J⋅K −1 ⋅mol −1 ).

Konkret ist die Entropie ein logarithmisches Maß für die Anzahl der Systemzustände mit signifikanter Besetzungswahrscheinlichkeit:

( ist die Wahrscheinlichkeit, dass sich das System im th-Zustand befindet, normalerweise gegeben durch die Boltzmann-Verteilung ; bei stetiger Definition von Zuständen wird die Summation durch ein Integral über alle möglichen Zustände ersetzt) ​​oder äquivalent der Erwartungswert des Logarithmus der Wahrscheinlichkeit, dass ein Mikrozustand besetzt ist

wobei k B die Boltzmann-Konstante ist , gleich1.380 65 × 10 −23  J/K . Die Summation erfolgt über alle möglichen Mikrozustände des Systems, und p i ist die Wahrscheinlichkeit, dass sich das System im i- ten Mikrozustand befindet. Diese Definition geht davon aus, dass der Basissatz von Zuständen ausgewählt wurde, sodass keine Informationen über ihre relativen Phasen vorliegen. In einer anderen Basismenge ist der allgemeinere Ausdruck

wo ist die Dichtematrix , ist die Spur und ist der Matrixlogarithmus . Diese Dichtematrixformulierung wird in Fällen des thermischen Gleichgewichts nicht benötigt, solange die Basiszustände als Energieeigenzustände gewählt werden. Für die meisten praktischen Zwecke kann dies als grundlegende Definition der Entropie angesehen werden, da alle anderen Formeln für S mathematisch daraus abgeleitet werden können, aber nicht umgekehrt.

In der sogenannten Grundannahme der statistischen Thermodynamik oder dem Grundpostulat in der statistischen Mechanik wird unter Systemmikrozuständen gleicher Energie ( entartete Mikrozustände) angenommen, dass jeder Mikrozustand mit gleicher Wahrscheinlichkeit bevölkert ist; diese Annahme ist normalerweise für ein isoliertes System im Gleichgewicht gerechtfertigt. Dann gilt für ein isoliertes System p i = 1/Ω, wobei Ω die Anzahl der Mikrozustände ist, deren Energie gleich der Energie des Systems ist, und die vorherige Gleichung reduziert sich auf

In der Thermodynamik ist ein solches System ein System, bei dem das Volumen, die Anzahl der Moleküle und die innere Energie festgelegt sind (das mikrokanonische Ensemble ).

Für ein gegebenes thermodynamisches System ist die Überschussentropie definiert als die Entropie minus der Entropie eines idealen Gases bei gleicher Dichte und Temperatur, eine Größe, die immer negativ ist, weil ein ideales Gas maximal ungeordnet ist. Dieses Konzept spielt eine wichtige Rolle in der Flüssigzustandstheorie. Zum Beispiel besagt das Überschussentropie-Skalierungsprinzip von Rosenfeld, dass reduzierte Transportkoeffizienten im gesamten zweidimensionalen Phasendiagramm Funktionen sind, die eindeutig durch die Überschussentropie bestimmt sind.

Die allgemeinste Interpretation der Entropie ist ein Maß für unsere Unsicherheit über ein System. Der Gleichgewichtszustand eines Systems maximiert die Entropie, weil wir alle Informationen über die Anfangsbedingungen außer den erhaltenen Variablen verloren haben; die Maximierung der Entropie maximiert unsere Unkenntnis über die Details des Systems. Diese Unsicherheit ist nicht alltäglicher subjektiver Art, sondern eher die Unsicherheit, die der experimentellen Methode und dem Interpretationsmodell innewohnt.

Das interpretative Modell spielt eine zentrale Rolle bei der Bestimmung der Entropie. Der obige Qualifizierer "für eine gegebene Menge makroskopischer Variablen" hat tiefgreifende Auswirkungen: Wenn zwei Beobachter unterschiedliche Mengen makroskopischer Variablen verwenden, sehen sie unterschiedliche Entropien. Wenn beispielsweise Beobachter A die Variablen U , V und W verwendet und Beobachter B U , V , W , X verwendet , dann kann Beobachter B durch die Änderung von X einen Effekt verursachen, der wie eine Verletzung des zweiten Hauptsatzes der Thermodynamik aussieht zu Beobachter A. Mit anderen Worten: Die Menge der makroskopischen Variablen, die man wählt, muss alles enthalten, was sich im Experiment ändern kann, sonst könnte man eine abnehmende Entropie sehen.

Entropie kann für beliebige Markov-Prozesse mit reversibler Dynamik und der detaillierten Bilanzeigenschaft definiert werden .

In Boltzmanns Vorlesungen über Gastheorie von 1896 zeigte er, dass dieser Ausdruck ein Maß für die Entropie für Systeme von Atomen und Molekülen in der Gasphase und damit ein Maß für die Entropie der klassischen Thermodynamik ist.

Entropie eines Systems

Ein Temperatur-Entropie-Diagramm für Dampf. Die vertikale Achse repräsentiert eine einheitliche Temperatur und die horizontale Achse repräsentiert die spezifische Entropie. Jede dunkle Linie im Diagramm stellt einen konstanten Druck dar, und diese bilden ein Netz mit hellgrauen Linien konstanten Volumens. (Dunkelblau ist flüssiges Wasser, hellblau ist eine Flüssigkeit-Dampf-Mischung und schwachblau ist Dampf. Graublau steht für überkritisches flüssiges Wasser.)

Entropie entsteht direkt aus dem Carnot-Zyklus . Sie kann auch als reversible Wärme geteilt durch die Temperatur beschrieben werden. Die Entropie ist eine grundlegende Funktion des Staates.

In einem thermodynamischen System neigen Druck, Dichte und Temperatur dazu, im Laufe der Zeit gleichförmig zu werden, da der Gleichgewichtszustand eine höhere Wahrscheinlichkeit (mehr mögliche Kombinationen von Mikrozuständen ) aufweist als jeder andere Zustand.

Als Beispiel für ein Glas Eiswasser in Luft bei Raumtemperatur beginnt sich der Temperaturunterschied zwischen einem warmen Raum (der Umgebung) und einem kalten Glas aus Eis und Wasser (das System und nicht Teil des Raums) auszugleichen als Teile der Wärmeenergie aus der warmen Umgebung verteilen sich auf das kühlere System aus Eis und Wasser. Im Laufe der Zeit gleichen sich die Temperatur des Glases und seines Inhalts und die Temperatur des Raumes an. Mit anderen Worten, die Entropie des Raums hat sich verringert, da ein Teil seiner Energie an das Eis und das Wasser abgegeben wurde, wobei die Entropie zugenommen hat.

Wie im Beispiel berechnet, hat sich jedoch die Entropie des Systems aus Eis und Wasser stärker erhöht als die Entropie des umgebenden Raums abgenommen. In einem isolierten System wie Raum- und Eiswasser zusammengenommen führt die Energieverteilung von wärmer zu kälter immer zu einer Nettozunahme der Entropie. Wenn also das "Universum" des Raum- und Eiswassersystems ein Temperaturgleichgewicht erreicht hat, ist die Entropieänderung gegenüber dem Ausgangszustand maximal. Die Entropie des thermodynamischen Systems ist ein Maß dafür, wie weit der Ausgleich fortgeschritten ist.

Die thermodynamische Entropie ist eine nicht konservierte Zustandsfunktion , die in den Wissenschaften der Physik und Chemie von großer Bedeutung ist . Historisch hat sich das Konzept der Entropie entwickelt, um zu erklären, warum einige Prozesse (durch Erhaltungssätze erlaubt) spontan auftreten, während ihre Zeitumkehrungen (ebenfalls durch Erhaltungssätze zugelassen) nicht; Systeme tendieren dazu, in Richtung zunehmender Entropie fortzuschreiten. Bei isolierten Systemen nimmt die Entropie nie ab. Diese Tatsache hat mehrere wichtige Konsequenzen für die Wissenschaft: Erstens verbietet sie „ Perpetuum Mobile “-Maschinen; und zweitens impliziert dies, dass der Entropiepfeil dieselbe Richtung hat wie der Zeitpfeil . Erhöhungen der Gesamtentropie von System und Umgebung entsprechen irreversiblen Veränderungen, da ein Teil der Energie als Abwärme verbraucht wird, was die Arbeitsleistung eines Systems begrenzt.

Im Gegensatz zu vielen anderen Zustandsfunktionen kann die Entropie nicht direkt beobachtet werden, sondern muss berechnet werden. Die absolute Standard-Molentropie eines Stoffes kann aus der gemessenen Temperaturabhängigkeit seiner Wärmekapazität berechnet werden . Die molare Entropie von Ionen wird als Entropiedifferenz zu einem als Null-Entropie definierten Referenzzustand erhalten. Der zweite Hauptsatz der Thermodynamik besagt, dass die Entropie eines isolierten Systems zunehmen oder konstant bleiben muss. Daher ist Entropie keine Erhaltungsgröße: In einem isolierten System mit ungleichmäßiger Temperatur kann beispielsweise Wärme irreversibel fließen und die Temperatur gleichmäßiger werden, so dass die Entropie ansteigt. Chemische Reaktionen verursachen Änderungen der Entropie und die Systementropie spielt in Verbindung mit der Enthalpie eine wichtige Rolle bei der Bestimmung, in welche Richtung eine chemische Reaktion spontan abläuft.

Eine Wörterbuchdefinition von Entropie ist, dass sie in einem zyklischen Prozess "ein Maß für die thermische Energie pro Temperatureinheit ist, die nicht für nützliche Arbeit verfügbar ist". Zum Beispiel hat eine Substanz mit gleichmäßiger Temperatur maximale Entropie und kann keine Wärmekraftmaschine antreiben. Ein Stoff mit ungleichmäßiger Temperatur hat eine niedrigere Entropie (als wenn die Wärmeverteilung ausgeglichen wird) und ein Teil der Wärmeenergie kann eine Wärmekraftmaschine antreiben.

Ein Sonderfall der Entropiezunahme, die Mischungsentropie , tritt auf, wenn zwei oder mehr unterschiedliche Stoffe vermischt werden. Wenn die Stoffe die gleiche Temperatur und den gleichen Druck haben, findet kein Netto-Wärme- oder Arbeitsaustausch statt – die Entropieänderung ist ausschließlich auf die Vermischung der verschiedenen Stoffe zurückzuführen. Auf statistisch-mechanischer Ebene ergibt sich dies durch die Änderung des verfügbaren Volumens pro Partikel beim Mischen.

Gleichwertigkeit der Definitionen

Äquivalenzbeweise zwischen der Definition der Entropie in der statistischen Mechanik (die Gibbs-Entropieformel ) und in der klassischen Thermodynamik ( zusammen mit der grundlegenden thermodynamischen Beziehung ) sind für die mikrokanonische Gesamtheit , die kanonische Gesamtheit , die großkanonische Gesamtheit und die isothermisch-isobare bekannt Ensemble . Diese Beweise basieren auf der Wahrscheinlichkeitsdichte von Mikrozuständen der verallgemeinerten Boltzmann-Verteilung und der Identifizierung der thermodynamischen inneren Energie als Ensemblemittelwert . Thermodynamische Beziehungen werden dann verwendet, um die bekannte Gibbs-Entropieformel abzuleiten . Die Äquivalenz zwischen der Gibbs-Entropieformel und der thermodynamischen Definition der Entropie ist jedoch keine grundlegende thermodynamische Beziehung, sondern eine Folge der Form der verallgemeinerten Boltzmann-Verteilung .

Zweiter Hauptsatz der Thermodynamik

Der zweite Hauptsatz der Thermodynamik verlangt, dass im Allgemeinen die Gesamtentropie eines Systems nur durch Erhöhung der Entropie eines anderen Systems abnimmt. Daher neigt in einem von seiner Umgebung isolierten System die Entropie dieses Systems nicht dazu, abzunehmen. Daraus folgt, dass Wärme nicht von einem kälteren Körper zu einem wärmeren Körper fließen kann, ohne dass dem kälteren Körper Arbeit zugeführt wird. Zweitens ist es für ein Gerät, das mit einem Zyklus arbeitet, unmöglich, ein Netzwerk aus einem einzigen Temperaturspeicher zu erzeugen; Die Produktion von Netzwerken erfordert einen Wärmefluss von einem heißeren Reservoir zu einem kälteren Reservoir oder ein einzelnes expandierendes Reservoir, das adiabatischer Kühlung unterzogen wird , das adiabatische Arbeit verrichtet . Als Ergebnis gibt es keine Möglichkeit eines Perpetuum Mobile . Daraus folgt, dass eine Verringerung der Entropiezunahme in einem bestimmten Prozess, wie einer chemischen Reaktion , bedeutet, dass dieser energetisch effizienter ist.

Aus dem zweiten Hauptsatz der Thermodynamik folgt, dass die Entropie eines nicht isolierten Systems abnehmen kann. Eine Klimaanlage kann beispielsweise die Luft in einem Raum kühlen und so die Entropie der Luft dieses Systems reduzieren. Die aus dem Raum (dem System) ausgestoßene Wärme, die das Klimagerät transportiert und an die Außenluft abgibt, trägt immer einen größeren Beitrag zur Entropie der Umgebung bei als die Abnahme der Entropie der Luft dieses Systems. Somit erhöht sich die Summe der Entropie des Raumes plus der Entropie der Umgebung in Übereinstimmung mit dem zweiten Hauptsatz der Thermodynamik.

In der Mechanik setzt der zweite Hauptsatz in Verbindung mit der grundlegenden thermodynamischen Beziehung der Fähigkeit eines Systems, nützliche Arbeit zu leisten, Grenzen . Die Entropieänderung eines Systems bei einer Temperatur , die eine infinitesimale Wärmemenge reversibel aufnimmt, ist gegeben durch . Genauer gesagt ist eine Energie nicht verfügbar, um nützliche Arbeit zu leisten, wo die Temperatur des kältesten zugänglichen Reservoirs oder Wärmesenke außerhalb des Systems liegt. Weitere Informationen finden Sie unter Exergie .

Die statistische Mechanik zeigt, dass die Entropie von der Wahrscheinlichkeit bestimmt wird, was eine Abnahme der Unordnung selbst in einem isolierten System ermöglicht. Obwohl dies möglich ist, hat ein solches Ereignis eine geringe Eintrittswahrscheinlichkeit, was es unwahrscheinlich macht.

Die Anwendbarkeit eines zweiten Hauptsatzes der Thermodynamik ist auf Systeme in der Nähe oder im Gleichgewichtszustand beschränkt . Gleichzeitig sind Gesetze, die Systeme fernab des Gleichgewichts regeln, immer noch umstritten. Eines der Leitprinzipien für solche Systeme ist das Prinzip der maximalen Entropieproduktion. Sie behauptet, dass sich Nichtgleichgewichtssysteme so entwickeln, dass sie ihre Entropieproduktion maximieren.

Anwendungen

Die grundlegende thermodynamische Beziehung

Die Entropie eines Systems hängt von seiner inneren Energie und seinen äußeren Parametern wie seinem Volumen ab. Im thermodynamischen Limes führt diese Tatsache zu einer Gleichung, die die Änderung der inneren Energie mit der Änderung der Entropie und der äußeren Parameter in Beziehung setzt. Diese Beziehung ist als grundlegende thermodynamische Beziehung bekannt . Wenn der externe Druck als einziger externer Parameter auf das Volumen wirkt, lautet dieser Zusammenhang:

Da sowohl die innere Energie als auch die Entropie monotone Funktionen der Temperatur sind , was bedeutet, dass die innere Energie feststeht, wenn man Entropie und Volumen angibt, gilt diese Beziehung auch dann, wenn der Wechsel von einem thermischen Gleichgewichtszustand in einen anderen mit infinitesimal größerer Entropie und Volumen geschieht auf nicht-quasistatische Weise (also kann das System während dieser Änderung sehr weit außerhalb des thermischen Gleichgewichts sein und dann können Entropie, Druck und Temperatur des gesamten Systems nicht existieren).

Die grundlegende thermodynamische Beziehung impliziert viele thermodynamische Identitäten, die unabhängig von den mikroskopischen Details des Systems allgemein gültig sind. Wichtige Beispiele sind die Maxwell-Beziehungen und die Beziehungen zwischen Wärmekapazitäten .

Entropie in der chemischen Thermodynamik

Die thermodynamische Entropie ist in der chemischen Thermodynamik von zentraler Bedeutung , da sie die Quantifizierung von Veränderungen und die Vorhersage des Ergebnisses von Reaktionen ermöglicht. Der zweite Hauptsatz der Thermodynamik besagt, dass die Entropie in einem isolierten System – der Kombination eines untersuchten Teilsystems und seiner Umgebung – während aller spontanen chemischen und physikalischen Prozesse zunimmt. Die Clausius-Gleichung von führt die Messung der Entropieänderung ein, . Die Entropieänderung beschreibt die Richtung und quantifiziert das Ausmaß einfacher Änderungen wie der Wärmeübertragung zwischen Systemen – immer spontan von heißer zu kühler.

Die thermodynamische Entropie hat daher die Dimension Energie geteilt durch Temperatur und die Einheit Joule pro Kelvin (J/K) im Internationalen Einheitensystem (SI).

Die thermodynamische Entropie ist eine extensive Eigenschaft, dh sie skaliert mit der Größe oder Ausdehnung eines Systems. Bei vielen Prozessen ist es sinnvoll, die Entropie als größenunabhängige, intensive Eigenschaft , als spezifische Entropiecharakteristik des untersuchten Systemtyps, anzugeben . Die spezifische Entropie kann relativ zu einer Masseneinheit ausgedrückt werden, typischerweise dem Kilogramm (Einheit: J⋅kg −1 ⋅K −1 ). Alternativ wird sie in der Chemie auch auf ein Mol Substanz bezogen, dann heißt sie molare Entropie mit der Einheit J⋅mol −1 ⋅K −1 .

Wenn also ein Mol Substanz bei etwa 0 K wird durch seine Umgebung auf erwärmt298 K , die Summe der inkrementellen Werte von bilden die molare Standardentropie jedes Elements oder jeder Verbindung, ein Indikator für die Energiemenge, die von einer Substanz bei gespeichert wird298 K . Die Entropieänderung misst auch die Vermischung von Stoffen als Summe ihrer relativen Mengen im Endgemisch.

Die Entropie ist ebenso wichtig, um das Ausmaß und die Richtung komplexer chemischer Reaktionen vorherzusagen. Für solche Anwendungen muss in einen Ausdruck aufgenommen werden, der sowohl das System als auch seine Umgebung umfasst, . Dieser Ausdruck wird über einige Schritte zur Gibbs- Gleichung der freien Energie für Reaktanten und Produkte im System: [die Änderung der Gibbs-Energie des Systems] [die Änderung der Enthalpie] [die Änderung der Entropie].

Die technologische Kapazität der Welt, entropische Informationen zu speichern und zu kommunizieren

Eine Studie aus dem Jahr 2011 in Science (Journal) schätzte die technologische Kapazität der Welt, optimal komprimierte Informationen zu speichern und zu kommunizieren, normalisiert auf die effektivsten Kompressionsalgorithmen, die im Jahr 2007 verfügbar waren, und schätzte daher die Entropie der technologisch verfügbaren Quellen. Die Schätzung des Autors , dass die menschliche Art technologische Kapazität zum Speichern von Informationen stieg von 2,6 (entropisch komprimierte) Exabyte im Jahr 1986 auf 295 (entropisch komprimierte) Exabyte im Jahr 2007. Die technologische Leistungsfähigkeit der Welt Informationen über One-Way - Broadcast - Netzwerke zu empfangen war 432 Exabyte von (entropisch komprimierten) Informationen im Jahr 1986 auf 1,9 Zettabyte im Jahr 2007. Die effektive Kapazität der Welt zum Austausch von Informationen über Zweiwege-Telekommunikationsnetze betrug 1986 281 Petabyte (entropisch komprimierte) Informationen auf 65 (entropisch komprimierte) Exabyte im Jahr 2007.

Entropiebilanzgleichung für offene Systeme

Während des stationären Dauerbetriebs berücksichtigt eine auf ein offenes System angewendete Entropiebilanz Änderungen der Systementropie in Bezug auf den Wärmefluss und den Massenfluss über die Systemgrenze.

In der Verfahrenstechnik werden die Prinzipien der Thermodynamik häufig auf „ offene Systeme “ angewendet , dh auf solche, in denen Wärme, Arbeit und Masse über die Systemgrenze fließen. Sowohl Wärme- ( ) als auch Arbeitsflüsse, dh ( Schachtarbeit ) und (Druck-Volumen-Arbeit) über die Systemgrenzen hinweg bewirken im Allgemeinen Änderungen der Entropie des Systems. Übertragung als Wärme bringt Entropieübertragung mit sich , wobei die absolute thermodynamische Temperatur des Systems am Punkt des Wärmeflusses ist. Wenn Massenströme über die Systemgrenzen hinweg auftreten, beeinflussen diese auch die Gesamtentropie des Systems. Diese Rechnung in Bezug auf Wärme und Arbeit gilt nur für Fälle, in denen die Arbeit und die Wärmeübertragung auf Pfaden erfolgen, die sich physikalisch von den Pfaden des Eintritts und Austritts von Materie aus dem System unterscheiden.

Um eine verallgemeinerte entropiebalancierte Gleichung abzuleiten, beginnen wir mit der allgemeinen Bilanzgleichung für die Änderung einer beliebigen extensiven Größe in einem thermodynamischen System , einer Größe, die entweder erhalten sein kann, wie die Energie, oder nicht erhalten, wie die Entropie. Der grundlegende generische Saldoausdruck besagt, dass , dh die Änderungsrate von im System, gleich der Rate ist, mit der das System an den Grenzen eintritt, minus der Rate, mit der das System über die Systemgrenzen hinweg verlässt, plus der Rate, mit der erzeugt wird innerhalb des Systems. Für ein offenes thermodynamisches System, in dem Wärme und Arbeit über Pfade übertragen werden, die von den Pfaden für den Stofftransport getrennt sind, lautet die Entropie-Bilanzgleichung unter Verwendung dieser generischen Bilanzgleichung in Bezug auf die zeitliche Änderungsrate der extensiven Größe Entropie :

wo

ist die Nettorate des Entropieflusses aufgrund der Massenflüsse in das und aus dem System (wobei Entropie pro Masseneinheit ist).
ist die Geschwindigkeit des Entropieflusses aufgrund des Wärmeflusses über die Systemgrenze.
ist die Rate der Entropieproduktion innerhalb des Systems. Diese Entropieproduktion entsteht durch Prozesse innerhalb des Systems, einschließlich chemischer Reaktionen, innerer Materiediffusion, innerer Wärmeübertragung und Reibungseffekte, wie z.

Wenn mehrere Wärmeströme vorhanden sind, wird der Begriff ersetzt durch Wo ist der Wärmestrom und ist die Temperatur am th Wärmestromanschluss in das System.

Beachten Sie, dass die Nomenklatur "Entropiebilanz" irreführend ist und oft als unangemessen angesehen wird, da Entropie keine Erhaltungsgröße ist. Mit anderen Worten, der Begriff ist nie eine bekannte Größe, sondern immer eine abgeleitete, basierend auf dem obigen Ausdruck. Daher wird die offene Systemversion des zweiten Hauptsatzes passender als "Entropie-Erzeugungsgleichung" beschrieben, da sie spezifiziert, dass , mit Null für reversible Prozesse oder größer als Null für irreversible.

Entropieänderungsformeln für einfache Prozesse

Für bestimmte einfache Transformationen in Systemen konstanter Zusammensetzung sind die Entropieänderungen durch einfache Formeln gegeben.

Isotherme Expansion oder Kompression eines idealen Gases

Für die Expansion (oder Kompression) eines idealen Gases von einem Anfangsvolumen und -druck auf ein Endvolumen und einen Enddruck bei jeder konstanten Temperatur ist die Entropieänderung gegeben durch:

Hier ist die Gasmenge (in Mol ) und die ideale Gaskonstante . Diese Gleichungen gelten auch für die Expansion in ein endliches Vakuum oder einen Drosselprozess , bei dem Temperatur, innere Energie und Enthalpie für ein ideales Gas konstant bleiben.

Kühlen und heizen

Beim reinen Heizen oder Kühlen eines beliebigen Systems (gasförmig, flüssig oder fest) bei konstantem Druck von einer Anfangstemperatur auf eine Endtemperatur beträgt die Entropieänderung

vorausgesetzt, dass die molare Wärmekapazität (oder spezifische Wärme) C P bei konstantem Druck konstant ist und dass in diesem Temperaturintervall kein Phasenübergang auftritt.

Ähnlich ist bei konstantem Volumen die Entropieänderung

wobei die molare Wärmekapazität C v bei konstantem Volumen konstant ist und es keine Phasenänderung gibt.

Bei niedrigen Temperaturen nahe dem absoluten Nullpunkt fallen die Wärmekapazitäten von Feststoffen schnell auf nahe Null ab , sodass die Annahme einer konstanten Wärmekapazität nicht zutrifft.

Da die Entropie eine Zustandsfunktion ist , ist die Entropieänderung jedes Prozesses, bei dem sowohl Temperatur als auch Volumen variieren, dieselbe wie bei einem Weg, der in zwei Schritte unterteilt ist – Erwärmung bei konstantem Volumen und Expansion bei konstanter Temperatur. Für ein ideales Gas beträgt die Gesamtentropieänderung

Auch wenn Temperatur und Druck eines idealen Gases variieren,

Phasenübergänge

Bei konstanter Temperatur und konstantem Druck treten reversible Phasenübergänge auf. Die reversible Wärme ist die Enthalpieänderung für den Übergang, und die Entropieänderung ist die Enthalpieänderung geteilt durch die thermodynamische Temperatur. Für die Fusion ( Schmelzen ) eines Feststoffs zu einer Flüssigkeit bei dem Schmelzpunkt T m , die Schmelzentropie ist

Ähnlich wird für die Verdampfung einer Flüssigkeit zu einem Gas bei dem Siedepunkt T b , die Entropie der Verdampfung ist

Ansätze zum Verständnis der Entropie

Als grundlegender Aspekt der Thermodynamik und Physik gelten mehrere unterschiedliche Ansätze zur Entropie, die über die von Clausius und Boltzmann hinausgehen.

Standarddefinitionen aus Lehrbüchern

Im Folgenden finden Sie eine Liste zusätzlicher Definitionen von Entropie aus einer Sammlung von Lehrbüchern:

  • ein Maß für die Energieverteilung bei einer bestimmten Temperatur.
  • ein Maß für die Unordnung im Universum oder für die Verfügbarkeit der Energie in einem System, um Arbeit zu verrichten.
  • ein Maß für die thermische Energie eines Systems pro Temperatureinheit, die für die Verrichtung nützlicher Arbeit nicht verfügbar ist .

In Boltzmanns Definition ist Entropie ein Maß für die Anzahl möglicher mikroskopischer Zustände (oder Mikrozustände) eines Systems im thermodynamischen Gleichgewicht. In Übereinstimmung mit der Boltzmann-Definition muss der zweite Hauptsatz der Thermodynamik so umformuliert werden, dass die Entropie mit der Zeit zunimmt, obwohl das zugrunde liegende Prinzip gleich bleibt.

Ordnung und Unordnung

Entropie wird oft lose mit dem Ausmaß der Ordnung oder Unordnung oder des Chaos in einem thermodynamischen System in Verbindung gebracht . Die traditionelle qualitative Beschreibung der Entropie ist, dass sie sich auf Veränderungen im Status quo des Systems bezieht und ein Maß für "molekulare Unordnung" und die Menge an verschwendeter Energie bei einer dynamischen Energieumwandlung von einem Zustand oder einer Form in einen anderen ist. In dieser Richtung haben mehrere neuere Autoren exakte Entropieformeln abgeleitet, um Unordnung und Ordnung in atomaren und molekularen Anordnungen zu erklären und zu messen. Eine der einfacheren Entropie-Ordnungs-/Unordnungsformeln ist die 1984 vom thermodynamischen Physiker Peter Landsberg abgeleitete, basierend auf einer Kombination von thermodynamischen und informationstheoretischen Argumenten. Er argumentiert, dass, wenn Beschränkungen auf ein System wirken, so dass es im Gegensatz zu seinen verbotenen Zuständen daran gehindert wird, in einen oder mehrere seiner möglichen oder zulässigen Zustände einzutreten, das Maß für die Gesamtmenge der "Unordnung" im System gegeben ist durch :

In ähnlicher Weise wird der Gesamtbetrag der "Bestellung" im System angegeben durch:

Dabei ist C D die "Unordnungs"-Kapazität des Systems, die die Entropie der Teile des erlaubten Ensembles ist, C I die "Informations" -Kapazität des Systems, ein Ausdruck ähnlich der Kanalkapazität von Shannon , und C O ist die "Order"-Kapazität des Systems.

Energieverteilung

Der Begriff der Entropie kann qualitativ als Maß für die Energieverteilung bei einer bestimmten Temperatur beschrieben werden. Ähnliche Begriffe wurden schon früh in der Geschichte der klassischen Thermodynamik verwendet , und mit der Entwicklung der statistischen Thermodynamik und der Quantentheorie wurden Entropieänderungen als Mischung oder "Verteilung" der Gesamtenergie jedes Bestandteils eines Systems beschrieben über seine bestimmten quantisierten Energieniveaus.

Mehrdeutigkeiten in den Begriffen Unordnung und Chaos , die normalerweise eine dem Gleichgewicht direkt entgegengesetzte Bedeutung haben, tragen zu weit verbreiteter Verwirrung bei und erschweren das Verständnis der Entropie für die meisten Schüler. Wie der zweite Hauptsatz der Thermodynamik zeigt, neigen innere Anteile bei unterschiedlichen Temperaturen in einem isolierten System dazu, sich auf eine einzige einheitliche Temperatur einzustellen und somit ein Gleichgewicht herzustellen. Ein neu entwickelter pädagogischer Ansatz vermeidet mehrdeutige Begriffe und beschreibt eine solche Energieausbreitung als Streuung, die zum Verlust der für die Arbeit erforderlichen Differentiale führt, obwohl die Gesamtenergie nach dem ersten Hauptsatz der Thermodynamik konstant bleibt (vgl. Diskussion im nächsten Abschnitt) . Der Physikochemiker Peter Atkins führt in seinem Lehrbuch Physikalische Chemie die Entropie mit der Aussage ein, dass "spontane Veränderungen immer von einer Energieverteilung begleitet werden".

Im Zusammenhang Entropie Energie Nützlichkeit

Daraus folgt, dass (im thermischen Kontext) die niedrigere Entropie als Indikator oder Maß für die Wirksamkeit oder Nützlichkeit einer bestimmten Energiemenge angesehen werden kann. Dies liegt daran, dass Energie, die bei einer höheren Temperatur (dh mit geringer Entropie) zugeführt wird, tendenziell nützlicher ist als die gleiche Energiemenge, die bei einer niedrigeren Temperatur verfügbar ist. Das Mischen eines heißen Flüssigkeitspakets mit einem kalten erzeugt ein Paket mittlerer Temperatur, bei dem die gesamte Entropiezunahme einen "Verlust" darstellt, der niemals ersetzt werden kann.

Die Tatsache, dass die Entropie des Universums ständig zunimmt, bedeutet also, dass seine Gesamtenergie weniger nützlich ist: Dies führt schließlich zum „ Wärmetod des Universums “.

Entropie und adiabatische Zugänglichkeit

Eine Entropiedefinition, die vollständig auf der Beziehung der adiabatischen Zugänglichkeit zwischen Gleichgewichtszuständen basiert , wurde 1999 von EHLieb und J. Yngvason gegeben . Dieser Ansatz hat mehrere Vorläufer, darunter die Pionierarbeit von Constantin Carathéodory von 1909 und die Monographie von R. Giles. In der Einstellung von Lieb und Yngvason beginnt man damit, für eine Einheitsmenge der betrachteten Substanz zwei Referenzzustände herauszupicken, und zwar so, dass letzterer von ersterem adiabatisch zugänglich ist, aber nicht umgekehrt. Die Entropien der Referenzzustände definieren , 0 und 1 jeweils die Entropie eines Zustand zu sein , als die größte Zahl definiert ist, so daß adiabatisch zugänglich aus einem zusammengesetzten Zustand ist , das aus einer Menge in dem Zustand , und eine komplementären Menge, in dem Zustand . Ein einfaches, aber wichtiges Ergebnis innerhalb dieser Einstellung ist, dass die Entropie, abgesehen von einer Wahl der Einheit und einer additiven Konstante für jedes chemische Element, eindeutig durch folgende Eigenschaften bestimmt ist: Sie ist monoton bezüglich des Verhältnisses der adiabatischen Zugänglichkeit, additiv auf Komposit Systeme und umfangreiche Unterskalierung.

Entropie in der Quantenmechanik

In der Quantenstatistischen Mechanik wurde der Begriff der Entropie von John von Neumann entwickelt und wird allgemein als „ von Neumann-Entropie “ bezeichnet.

wobei ρ ist die Dichte - Matrix und Tr ist der Trace - Operator.

Dies hält das Korrespondenzprinzip aufrecht , denn im klassischen Limes , wenn die Phasen zwischen den für die klassischen Wahrscheinlichkeiten verwendeten Basiszuständen rein zufällig sind, entspricht dieser Ausdruck der bekannten klassischen Definition der Entropie,

dh in einer solchen Basis ist die Dichtematrix diagonal.

Von Neumann hat mit seiner Arbeit Mathematische Grundlagen der Quantenmechanik einen strengen mathematischen Rahmen für die Quantenmechanik geschaffen . Er lieferte in dieser Arbeit eine Messtheorie, bei der der übliche Begriff des Wellenfunktionskollapses als irreversibler Prozess beschrieben wird (die sogenannte von Neumann- oder projektive Messung). Mit diesem Konzept erweiterte er in Verbindung mit der Dichtematrix das klassische Konzept der Entropie in den Quantenbereich.

Informationstheorie

Ich dachte daran, es "Information" zu nennen, aber das Wort wurde übermäßig verwendet, also beschloss ich, es "Unsicherheit" zu nennen. [...] Von Neumann sagte mir: "Sie sollten es aus zwei Gründen Entropie nennen. Erstens wurde Ihre Unsicherheitsfunktion in der statistischen Mechanik unter diesem Namen verwendet, also hat sie bereits einen Namen. Und was noch wichtiger ist, niemand weiß, was Entropie wirklich ist, also hast du in einer Debatte immer den Vorteil."

Gespräch zwischen Claude Shannon und John von Neumann darüber, welchen Namen man der Dämpfung in Telefonleitungssignalen geben soll

Aus informationstheoretischer Sicht ist die Entropiezustandsfunktion die Informationsmenge im System, die benötigt wird, um den Mikrozustand des Systems vollständig zu spezifizieren. Die Entropie ist das Maß für die Menge an fehlender Information vor dem Empfang. Oft als Shannon-Entropie bezeichnet , wurde sie ursprünglich 1948 von Claude Shannon entwickelt , um die Größe der Informationen einer übertragenen Nachricht zu untersuchen. Die Definition der Informationsentropie wird durch eine diskrete Menge von Wahrscheinlichkeiten ausgedrückt, so dass

Bei übertragenen Nachrichten waren diese Wahrscheinlichkeiten die Wahrscheinlichkeiten, dass eine bestimmte Nachricht tatsächlich übertragen wurde, und die Entropie des Nachrichtensystems war ein Maß für die durchschnittliche Informationsgröße einer Nachricht. Für den Fall gleicher Wahrscheinlichkeiten (dh jede Nachricht ist gleich wahrscheinlich) ist die Shannon-Entropie (in Bits) nur die Anzahl der binären Fragen, die benötigt werden, um den Inhalt der Nachricht zu bestimmen.

Die meisten Forscher betrachten die Informationsentropie und die thermodynamische Entropie als direkt mit demselben Konzept verbunden, während andere argumentieren, dass sie unterschiedlich sind. Beide Ausdrücke sind mathematisch ähnlich. Wenn die Anzahl von Mikrozuständen ist, die einen gegebenen Makrozustand ergeben können und jeder Mikrozustand die gleiche a-priori- Wahrscheinlichkeit hat, dann ist diese Wahrscheinlichkeit . Die Shannon-Entropie (in Nats ) ist:

und wenn die Entropie in Einheiten von pro nat gemessen wird , dann ist die Entropie gegeben durch:

Dies ist die Boltzmann-Entropieformel , wobei die Boltzmann-Konstante ist, die als thermodynamische Entropie pro nat interpretiert werden kann. Einige Autoren argumentieren dafür, das Wort Entropie für die Funktion der Informationstheorie wegzulassen und stattdessen Shannons anderen Begriff "Unsicherheit" zu verwenden.

Messung

Die Entropie eines Stoffes kann, wenn auch indirekt, gemessen werden. Die Messung, bekannt als Entropymetrie, erfolgt an einem geschlossenen System (wobei die Teilchenzahl N und das Volumen V konstant sind) und verwendet die Definition der Temperatur als Entropie, während der Energieaustausch auf Wärme beschränkt wird ( ).

Die resultierende Beziehung beschreibt, wie sich die Entropie ändert, wenn bei einer bestimmten Temperatur eine kleine Menge Energie in das System eingebracht wird  .

Der Messvorgang läuft wie folgt ab. Zunächst wird eine Substanzprobe möglichst nahe an den absoluten Nullpunkt gekühlt. Bei solchen Temperaturen geht die Entropie gegen Null – aufgrund der Temperaturdefinition. Anschließend werden geringe Wärmemengen in die Probe eingebracht und die Temperaturänderung aufgezeichnet, bis die Temperatur einen gewünschten Wert (normalerweise 25 °C) erreicht. Die erhaltenen Daten ermöglichen es dem Benutzer, die obige Gleichung zu integrieren, was den absoluten Entropiewert der Substanz bei der Endtemperatur ergibt. Dieser Entropiewert wird als kalorimetrische Entropie bezeichnet.

Interdisziplinäre Anwendungen

Obwohl das Konzept der Entropie ursprünglich ein thermodynamisches Konzept war, wurde es in anderen Studienrichtungen adaptiert, darunter Informationstheorie , Psychodynamik , Thermoökonomie / ökologische Ökonomie und Evolution . Zum Beispiel wurde ein entropisches Argument vorgeschlagen, um die Präferenz von Höhlenspinnen bei der Wahl eines geeigneten Ortes für die Eiablage zu erklären. Mit dieser Erweiterung der Felder/Systeme, für die der zweite Hauptsatz der Thermodynamik gilt, hat sich auch die Bedeutung des Wortes Entropie erweitert und basiert auf der Antriebsenergie für dieses System. Das Konzept unterteilt Systeme in drei Kategorien, natürliche, hybride und vom Menschen geschaffene Systeme, basierend auf der Kontrolle, die der Mensch bei der Verlangsamung des unerbittlichen Zuges der Entropie hat, und der Zeitskala jeder Kategorie, um die maximale Entropie zu erreichen.

Liste der Entropiefächer in Thermodynamik und statistischer Mechanik

  • Entropieeinheit – eine Nicht-SI-Einheit der thermodynamischen Entropie, die normalerweise als "eu" bezeichnet wird und einer Kalorie pro Kelvin pro Mol oder 4,184 Joule pro Kelvin pro Mol entspricht.
  • Gibbs-Entropie – die übliche statistische mechanische Entropie eines thermodynamischen Systems.
  • Boltzmann-Entropie – eine Art der Gibbs-Entropie, die interne statistische Korrelationen in der Gesamtpartikelverteilung vernachlässigt.
  • Tsallis-Entropie – eine Verallgemeinerung der Standard-Boltzmann-Gibbs-Entropie.
  • Molare Standardentropie – ist der Entropiegehalt eines Mols einer Substanz unter Standardtemperatur- und Druckbedingungen.
  • Restentropie – die vorhandene Entropie, nachdem ein Stoff beliebig nahe an den absoluten Nullpunkt abgekühlt wurde .
  • Mischungsentropie – die Änderung der Entropie, wenn zwei verschiedene chemische Stoffe oder Komponenten vermischt werden.
  • Schleifenentropie – ist die Entropie, die beim Zusammenbringen zweier Reste eines Polymers innerhalb eines vorgeschriebenen Abstands verloren geht.
  • Konformationsentropie – ist die Entropie, die mit der physikalischen Anordnung einer Polymerkette verbunden ist, die in Lösung einen kompakten oder kugelförmigen Zustand einnimmt.
  • Entropische Kraft – eine mikroskopische Kraft oder Reaktionstendenz im Zusammenhang mit Änderungen der Systemorganisation, Überlegungen zur molekularen Reibung und statistischen Variationen.
  • Freie Entropie – ein entropisches thermodynamisches Potential analog der freien Energie.
  • Entropische Explosion – eine Explosion, bei der die Reaktanten eine große Volumenänderung erfahren, ohne eine große Menge an Wärme freizusetzen.
  • Entropieänderung – eine Entropieänderung dS zwischen zwei Gleichgewichtszuständen ergibt sich aus der übertragenen Wärme dQ rev geteilt durch die absolute Temperatur T des Systems in diesem Intervall.
  • Sackur-Tetrode-Entropie – die über Quantenbetrachtungen bestimmte Entropie eines einatomigen klassischen idealen Gases.

Pfeil der Zeit

Entropie ist die einzige Größe in den physikalischen Wissenschaften, die eine bestimmte Richtung des Fortschritts zu implizieren scheint, manchmal auch als Zeitpfeil bezeichnet . Im Laufe der Zeit besagt der zweite Hauptsatz der Thermodynamik, dass die Entropie eines isolierten Systems in großen Systemen über längere Zeiträume nie abnimmt. Daher wird die Entropiemessung aus dieser Perspektive unter diesen Bedingungen als eine Uhr angesehen.

Entropie von DNA-Sequenzen

Entropie hat sich bei der Analyse von DNA-Sequenzen als nützlich erwiesen. Es wurde gezeigt, dass viele entropiebasierte Maßnahmen zwischen verschiedenen strukturellen Regionen des Genoms unterscheiden, zwischen kodierenden und nicht-kodierenden Regionen der DNA unterscheiden und auch für die Wiederherstellung von Evolutionsbäumen durch die Bestimmung des evolutionären Abstands zwischen verschiedenen Arten verwendet werden können.

Kosmologie

Unter der Annahme, dass ein endliches Universum ein isoliertes System ist, sagt der zweite Hauptsatz der Thermodynamik, dass seine Gesamtentropie ständig zunimmt. Seit dem 19. Jahrhundert wird spekuliert, dass dem Universum ein Hitzetod bevorsteht, bei dem die gesamte Energie als homogene Verteilung der thermischen Energie endet, sodass aus keiner Quelle mehr Arbeit gewonnen werden kann.

Wenn man davon ausgehen kann, dass das Universum im Allgemeinen eine zunehmende Entropie hat, dann spielt die Schwerkraft – wie Roger Penrose betont hat – eine wichtige Rolle bei der Zunahme, da die Schwerkraft dazu führt, dass sich dispergierte Materie zu Sternen ansammelt, die schließlich zu Schwarzen Löchern kollabieren . Die Entropie eines Schwarzen Lochs ist proportional zur Oberfläche des Ereignishorizonts des Schwarzen Lochs . Jacob Bekenstein und Stephen Hawking haben gezeigt, dass Schwarze Löcher die maximal mögliche Entropie eines gleich großen Objekts haben. Dies macht sie zu wahrscheinlichen Endpunkten aller entropieerhöhenden Prozesse, wenn sie vollkommen wirksame Materie- und Energiefallen sind. Das Entweichen von Energie aus Schwarzen Löchern könnte jedoch aufgrund der Quantenaktivität möglich sein (siehe Hawking-Strahlung ).

Die Rolle der Entropie in der Kosmologie ist seit Ludwig Boltzmann umstritten . Neuere Arbeiten haben einige Zweifel an der Hitzetod-Hypothese und der Anwendbarkeit jedes einfachen thermodynamischen Modells auf das Universum im Allgemeinen aufkommen lassen. Obwohl die Entropie im Modell eines expandierenden Universums zunimmt, steigt die maximal mögliche Entropie viel schneller an, wodurch sich das Universum mit der Zeit weiter vom Hitzetod entfernt, nicht näher. Dies führt zu einer "Entropielücke", die das System weiter von dem postulierten Hitzetod-Gleichgewicht entfernt. Andere erschwerende Faktoren, wie die Energiedichte des Vakuums und makroskopische Quanteneffekte , sind schwer mit thermodynamischen Modellen in Einklang zu bringen, was Vorhersagen der großskaligen Thermodynamik äußerst schwierig macht.

Aktuelle Theorien gehen davon aus, dass die Entropielücke ursprünglich durch die frühe schnelle exponentielle Expansion des Universums geöffnet wurde .

Wirtschaft

Der rumänisch-amerikanische Ökonom Nicholas Georgescu-Roegen , ein Vorläufer der Ökonomie und ein Paradigmenbegründer der ökologischen Ökonomie , hat das Entropie-Konzept in seinem Magnum Opus The Entropy Law and the Economic Process ausgiebig genutzt . Aufgrund der Arbeiten von Georgescu-Roegen sind die Gesetze der Thermodynamik heute ein integraler Bestandteil der ökologischen Ökonomieschule . Obwohl seine Arbeit durch Fehler etwas befleckt war , wurde ein vollständiges Kapitel über die Ökonomie von Georgescu-Roegen anerkennend in ein Lehrbuch der elementaren Physik über die historische Entwicklung der Thermodynamik aufgenommen.

In den Wirtschaftswissenschaften hat Georgescu-Roegens Arbeit den Begriff „Entropiepessimismus“ hervorgebracht . Seit den 1990er Jahren ist der führende Ökonom und Steady-State-Theoretiker Herman Daly – ein Schüler von Georgescu-Roegen – der einflussreichste Verfechter der Position des Entropiepessimismus in der Ökonomie.

Hermeneutik

In Hermeneutics hat Arianna Béatrice Fabbricatore in Anlehnung an die Arbeiten von Umberto Eco den Begriff Entropie verwendet, um den Bedeutungsverlust zwischen der verbalen Beschreibung des Tanzes und dem Choreotext (der sich bewegenden Seide, die die Tänzerin beim Inszenieren des choreografischen Schreibens verwendet) zu identifizieren und zu bewerten ) durch intersemiotische Übersetzungsoperationen generiert.

Diese Verwendung ist mit den Begriffen Logotext und Choreotext verbunden. Beim Übergang vom Logotext zum Choreotext lassen sich zwei Entropie-Typologien ausmachen: Die erste, "natürlich" genannt, bezieht sich auf die Einzigartigkeit des performativen Aktes und seinen ephemeren Charakter. Die zweite wird durch mehr oder weniger wichtige "Voids" im Logotext ( dh dem verbalen Text, der die getanzte Aktion widerspiegelt) verursacht.

Siehe auch

Anmerkungen

Verweise

Weiterlesen

Externe Links