Entropie

fundamentale thermodynamische Zustandsgröße
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 27. Januar 2007 um 20:51 Uhr durch 87.79.236.180 (Diskussion) (Versuch einer Einleitung ohne partiellen Differentialquotienten, ==> Artikel soll Oma-Test kompatibel sein). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die kurze Erklärung der Entropie nimmt einen Umweg über die Veränderung der Entropie:

  • Zunahme der Entropie und
  • Verringerung von Wandlungsfähigkeit

sind gleichbedeutend.

Ein Gas dehnt sich nach Entfernen der Zwischenwand (oberes Bild) spontan aus (unteres Bild), wobei die Entropie erhöht wird.

Die Entropie (griech. tropè "Wendung, Umkehr") ist eine Grundgröße der Thermodynamik und beschreibt den Zusammenhang von inneren Energie und Temperatur eines beliebigen thermodynamischen Systemes.

Rudolf Clausius führte den Begriff 1865 zur Beschreibung von Kreisprozessen ein. Sie ist eine extensive Zustandsgröße, genau wie Volumen, elektrische Ladung oder Stoffmenge.

Alle beobachtbaren Größen, die unabhängig vom eingeschlagenen Weg nach Durchlauf eines reversiblen Zyklus wieder den gleichen Wert besitzen, nennt man Zustandsgrößen. Clausius hatte eine solche Zustandsgröße entdeckt, die sich nicht auf damals bereits bekannte Zustandsgrößen zurückführen ließ und gab ihr den Namen Entropie (griechisches Kunstwort εντροπία [entropía], von εν~ [en~] – ein~, in~ und τροπή [tropí] – Wendung, Umwandlung) S. Die Definition von Clausius lautet:

Das Differential dS ist das Verhältnis von reversibel übertragener Wärme und absoluter Temperatur des Systems. Diese Definition ist zusammen mit dem 1. Hauptsatz äquivalent zur obigen Gleichung, wenn das System nur Wärme mit seiner Umgebung austauschen kann, wie z.B. beim Carnotschen Kreisprozess.

Die Entropie ist so definiert, dass ein spontaner Prozess in einem isolierten System diese niemals vermindern kann. Ausgleichsprozesse werden also stets durch Entropiezunahme beschrieben. Die Mischung zweier Flüssigkeiten oder Gase, der Druckausgleich von Gasen, das Verknäueln von Polymeren oder die Bildung biologischer Membranen sind durch Entropiezunahme getriebene Prozesse. Diese Beispiele haben gemein, dass die Energiedifferenz zwischen Ausgangs- und Endzustand nur klein ist, die Entropie jedoch stark ansteigt. In der statistischen Physik wird die Entropie als Maß für die vom System erreichbaren mikroskopischen Zustände erklärt, die ohne Veränderung des makroskopischen Zustand vom System erreicht werden können. Die Abbildung rechts zeigt als Beispiel den Expansionsversuch von Gay-Lussac. Im Anfangszustand ist ein Gas auf ein bestimmtes Volumen eingeschränkt. Entfernt man die Zwischenwand kann sich das Gas ohne Änderung der inneren Energie in das Gesamtvolumen ausbreiten. War im Anfangszustand bekannt, dass im linken Teil alle und im rechten Teil keine Gasteilchen vorhanden waren, ist der Endzustand deutlich variantenreicher und damit die Entropie größer.

Statistische Physik

Um 1880 konnte Ludwig Boltzmann die Entropie mit der von ihm und James Maxwell begründeten statistischen Physik auf mikroskopischer Ebene als Maß (für kontinuierliche Systeme) oder Anzahl (bei diskreten Systemen) der vom System erreichbaren Zustände Ω (Zustandssumme) ableiten. Die Entropie ist demnach proportional zur Unsicherheit über den mikroskopischen Zustand des Systems, wenn bestimmte äußere makroskopische Größen konstant gehalten werden. Es ergibt sich als das Produkt einer Konstanten   und dem Logarithmus aus dem Phasenraum der erreichbaren Zustände Ω, die das System unter Beachtung des makroskopisch ermittelten Zustands einnehmen kann:

 

Die Konstante wird in Anerkennung der Leistungen bei der Entwicklung der Theorie als Boltzmann-Konstante bezeichnet. Entropieänderungen sind ein Maß für die Irreversibilität von thermodynamischen Prozessen, da eine Abnahme der Entropie in isolierten Systemen extrem unwahrscheinlich ist, aber nicht unmöglich. Ändert sich bei einem Prozess die Entropie nicht, bezeichnet man diesen als isentrop. Es ist eine Beobachtungstatsache, dass in einem isolierten System die Entropie niemals abnimmt, was die Grundlage des 2. Hauptsatzes ist. Definiert man die Entropie statistisch, ist es möglich die absolute Temperatur eines Systems durch ihre partielle Ableitung nach der inneren Energie zu definieren:

 

Im Jahre 1999 haben die theoretischen Physiker Elliott Lieb und Jakob Yngvason die Definition der Entropie in der phänomenologischen Thermodynamik auf eine streng axiomatische Basis gestellt. Diese Definition macht keinen Gebrauch von Größen wie „Wärme“ und „Temperatur“, die sich ohne Entropie nicht exakt definieren lassen, sondern beruht auf dem Konzept der adiabatischen Erreichbarkeit.

Geschichte des Begriffes „Entropie“

Die Entropie ist neben der Energie der wichtigste Begriff der Thermodynamik und es ist sinnvoll sich für ein besseres Verständnis an den Ausgangspunkt dieser Wissenschaft zu begeben und die Entwicklung zu rekapitulieren. Im Jahre 1712 wurde die erste Dampfmaschine von Thomas Newcomen in einem Bergwerk installiert um Wasser zu pumpen. Die Maschine wurde ihrer Aufgabe gerecht, benötigte aber Unmengen an Brennstoff um zu arbeiten. Zu diesem Zeitpunkt war der Zusammenhang zwischen Energie und Wärme völlig unklar und es sollten noch über 130(!) Jahre vergehen, bis Julius Mayer den 1. Hauptsatz der Thermodynamik publizierte. Ab 1764 verbesserte James Watt die Dampfmaschine und konnte deren Wirkungsgrad auf über 1% mehr als verdoppeln ohne auch nur im Ansatz die zugrundeliegende Theorie verstanden zu haben. Erst 60 Jahre später hatte der junge französische Ingenieur Sadi Carnot die entscheidende Idee, die er 1824 publizierte. Inspiriert von der Arbeit seines Vaters über Wassermühlen beschrieb Carnot eine Dampfmaschine durch einen zyklischen Prozess, bei dem Wärme von einer heißen Quelle zu einer kalten Senke fließt und dabei Arbeit leistet. Das Verhältnis von entnommener mechanischer Arbeit zu eingeleiteter Wärme war der Wirkungsgrad:

 

In seiner ursprünglichen Schrift vertrat Carnot die Meinung, dass Wärme eine Art unwägbarer Stoff sei, der immer von einem heißen zu einem kühleren Körper fließt, ähnlich wie Wasser sich immer bergab bewegt. Und genau wie herabstürzendes Wasser konnte Wärme umso mehr Arbeit leisten je steiler das Gefälle war, insbesondere konnte die Maschine nicht mehr Arbeit leisten als Wärme zugeführt wurde. Carnot korrigierte sich später und erkannte bereits ein Jahrzehnt vor Mayer, Joule und Thomson die Äquivalenz von Wärme und Energie. Er war also seiner Zeit weit voraus, leider starb er jung und sein Werk blieb zunächst unbemerkt. Erst Clausius formulierte den Zusammenhang von Temperaturdifferenz der Quelle und Senke mit dem Wirkungsgrad und dass dieser Wirkungsgrad nicht überschritten wird, da sonst Wärme spontan von einem kalten zu einem heißen Körper fließen kann. Er erkannte, dass die differentiell definierte Größe

 

mit dem beobachtbaren Geschehen im Kreisprozeß zusammenhing. Wenn man verlangt, dass diese Größe nach einem Zyklus der Maschine nicht abnimmt, dann fließt Wärme immer von heiß nach kalt. Clausius nannte diese Größe Entropie und formulierte damit den zweiten Hauptsatz der Thermodynamik. Erst Jahrzehnte später konnte Boltzmann mit seiner statistischen Mechanik eine Erklärung für die Entropie als Maß für die erreichbaren Mikrozustände des Systems finden. Wärme ist zufällig über Atome und Moleküle verteilte Energie und fließt von heiß nach kalt, weil der umgekehrte Weg einfach zu unwahrscheinlich ist!

Hilfestellung zum Verständnis

Als Hilfestellung zum Verständnis sollte man sich vergegenwärtigen, dass Energie - entgegen der landläufigen Redeweise - im physikalischen Sinn nicht verbraucht wird, sondern eine Maschine nur durchläuft (1. Hauptsatz der Thermodynamik - Energieerhaltung). Einem Benzinmotor wird also genau soviel Energie in Form von Kraftstoff zugeführt, wie gleichzeitig als Antriebsarbeit und Abwärme abgeführt wird. Da auch die Antriebsarbeit durch Reibung schließlich in Wärme umgesetzt wird, landet am Ende der gesamte Energieinhalt des Kraftstoffes als Wärmemenge in der Umgebung. Die Energie wurde also nicht verbraucht, sondern lediglich umgewandelt. Man benötigte also eine Größe, um die Arbeitsfähigkeit der Energie zu beschreiben, da die Energiemenge alleine nichts über die Arbeitsfähigkeit aussagt. So enthalten die Weltmeere theoretisch eine riesige Energiemenge. Da diese aber bei Umgebungstemperatur vorliegt, kann damit keine Arbeit geleistet werden.

Clausius fand nun heraus, dass man mit einer Energiemenge um so mehr Arbeit leisten kann, je höher die Temperatur ist, bei der sie der Maschine zugeführt wird (siehe Carnot-Wirkungsgrad). Am Beispiel des Motors wird die Kraftstoffenergie durch die Verbrennung dem Motor bei ca. 500-800°C zugeführt und verlässt ihn wieder bei ca. 50°C durch den Kühler sowie über die Räder. Mit Hilfe der Gleichungen von Clausius kann man nun genau vorhersagen, wie viel Arbeitsleistung der Motor maximal erbringen könnte. Die zugeführte Energie hat dabei eine geringe Entropie, während die Abwärme eine hohe Entropie hat. Aus der Differenz lässt sich die Arbeitsleistung berechnen. +  

Leider beschreibt eine Vergrößerung der Entropie nicht die Vergrößerung der Arbeitsfähigkeit, sondern den Verlust derselben, was das Verständnis nicht erleichtert. Es gilt also: mehr Entropie = weniger Arbeitsfähigkeit einer Energiemenge.

Problematik des Begriffs Entropie

In populärwissenschaftlichen Büchern, aber auch in vielen Lehrbüchern wird die Entropie mit Unordnung gleichgesetzt. Diese Analogie trifft für einige Systeme zu, z.B. besitzt ein geordneter Kristall eine viel geringere Entropie als seine Schmelze. Für andere Systeme ist diese Betrachtung eher problematisch, z.B. besitzt eine geordnete Biomembran in Wasser eine höhere Entropie als ihre ungeordneten, in Wasser gelösten Bestandteile (siehe Beispiele unten). Das Problem besteht in erster Linie darin, dass der umgangssprachliche Begriff Unordnung nicht eindeutig definiert ist und die Entropie kein Maß für die Symmetrie des Systems darstellt, sondern für die Anzahl der mikroskopisch erreichbaren Zustände unabhängig von ihrem wie auch immer definierten Ordnungsgrad. Insbesondere in Lehrbüchern der theoretischen Physik wird der Begriff Unordnung deshalb gemieden.

Verwirrung entsteht auch dadurch, dass der Begriff der Entropie in unterschiedlichen Disziplinen mit Bezug auf unterschiedliche Phänomene verwendet wird. Die Entdeckung der Entropie im Zusammenhang mit der Thermodynamik und ihre zentrale Rolle für diese Theorie beschränkte nicht ihre Übertragung auf andere Bereiche, wie z.B. der Informationstheorie. Die Entropie ist eine statistisch definierte Größe und kann in vielen Kontexten sinnvoll verwendet werden. Unbeschadet dessen können die Definitionen in den Einzeldisziplinen inkonsistent oder sogar widersprüchlich sein. So nutzte Norbert Wiener den Begriff der Entropie ebenso zur Beschreibung von Informationsphänomenen wie Claude Elwood Shannon, allerdings mit einem negativen Vorzeichen. Dass sich die Definition von Shannon durchgesetzt hat, ist vor allem der besseren technischen Verwertbarkeit seiner Arbeiten zuzuschreiben. Es wird aber aus diesem Beispiel deutlich, dass bei einer interdisziplinären Anwendung des Entropiebegriffes mindestens Vorsicht und eine genaue Quellenanalyse geboten ist.

Die Entropie ist keine direkt messbare statistische Größe, wie z.B. die Temperatur und der Druck. Es können nur Änderungen der Entropie erfasst werden, und sie ist auch keine strenge Erhaltungsgröße wie Energie, Masse, Teilchenzahl oder Ladung eines Systems. Dies ist auch ein wesentlicher Unterschied zwischen ersten und zweiten Hauptsatz der Thermodynamik. Während der erste Hauptsatz nichts anderes als die Formulierung des streng gültigen Energieerhaltungssatzes in der Sprache der Thermodynamik ist, stellt der zweite Hauptsatz nur eine statistisch gerechtfertigte Behauptung dar. Allerdings ist die Wahrscheinlichkeit, einen Verstoß gegen den zweiten Hauptsatz zu beobachten so gering, dass vorher mit großer Wahrscheinlichkeit alle Protonen der Materie unseres Universums spontan zerfallen sind. Er kann allerdings nicht direkt aus den mikroskopischen Gleichungen gefolgert werden und wurde sogar im Rahmen der klassischen Mechanik durch Poincaré widerlegt. All diese Eigenschaften führen zu Problemen beim Verständnis für den Begriff der Entropie.

Entropie in der Thermodynamik

Bei einem ideal verlaufenden reversiblen Prozess ohne Reibungsverluste bleibt die Entropie in einem geschlossenen System unverändert,  . Wird in einem Kreisprozess bei der Temperatur   die Wärme   aufgenommen und die Wärmemenge   bei   wieder abgegeben, gilt, dass sich die Entropie ändert:

 

Daraus lassen sich die maximale Energieleistung   und der maximale Wirkungsgrad ableiten.

 

Ähnlich wie die Temperatur die statistisch gemittelte Energie der Teilchen eines Vielteilchensystems angibt, konnte Boltzmann zeigen, dass sich auch die Entropie statistisch erfassen lässt, und zwar als Funktion der Zahl der besetzbaren Zustände in einem Vielteilchensystem:

 

  ist die Boltzmann-Konstante,   der natürliche Logarithmus und   die Zahl der Zustände, die die Teilchen eines Systems einnehmen können. Die Wahl der Basis des Logarithmus ist unkritisch, sie bewirkt lediglich eine Änderung des konstanten Faktors.

Datei:Mischentrp.jpg
Mischungsentropie

Das Bild rechts zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine gleichmäßige Färbung an.

Die Entropie ist ein Maß für Unwissenheit. Als Maß für Unordnung muss man genau auf die Begrifflichkeit achten. So ist im Bildbeispiel die Flüssigkeit im rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Mithin ist dort die Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten Glas überall im Wasser verteilt ist. Das linke Bild sagt uns mehr. Wir können Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist oder Bereiche, die frei sind von Farbe.

Die Mischungsentropie lässt sich berechnen. Josiah Willard Gibbs wies auf den Widerspruch hin, dass der Entropiezuwachs auch auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird (Gibbssches Paradoxon).

Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die, wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind nur auf wenige Bereiche konzentriert. Im rechten Bild können sie sich im gesamten Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Lauf der Zeit dieser Gleichverteilung zustrebt.

Die Entropie bleibt nur dann unverändert, wenn die Prozesse reversibel verlaufen. Reale Zustandsänderungen sind immer mit Energieverlusten (z. B. durch Reibung) verbunden, wodurch sich die Entropie erhöht. Eine Verringerung der Gesamtentropie in einem geschlossenen System ist nicht möglich. Aber die Entropie kann lokal verkleinert werden, wenn sie an anderen Orten des Systems entsprechend anwächst.

Die maximale Entropie in einem Raumbereich wird durch ein Schwarzes Loch realisiert. Da keine Information durch den Ereignishorizont nach außen dringt, ist es der Zustand maximaler Unwissenheit.

Zweiter und dritter Hauptsatz

Rudolf Julius Emanuel Clausius hatte erkannt, dass die durch

 

differentiell gegebene Größe bei reversibler Reaktionsführung eine extensive Zustandsgröße darstellt, also unabhängig vom Reaktionspfad und proportional zur Systemgröße ist. Insbesondere ist diese neue Zustandsgröße zunächst nur für Gleichgewichtszustände definiert. Die Bezeichnung   statt   betont, dass die Änderung der Wärme wegabhängig ist (Beispiel siehe Kreisprozess) und deshalb kein vollständiges Differential ist.

Clausius fand außerdem, dass in einem isolierten System die Entropie monoton wächst:

 

Er formulierte diese Beobachtung im 2. Hauptsatz der Thermodynamik als Negation der Existenz eines Perpetuum mobile zweiter Art:

„Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.“

Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Äquivalent dazu ist die Formulierung von William Thomson:

„Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir entnimmt und vollständig in Arbeit verwandelt.“

Im Gegensatz zu den bereits bekannten extensiven Größen von thermodynamischen Systemen, wie Energie  , Volumen   und Masse  , entzog sich die Entropie zunächst dem tieferen Verständnis. Die Entropie konnte erst im Rahmen der statistischen Mechanik von Ludwig Boltzmann befriedigend als Maß für das Phasenraumvolumen erklärt werden, das von der Phasentrajektorie des Systems unter Einhaltung der Konstanz ausgewählter makroskopischer Observabler, wie Temperatur  , Volumen   oder Teilchenzahl  , erreicht werden kann.

Anschaulich ist die Entropie demnach ein Maß für fehlende Information über den tatsächlichen Mikrozustand, wenn lediglich eine geringe Anzahl beobachtbarer Größen zur Charakterisierung des Makrozustands vorliegen. Die Ergodenhypothese behauptet, dass die Trajektorie des Systems tatsächlich im Laufe der Zeit das gesamte durch die Entropie gemessene Phasenvolumen überdeckt. Systeme, die dieses Verhalten zeigen, nennt man auch ergodisch. Nur bei diesen kann der 2. Hauptsatz sinnvoll angewandt werden. Eng damit verbunden ist die Irreversibilität von Prozessen in der Natur.

Der dritte Hauptsatz (der so genannte „Nernstsche Wärmesatz“) legt die Entropie einer perfekt kristallinen Substanz am absoluten Nullpunkt als Null fest:

 

Eine Folgerung ist beispielsweise, dass die Wärmekapazität eines Systems bei tiefen Temperaturen verschwindet.

Beispiele

Expansionsversuch von Gay-Lussac: In der Einleitung wird das Experiment von Gay-Lussac beschrieben. Wie groß ist nun der Entropiegewinn in dem beschrieben Versuch? Da die Entropie eine Zustandsgröße ist, ist sie wegunabhängig. Anstatt die Trennwand herauszuziehen, kann man sie auch langsam nach rechts schieben, bis das Endvolumen erreicht ist. Für eine infinitesimale Verschiebung vergrößert sich das Volumen um  , die Entropie steigt um  . Aus dem ersten Hauptsatz   folgt mit   und  , da ausschließlich Volumenarbeit verrichtet wird:

 

Aus dem idealen Gasgesetz (N ist die Anzahl der Gasatome)

 

folgt:

 .

Hieraus ergibt sich durch Integration sofort:

 .

Da in obigen Beispiel   Atome eingezeichnet sind gilt:

  .

Realistischer wäre z.B. 1 mol Atome, also   Atome, womit sich

 

ergibt.

Zahlenbeispiel: In einem System, welches mit seiner Umgebung weder Masse noch Energie austauscht, kann die Entropie niemals spontan abnehmen. Beispiel: Ein Kilogramm Wasser besitzt bei 10 °C die Entropie  , bei 20 °C  , bei 30 °C  . 1 kg kaltes Wasser (10 °C) und 1 kg warmes Wasser (30 °C) können bei Berührung spontan in den Zustand 2 kg lauwarmes Wasser (20 °C) übergehen, weil die Entropie des Anfangszustandes (151 + 437 = 588) kleiner ist als die Entropie des Endzustandes (297 + 297 = 594). Die spontane Umkehrung dieses Vorganges ist nicht möglich, weil sich hierbei die Entropie des aus 2 kg Wasser bestehenden Systems von 594 J/K auf 588 J/K verringern müsste, was dem zweiten Hauptsatz der Thermodynamik widerspräche.

Biomembranen: Gibt man Lipide, also die Bausteine der Biomembranen, in Wasser, so bilden sich spontan geschlossene Membranstrukturen, sogenannte Vesikel. Da hier Temperatur und Druck gegeben sind (Wärmebad und Druckensemble) ist das thermodynamische Potential, das ein Minimum anstrebt die freie Enthalpie  . Die Enthalpie   lässt sich experimentell messen und ist positiv. Da der Prozess spontan abläuft muss aber   negativ sein, d. h. die Entropie muss steigen. Dies ist auf den ersten Blick verwirrend, da die Entropie meistens dafür verantwortlich ist, dass sich Substanzen vermischen (Mischungsentropie). Die Entropiezunahme liegt in einer besonderen Eigenschaft des Wassers begründet. Es bildet zwischen den einzelnen Wassermolekülen Wasserstoffbrückenbindungen aus, die ständig fluktuieren und somit einen hohen Beitrag zur Entropie des Wassers leisten. Um die langen Fettsäureketten der Lipide entsteht bei Lösung in Wasser ein größerer Bereich, in dem keine Wasserstoffbrückenbindungen mehr gebildet werden können. In den Bereichen um die Fettsäureketten herum fehlt der Entropiebeitrag der Wasserstoffbrücken, so dass die Entropie insgesamt abnimmt. Diese Abnahme ist erheblich größer als die durch das bloße Vermischen des Wassers und des Lipids zu erwartende Zunahme. Wenn sich die Fettsäureketten zusammenlagern, können mehr Wasserstoffbrücken gebildet werden, und die Entropie steigt. Man könnte dies auch so formulieren, dass die Fähigkeit des Wassers, fluktuierende Wasserstoffbrücken zu bilden, die Lipide aus der Lösung treibt. Letztlich ist diese Eigenschaft auch mit für die schlechte Löslichkeit vieler unpolarer Substanzen verantwortlich, die die Bildung von Wasserstoffbrückenbindungen stören.

Lebende Organismen: Ein lebender Organismus kann in gewissem Sinne als eine thermodynamische Maschine betrachtet werden, die chemische Energie in Arbeit und Wärme umwandelt und gleichzeitig Entropie produziert. Es ist jedoch nach dem gegenwärtigen Stand der Forschung noch nicht geklärt, ob sich einem biologischen System eine Entropie zuordnen lässt, da es sich nicht im Zustand des thermodynamischen Gleichgewichts befindet.

Andere Disziplinen: Neben ihrer Rolle als fundamentale Zustandsgröße der phänomenologischen und statistischen Thermodynamik wird die Entropie in anderen Gebieten, insbesondere in der Informationstheorie und in der Wirtschaftswissenschaft benutzt. Die Entropie besitzt in diesen Gebieten eine eigenständige Bedeutung. So ist es z. B. in der Astrophysik notwendig, bei der Beschreibung von Sterngeburten, weißen Zwergen, Neutronensternen, schwarzen Löchern (sie haben die höchste Entropie aller bekannten physikalischen Systeme), Kugelsternhaufen, Galaxien(haufen) und letztendlich dem ganzen Kosmos auf den Begriff der Entropie zurückzugreifen.

Quantenmechanik

In der statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzte Systeme wie Atome, erklärt. Ein Mikrozustand ist klassisch gegeben durch Angabe aller Orte und Impulse der zum System zählenden Teilchen. Ein solcher Mikrozustand   ist demnach ein Element eines 6N-dimensionalen Vektorraums, der in diesem Zusammenhang Phasenraum genannt wird. Die kanonischen Gleichungen der klassischen Mechanik beschreiben die zeitliche Evolution des Systems, die Phasentrajektorie. In der Quantenstatistik ist ein Mikrozustand gegeben durch einen Vektor   im Hilbertraum  . Dieser reine Zustand enthält alle Informationen über das System, die durch eine ideale Messung zugänglich sind. Ein Makrozustand ist klassisch gegeben durch ein Ensemble von Mikrozuständen, die bestimmte Erhaltungsgrößen gemein haben, wie z.B. Energie, Volumen und Teilchenzahl. Die Verteilung der Mikrozustände im Phasenraum ist gegeben durch eine Verteilungsfunktion  , an deren Stelle in der quantenmechanischen Beschreibung der Dichteoperator tritt

 

Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen gemischten Zustand ist gegeben durch

 

Die Entropie ist über die Wahrscheinlichkeiten der einzelnen Mikrozustände im Makrozustand gegeben durch

 

wobei pi die Wahrscheinlichkeit ist, im i-ten Mikrozustand zu sein (siehe Stirling-Formel zur Herleitung dieser Relation). kB ist die Boltzmann-Konstante.

Als Beispiel nehmen wir ein Spinsystem mit 4 Elektronen. Die Gesamtenergie soll   sein.

 

Daraus folgt, dass  

Die allgemeine Formel ist bis auf einen konstanten Faktor identisch mit der Formel für die Informationsentropie. Das bedeutet, die physikalische Entropie ist auch ein Maß für die Information, die einem durch Kenntnis des Makrozustands zum Mikrozustand fehlt.

Der 2. Hauptsatz der Thermodynamik wird in der statistischen Mechanik eine Wahrscheinlichkeitsaussage: Es ist rein theoretisch möglich, dass beispielsweise Wärme vom kälteren Körper zum wärmeren fließt, aber es ist so unwahrscheinlich, dass es selbst in einer Zeit, die dem Millionenfachen des Alters des Universums entspricht, mit an Sicherheit grenzender Wahrscheinlichkeit nicht passieren wird.

Bei realen Systemen und normalen Temperaturen lassen sich keine einzelnen Zustände mehr abzählen. An Stelle der Anzahl der Zustände tritt dann das erreichbare Volumen im vieldimensionalen Phasenraum.

Entropie und Unordnung

Umgangssprachlich wird Entropie häufig mit Unordnung gleichgesetzt. Für den thermodynamischen Entropiebegriff ist diese Gleichsetzung nicht allgemein gültig. Als sehr einfache Analogie kann man mit der Unordnung ein Mischungsexperiment beschreiben (siehe oben). Es gibt aber auch viele Beispiele, bei denen die Analogie problematisch ist. Z.B. trennt sich eine Emulsion von Wasser und Öl in einem isolierten Gefäß, während sich eine Mischung von Alkohol und Wasser gleichmäßig verteilt.

Eine direkte Verknüpfung der Entropie mit der Ordnung von Zeichenfolgen findet sich in der Informationstheorie. Es muss darauf hingewiesen werden, dass der Begriff Entropie dort anders definiert ist als in der Thermodynamik. Genauere Auskunft gibt die englische Wikipedia im Artikel en:Entropy in thermodynamics and information theory

Ordnung in physikalischen Systemen

In einem geordneten System (zum Beispiel einem Kristall) hat jedes Teil seinen Platz; es gibt also weniger Möglichkeiten als in einem ungeordneten System (beispielsweise Flüssigkeit), die Atome zu verteilen (im Kristall können sie zum Beispiel um ihren Platz schwingen, aber eben nicht beliebig den Platz wechseln). Daher sollte beim Übergang vom geordneten Zustand (Kristall) zum ungeordneten Zustand (Flüssigkeit), also beim Schmelzen, die Entropie wachsen. Entropiezuwachs erfolgt durch Wärmezufuhr; somit ist zum Schmelzen eine Schmelzwärme (Schmelzenergie) nötig. Da die Temperatur sich dabei nicht ändert (die Energie wird gebraucht, um die Kristallbindungen aufzubrechen), ist die Schmelzwärme gerade  . Analog braucht man beim Verdampfen eine Verdampfungsenergie. Die Entropiedifferenz der beiden Zustände erhält man also, indem man die Schmelzenergie (Verdampfungsenergie) durch die Temperatur teilt.

Andererseits bedeutet höhere Entropie nicht immer auch lokal höhere Unordnung. Die Tatsache, dass unterhalb des Gefrierpunktes ungeordnetes Wasser zu stärker geordnetem Eis kristallisiert, zeigt, dass dieser Vorgang insgesamt zu einer Entropieerhöhung führt. Diese kommt dadurch zustande, dass die beim Kristallisieren abgegebene Schmelzwärme die Entropie stärker erhöht, als sie durch die Kristallisation des Wassers erniedrigt wird.

Entropie und Zeitrichtung

Die Aussage, dass die Summe der Entropien in einem abgeschlossenen makroskopischen System mit der Zeit nicht abnehmen kann, zeichnet eine Zeitrichtung aus: Man kann anhand der beobachteten Vorgänge unterscheiden, in welche Richtung die Zeit läuft (beispielsweise kann man bei einem Film, der eine sich abkühlende Tasse zeigt, problemlos feststellen, ob er vor- oder rückwärts läuft: Kühlt sich die Tasse ab, dann ist er korrekt abgespielt; wenn sie hingegen ohne ersichtlichen Grund wärmer wird, dann läuft der Film rückwärts).

Diese Zeitrichtung lässt sich auch auf das Universum beziehen: Der Beginn (Urknall) stellt den Moment höchster Ordnung dar, seitdem nimmt die Unordnung im Universum zu. Der Endpunkt des Universums in thermodynamischer Sicht ist unter Umständen der Wärmetod. Allerdings ist noch nicht ganz klar, inwieweit die Entropieverminderung in thermisch instabilen kollabierenden Sternen, die eine negative spezifische Wärme haben, die Gesamtbilanz der Entropie im Universum beeinflusst. Hierdurch unterscheidet sich die Thermodynamik von den anderen physikalischen Theorien, die meist keine Zeitrichtung auszeichnen (ob die Aufzeichnung eines Pendels richtigherum abgespielt wird, kann man nicht erkennen – es sei denn, das Pendel wird durch Reibung langsamer, das ist aber wiederum ein entropieerzeugender Prozess).

Ein großes Problem ist die Herleitung der Irreversibilität makroskopischer Erscheinungen, ausgedrückt durch den Entropiebegriff, aus den bekannten Gleichungen der Mechanik oder der Quantenmechanik. Allerdings hat Ilya Prigogine kurz vor seinem Tod einen Weg gefunden, die Irreversibilität bzw. Zeitasymmetrie auch ohne Näherungen direkt aus der Quantenmechanik zu entwickeln, indem er das mathematische Fundament leicht veränderte. Dabei wird nicht wie in der klassischen Quantenmechanik Observablen und Zuständen derselbe Hilbertraum zugewiesen; vielmehr leben beide nun auf verschiedenen Hardy-Unterräume desselben Hilbertraums. Durch die damit verbundenen Restriktionen erhält man zwanglos eine Zeitasymmetrie bereits in den quantenmechanischen Gleichungen, wobei diese weiterhin den bisherigen Beobachtungen und Theorien genügen. Da die Entropiezunahme die Zeitrichtung angibt, spricht man auch vom thermodynamischen Zeitpfeil.

Zitate

  • „Das überwältigende Bestreben nach Unordnung bedeutet nicht, dass sich geordnete Strukturen wie Sterne und Planeten über geordnete Lebensformen wie Pflanzen und Tiere nicht bilden können. Sie können. Und sie tun es offensichtlich. Der Zweite Hauptsatz der Thermodynamik besagt, dass bei der Hervorbringung von Ordnung eine mehr als gleichwertige Erzeugung von Unordnung erfolgt. Die Entropiebilanz ist noch immer in der Gewinnzone, selbst wenn einige Bestandteile ein höheres Maß an Ordnung annehmen.“ (Brian Greene: Der Stoff, aus dem der Kosmos ist. Siedler, München 2004, ISBN 3-88680-738-X, S. 204f)
  • „Dieser Begriff erfreut sich allgemeiner Unbeliebtheit und gilt als schwierig, vielleicht weil er zwar eine Bilanz- aber keine Erhaltungsgröße ist und sogar die ungewöhnliche Eigenschaft hat, zuzunehmen, und zwar um so mehr, je weniger man aufpasst.“ (Norbert Treitz: Brücke zur Physik, Deutsch-Verlag, Frankfurt 2003, ISBN 3-8171-1681-0, Kapitel 6.3)
  • „Wenn du deinen Reispudding rührst, Septimus, denn verteilt sich die Marmelade herum und macht dabei rote Spuren wie in dem Bild eines Meteors in meinem astronomischen Atlas. Aber wenn du rückwärts rührst, kommt die Marmelade nicht mehr zusammen. Tatsächlich merkt der Pudding davon nichts und wird weiterhin rosa wie zuvor“ (Tom Stoppard: Arcadia, 1.Akt, 1.Szene, Dialog zwischen Thomasina und Septimus. In diesem 1993 uraufgeführten Theaterstück thematisiert Tom Stoppard Entropie an verschiedenen Stellen.)

Literatur

Lehrbücher

  • G. Adam, O. Hittmair, Wärmetheorie, Vieweg, 4. Aufl. (1992), ISBN 3528333111
  • Richard Becker, Theorie der Wärme, Springer, 3., erg. Aufl. (1985), ISBN 3540153837
  • Johan Diedrich Fast, Entropie, Huethig (1982), ISBN 3871452998
  • Arnold Sommerfeld: Vorlesungen über theoretische Physik - Thermodynamik und Statistik, Harri Deutsch, Nachdr. d. 2. Aufl. (1988), ISBN 3871443786

Populärwissenschaftliche Darstellungen

Wikibooks: Entropie – Lern- und Lehrmaterialien