Entropie
Die Entropie (griechisches Kunstwort εντροπία [entropía], von εν~ [en~] – ein~, in~ und τροπή [tropí] – Wendung, Umwandlung) ist eine Grundgröße der Thermodynamik und definiert die absolute Temperatur eines Systems durch ihre partielle Ableitung nach der inneren Energie:
Sie ist extensive Zustandsgröße eines Systems ähnlich dem Volumen, der elektrischen Ladung oder der Stoffmenge, aber im Gegensatz zu diesen Eigenschaften eine statistische Größe und nur bei reversiblen Prozessen streng erhalten. Rudolf Clausius führte den Begriff 1865 in der (phänomenologischen) Thermodynamik zur Beschreibung von Kreisprozessen ein. Ein Kreisprozess ist ein abstraktes Modell für eine periodisch arbeitende thermodynamische Maschine. Dabei tauscht das System mit seiner Umgebung Energie in Form von Wärme und Arbeit aus. Alle beobachtbaren Größen, die unabhängig vom eingeschlagenen Weg nach Durchlauf eines reversiblen Zyklus wieder den gleichen Wert besitzen, nennt man Zustandsgrößen. Clausius hatte eine solche Zustandsgröße entdeckt, die sich nicht auf damals bereits bekannte Zustandsgrößen zurückführen ließ und gab ihr den Namen Entropie S. Die Definition von Clausius lautet
Das Differential dS ist das Verhältnis von übertragener Wärmemenge und absoluter Temperatur des Systems. Diese Definition ist zusammen mit dem 1. Hauptsatz äquivalent zur obigen Gleichung.
Um 1880 konnte Ludwig Boltzmann die Entropie mit der von ihm und James Maxwell begründeten statistischen Physik auf mikroskopischer Ebene ableiten als Maß für die fehlende Information über den Zustand des Systems, wenn nur eine geringe Anzahl makroskopisch beobachtbarer Größen vorliegt. Es ergibt sich als das Produkt einer Konstanten und dem Logarithmus aus dem Phasenvolumen der erreichbaren Zustände Ω, die das System unter Beachtung des makroskopisch ermittelten Zustands einnehmen kann:
Die Konstante wird in Anerkennung der Leistungen bei der Entwicklung der Theorie als Boltzmann-Konstante bezeichnet. Entropieänderungen sind ein Maß für die Irreversibilität von thermodynamischen Prozessen, da eine Abnahme der Entropie in isolierten Systemen extrem unwahrscheinlich ist, aber nicht unmöglich. Ändert sich bei einem Prozess die Entropie nicht, bezeichnet man diesen synonym als reversibel oder isentrop. Es ist eine Beobachtungstatsache, dass in einem isolierten System die Entropie niemals abnimmt, was die Grundlage des 2. Hauptsatzes ist.
Im Jahre 1999 haben die theoretischen Physiker Elliott Lieb und Jakob Yngvason die Definition der Entropie in der phänomenologischen Thermodynamik auf eine streng axiomatische Basis gestellt. Diese Definition macht keinen Gebrauch von Größen wie "Wärme" und "Temperatur", die sich ohne Entropie nicht exakt definieren lassen, sondern beruht auf dem Konzept der adiabatischen Erreichbarkeit.
Einführung
Bei einem ideal verlaufenden reversiblen Prozess ohne Reibungsverluste bleibt die Entropie in einem geschlossenen System unverändert, . Wird in einem Kreisprozess bei der Temperatur die Wärme aufgenommen und die Wärmemenge bei wieder abgegeben, gilt, dass sich die Entropie ändert:
Daraus lassen sich die maximale Energieleistung und der maximale Wirkungsgrad ableiten.
Ähnlich wie die Temperatur die statistisch gemittelte Energie der Teilchen eines Vielteilchensystems angibt, konnte Boltzmann zeigen, dass sich auch die Entropie statistisch erfassen lässt, und zwar als Funktion der Zahl der besetzbaren Zustände in einem Vielteilchensystem:
ist die Boltzmann-Konstante, der natürliche Logarithmus und die Zahl der Zustände, die die Teilchen eines Systems einnehmen können. Die Wahl der Basis des Logarithmus ist unkritisch, sie bewirkt lediglich eine Änderung des konstanten Faktors.
Das Bild rechts zeigt die Mischung einer braunen Farbe in Wasser. Zu Beginn ist die Farbe ungleichmäßig verteilt. Nach längerem Warten nimmt das Wasser eine gleichmäßige Färbung an.
Die Entropie ist ein Maß für Unwissenheit. Als Maß für Unordnung muss man genau auf die Begrifflichkeit achten. So ist im Bildbeispiel die Flüssigkeit im rechten Glas zwar „ordentlicher“ verrührt, aber durch die große Durchmischung von Wasser- und Farbteilchen herrscht dort eine größere Unordnung. Mithin ist dort die Entropie höher als im linken Glas. Von der Farbe wissen wir, dass sie im rechten Glas überall im Wasser verteilt ist. Das linke Bild sagt uns mehr. Wir können Bereiche ausmachen, in denen Farbe in hoher Konzentration anzutreffen ist oder Bereiche, die frei sind von Farbe.
Die Mischungsentropie lässt sich berechnen. Josiah Willard Gibbs wies auf den Widerspruch hin, dass der Entropiezuwachs auch auftreten sollte, wenn statt der Tinte Wasser ins Wasserglas gegossen wird (Gibbssches Paradoxon).
Die Zahl der Anordnungen der Farbmoleküle am Anfang ist deutlich geringer als die, wenn sich die Farbe im gesamten Volumen verteilen kann. Denn die Farbmoleküle sind nur auf wenige Bereiche konzentriert. Im rechten Bild können sie sich im gesamten Glas aufhalten. Die Entropie ist hier größer, weshalb das System im Lauf der Zeit dieser Gleichverteilung zustrebt.
Die Entropie bleibt nur dann unverändert, wenn die Prozesse reversibel verlaufen. Reale Zustandsänderungen sind immer mit Energieverlusten (z. B. durch Reibung) verbunden, wodurch sich die Entropie erhöht. Eine Verringerung der Gesamtentropie in einem geschlossenen System ist nicht möglich. Aber die Entropie kann lokal verkleinert werden, wenn sie an anderen Orten des Systems entsprechend anwächst.
Die maximale Entropie in einem Raumbereich wird durch ein Schwarzes Loch realisiert. Da keine Information durch den Ereignishorizont nach außen dringt, ist es der Zustand maximaler Unwissenheit.
Zweiter und dritter Hauptsatz
Rudolf Julius Emanuel Clausius hatte erkannt, dass die durch
differentiell gegebene Größe bei reversibler Reaktionsführung eine extensive Zustandsgröße darstellt, also unabhängig vom Reaktionspfad und proportional zur Systemgröße ist. Insbesondere ist diese neue Zustandsgröße zunächst nur für Gleichgewichtszustände definiert. Die Bezeichnung statt betont, dass die Änderung der Wärme wegabhängig ist (Beispiel siehe Kreisprozess) und deshalb kein vollständiges Differential ist.
Clausius fand außerdem, dass in einem isolierten System die Entropie monoton wächst:
Er formulierte diese Beobachtung im 2. Hauptsatz der Thermodynamik als Negation der Existenz eines Perpetuum mobile zweiter Art:
„Es existiert kein Kreisprozess, dessen einzige Wirkung darin besteht, Wärme von einem kälteren Reservoir zu einem wärmeren Reservoir zu transportieren.“
Offenbar hätte man sonst eine unerschöpfliche Energiequelle konstruiert. Äquivalent dazu ist die Formulierung von William Thomson:
„Es existiert kein Kreisprozess, der eine Wärmemenge aus einem Reservoir entnimmt und vollständig in Arbeit verwandelt.“
Im Gegensatz zu den bereits bekannten extensiven Größen von thermodynamischen Systemen, wie Energie , Volumen und Masse , entzog sich die Entropie zunächst dem tieferen Verständnis. Die Entropie konnte erst im Rahmen der statistischen Mechanik von Ludwig Boltzmann befriedigend als Maß für das Phasenraumvolumen erklärt werden, das von der Phasentrajektorie des Systems unter Einhaltung der Konstanz ausgewählter makroskopischer Observabler, wie Temperatur , Volumen oder Teilchenzahl , erreicht werden kann.
Anschaulich ist die Entropie demnach ein Maß für fehlende Information über den tatsächlichen Mikrozustand, wenn lediglich eine geringe Anzahl beobachtbarer Größen zur Charakterisierung des Makrozustands vorliegen. Die Ergodenhypothese behauptet, dass die Trajektorie des Systems tatsächlich im Laufe der Zeit das gesamte durch die Entropie gemessene Phasenvolumen überdeckt. Systeme, die dieses Verhalten zeigen, nennt man auch ergodisch. Nur bei diesen kann der 2. Hauptsatz sinnvoll angewandt werden. Eng damit verbunden ist die Irreversibilität von Prozessen in der Natur.
Der dritte Hauptsatz (der so genannte „Nernstsche Wärmesatz“) legt die Entropie einer perfekt kristallinen Substanz am absoluten Nullpunkt als Null fest:
Eine Folgerung ist beispielsweise, dass die Wärmekapazität eines Systems bei tiefen Temperaturen verschwindet.
Beispiele
Beispiel 1 In einem System, welches mit seiner Umgebung weder Masse noch Energie austauscht, kann die Entropie niemals spontan abnehmen. Beispiel: Ein Kilogramm Wasser besitzt bei 10 °C die Entropie , bei 20 °C , bei 30 °C . 1 kg kaltes Wasser (10 °C) und 1 kg warmes Wasser (30 °C) können bei Berührung spontan in den Zustand 2 kg lauwarmes Wasser (20 °C) übergehen, weil die Entropie des Anfangszustandes (151 + 437 = 588) kleiner ist als die Entropie des Endzustandes (297 + 297 = 594). Die spontane Umkehrung dieses Vorganges ist nicht möglich, weil sich hierbei die Entropie des aus 2 kg Wasser bestehenden Systems von 594 J/K auf 588 J/K verringern müsste, was dem zweiten Hauptsatz der Thermodynamik widerspräche.
Beispiel 2 Ein Beispiel für die lokale Verringerung von Entropie sind lebende Organismen. Sie brauchen stetige Zufuhr von Energie (Nahrung, Licht bei grünen Pflanzen), um den Zustand niedriger Entropie, den ein funktionierender komplexer Organismus bedeutet, aufrechtzuerhalten. Mit der Nahrung führen sich lebende Organismen Stoffe hoher Energie und niedriger Entropie zu, während sie gleichzeitig Stoffe niedriger Energie und hoher Entropie in die Umwelt abgeben. Eine Umkehrung dieser Bilanz ist mit der Aufrechterhaltung des Lebens nicht vereinbar. Mit Eintritt des Todes nimmt die Entropie zu und der Organismus zerfällt.
Beispiel 3 Ein System strebt einen Zustand mit maximalen Besetzungsmöglichkeiten an, gleichbedeutend mit einer maximalen Entropie. Ein anschauliches Beispiel dafür ist ein Schreibtisch.
Es gibt nur genau einen Zustand , der als aufgeräumt bezeichnet wird; nämlich der, wenn alle Zettel und Bücher fortgeräumt sind:
- , folglich ist ; die Entropie ist Null
Es gibt aber endlos viele Möglichkeiten, Bücher, Zettel, Stifte und Teetassen auf dem Schreibtisch zu plazieren. Alle diese Anordnungen werden als gleichermaßen unordentlich angesehen. Da die Entropie dem Zustand zustrebt, der die meisten gleichwertigen Besetzungszustände ermöglicht, ist ein unaufgeräumter Schreibtisch viel wahrscheinlicher als ein aufgeräumter.
Über einen leeren Schreibtisch ist alles bekannt. Über einen unaufgeräumten wissen wir nichts. Die Bücher können links oder rechts liegen, die Stifte können angespitzt oder zerbrochen sein; alles wird gleichermaßen dem Begriff Unordnung untergeordnet.
Die Situation ändert sich schlagartig, wenn eine Psychologin einen Blick auf den Schreibtisch wirft. Für sie ist es ein Unterschied, ob die Bücher Eselsohren haben oder die Stifte ordentlich gespitzt sind. Die Unordnungszustände sind nicht mehr gleichwertig, wir erhalten einen Informationsgewinn. Wenn wir in der Lage sind, ein System genauer zu analysieren, nimmt die Entropie ab.
Beispiel 4 Neben ihrer Rolle als fundamentale Zustandsgröße der phänomenologischen und statistischen Thermodynamik wird die Entropie in anderen Gebieten, insbesondere in der Informationstheorie und in der Wirtschaftswissenschaft benutzt. Die Entropie besitzt in diesen Gebieten eine eigenständige Bedeutung, dieser Unterschied sollte aber nicht überbewertet werden, da letztendlich alle physikalischen Systeme thermodynamisch beschrieben werden können, sobald die Anzahl an Freiheitsgraden ansteigt und Defizite an mikroskopischer Information vorliegen. So ist es z. B. in der Astrophysik notwendig, bei der Beschreibung von Sterngeburten, weißen Zwergen, Neutronensternen, schwarzen Löchern (sie haben die höchste Entropie aller bekannten physikalischen Systeme), Kugelsternhaufen, Galaxien(haufen) und letztendlich dem ganzen Kosmos auf den Begriff der Entropie zurückzugreifen.
Beispiel 5 In der statistischen Mechanik erscheint ein thermodynamischer Zustand als Menge von mikroskopischen Realisierungsmöglichkeiten. Solche Zustandsmengen sind somit hier zentrale Größen. Die Entropie eines thermodynamischen Zustands ist ein Maß für die Größe der zugehörigen Menge von Mikrozuständen. Aus der Multiplikativität der Zahl der Mikrozustände für zusammengesetzte Systeme (= zwei unabhängige Systeme, die für sich genommen durch bzw. Mikrozustände realisiert werden können, besitzen als Gesamtsystem Realisierungsmöglichkeiten) ergibt sich, dass Entropie als extensive Größe proportional zum Logarithmus der Zahl der Mikrozustände ist.
Quantenmechanik
In der statistischen Mechanik wird das Verhalten makroskopischer thermodynamischer Systeme durch das mikroskopische Verhalten seiner Komponenten, also Elementarteilchen und daraus zusammengesetzte Systeme wie Atome, erklärt. Ein Mikrozustand ist klassisch gegeben durch Angabe aller Orte und Impulse der zum System zählenden Teilchen. Ein solcher Mikrozustand ist demnach ein Element eines 6N-dimensionalen Vektorraums, der in diesem Zusammenhang Phasenraum genannt wird. Die kanonischen Gleichungen der klassischen Mechanik beschreiben die zeitliche Evolution des Systems, die Phasentrajektorie. Die Entwicklung der Phasentrajektorie ist die Änderung der Wirkung. In der Quantenstatistik ist ein Mikrozustand gegeben durch einen Vektor im Hilbertraum . Dieser reine Zustand enthält alle Informationen über das System, die durch eine ideale Messung zugänglich sind. Ein Makrozustand ist klassisch gegeben durch ein Ensemble von Mikrozuständen, die bestimmte Erhaltungsgrößen gemein haben, wie z.B. Energie, Volumen und Teilchenzahl. Die Verteilung der Mikrozustände im Phasenraum ist gegeben durch eine Verteilungsfunktion , an deren Stelle in der quantenmechanischen Beschreibung der Dichteoperator tritt
Der Erwartungswert einer Observablen auf dem durch den Dichteoperator beschriebenen gemischten Zustand ist gegeben durch
Die Entropie ist über die Wahrscheinlichkeiten der einzelnen Mikrozustände im Makrozustand gegeben durch
wobei pi die Wahrscheinlichkeit ist, im i-ten Mikrozustand zu sein (siehe Stirling-Formel zur Herleitung dieser Relation). kB ist die Boltzmann-Konstante.
Im wichtigen Fall eines abgeschlossenen Systems im Gleichgewicht wird der Makrozustand alleine durch die Energie gegeben, und es wird angenommen, dass alle Mikrozustände zur selben Energie gleichwahrscheinlich sind, damit ergibt sich die Entropie für diesen Fall zu
- ,
wobei die Zahl der Mikrozustände angibt, welche die Gesamtenergie, sowie andere makroskopische Bedingungen, zum Beispiel Vorgegebenes Volumen, realisieren.
Als Beispiel nehmen wir ein Spinsystem mit 4 Elektronen. Die Gesamtenergie soll sein.
Daraus folgt, dass
Die allgemeine Formel ist bis auf einen konstanten Faktor identisch mit der Formel für die Informationsentropie. Das bedeutet, die physikalische Entropie ist auch ein Maß für die Information, die einem durch Kenntnis des Makrozustands zum Mikrozustand fehlt.
Der 2. Hauptsatz der Thermodynamik wird in der statistischen Mechanik eine Wahrscheinlichkeitsaussage: Es ist rein theoretisch möglich, dass beispielsweise Wärme vom kälteren Körper zum wärmeren fließt, aber es ist so unwahrscheinlich, dass es selbst in einer Zeit, die dem Millionenfachen des Alters des Universums entspricht, mit an Sicherheit grenzender Wahrscheinlichkeit nicht passieren wird.
Bei realen Systemen und normalen Temperaturen lassen sich keine einzelnen Zustände mehr abzählen. An Stelle der Anzahl der Zustände tritt dann das erreichbare Volumen im vieldimensionalen Phasenraum.
Entropie und Unordnung
In einem geordneten System (zum Beispiel einem Kristall) hat jedes Teil seinen Platz; es gibt also weniger Möglichkeiten als in einem ungeordneten System (beispielsweise Flüssigkeit), die Atome zu verteilen (im Kristall können sie zum Beispiel um ihren Platz schwingen, aber eben nicht beliebig den Platz wechseln). Daher sollte beim Übergang vom geordneten Zustand (Kristall) zum ungeordneten Zustand (Flüssigkeit), also beim Schmelzen, die Entropie wachsen. Entropiezuwachs erfolgt durch Wärmezufuhr; somit ist zum Schmelzen eine Schmelzwärme (Schmelzenergie) nötig. Da die Temperatur sich dabei nicht ändert (die Energie wird gebraucht, um die Kristallbindungen aufzubrechen), ist die Schmelzwärme gerade . Analog braucht man beim Verdampfen eine Verdampfungsenergie. Die Entropiedifferenz der beiden Zustände erhält man also, indem man die Schmelzenergie (Verdampfungsenergie) durch die Temperatur teilt.
Andererseits bedeutet höhere Entropie nicht immer auch lokal höhere Unordnung. Die Tatsache, dass unterhalb des Gefrierpunktes ungeordnetes Wasser zu stärker geordnetem Eis kristallisiert, zeigt, dass dieser Vorgang insgesamt zu einer Entropieerhöhung führt. Diese kommt dadurch zustande, dass die beim Kristallisieren abgegebene Schmelzwärme die Entropie stärker erhöht, als sie durch die Kristallisation des Wassers erniedrigt wird.
Entropie und Ordnung
Mit dem Begriff Ordnung verbinden sich ganz verschiedene Vorstellungen. Will man Ordnung (wie es beispielsweise die Kristallchemie oder die Informationstheorie tut) als Gegensatz von Entropie ansehen, dann kann man folgende Formel aufstellen
Mit dieser Definition gibt es ein Problem: Bei einer Entropie von 0 wird die Ordnung unendlich groß.
Als einfaches Beispiel kann man eine 40er-Folge der Ziffern 1 und 0 betrachten:
Beispiel 1 hohe Entropie, niedrige Ordnung
- Der ideale Münzwurf liefert eine Folge mit einer informationtheoretischen Entropie von 40 Bit
- 1011011010101001110010110011100000011110
- Ordnung = 1 / S = 1 / 40
- d.h. die Ordnung ist sehr klein
- 1011011010101001110010110011100000011110
Beispiel 2 niedrige Entropie , hohe Ordnung
- Man betrachtet eine Folge von 40 * 1 oder 40 * 0
- 1111111111111111111111111111111111111111
- 0000000000000000000000000000000000000000
- Die informationstheoretische Entropie wird hier als 0 festgesetzt. Doch wie soll man dann Ordnung definieren ?
Wahrscheinlich ist folgende Lösung etwas besser:
Daraus folgt der Bereich der Ordnung in Beispiel 1 und 2 reicht von O = 1/41 bis O = 1
Abgeleitet davon kann man die Ordnung als Prozentwert angeben:
Daraus folgt der Bereich der Ordnung in Beispiel 1 und 2 reicht von O = 100 /41 % = 2,5 % Ordnung bis 100 % Ordnung, und so ist es auch.
Entropie und Zeitrichtung
Die Aussage, dass die Summe der Entropien in einem abgeschlossenen makroskopischen System mit der Zeit nicht abnehmen kann, zeichnet eine Zeitrichtung aus: Man kann anhand der beobachteten Vorgänge unterscheiden, in welche Richtung die Zeit läuft (beispielsweise kann man bei einem Film, der eine sich abkühlende Tasse zeigt, problemlos feststellen, ob er vor- oder rückwärts läuft: Kühlt sich die Tasse ab, dann ist er korrekt abgespielt; wenn sie hingegen ohne ersichtlichen Grund wärmer wird, dann läuft der Film rückwärts).
Diese Zeitrichtung lässt sich auch auf das Universum beziehen: Der Beginn (Urknall) stellt den Moment höchster Ordnung dar, seitdem nimmt die Unordnung im Universum zu. Der Endpunkt des Universums in thermodynamischer Sicht ist unter Umständen der Wärmetod. Allerdings ist noch nicht ganz klar, inwieweit die Entropieverminderung in thermisch instabilen kollabierenden Sternen, die eine negative spezifische Wärme haben, die Gesamtbilanz der Entropie im Universum beeinflusst. Hierdurch unterscheidet sich die Thermodynamik von den anderen physikalischen Theorien, die meist keine Zeitrichtung auszeichnen (ob die Aufzeichnung eines Pendels richtigherum abgespielt wird, kann man nicht erkennen – es sei denn, das Pendel wird durch Reibung langsamer, das ist aber wiederum ein entropieerzeugender Prozess).
Ein großes Problem ist die Herleitung der Irreversibilität makroskopischer Erscheinungen, ausgedrückt durch den Entropiebegriff, aus den bekannten Gleichungen der Mechanik oder der Quantenmechanik. Allerdings hat Ilya Prigogine kurz vor seinem Tod einen Weg gefunden, die Irreversibilität bzw. Zeitasymmetrie auch ohne Näherungen direkt aus der Quantenmechanik zu entwickeln, indem er das mathematische Fundament leicht veränderte. Dabei wird nicht wie in der klassischen Quantenmechanik Observablen und Zuständen derselbe Hilbertraum zugewiesen; vielmehr leben beide nun auf verschiedenen Hardy-Unterräume desselben Hilbertraums. Durch die damit verbundenen Restriktionen erhält man zwanglos eine Zeitasymmetrie bereits in den quantenmechanischen Gleichungen, wobei diese weiterhin den bisherigen Beobachtungen und Theorien genügen. Da die Entropiezunahme die Zeitrichtung angibt, spricht man auch vom thermodynamischen Zeitpfeil.
Zitate
- „Das überwältigende Bestreben nach Unordnung bedeutet nicht, dass sich geordnete Strukturen wie Sterne und Planeten über geordnete Lebensformen wie Pflanzen und Tiere nicht bilden können. Sie können. Und sie tun es offensichtlich. Der Zweite Hauptsatz der Thermodynamik besagt, dass bei der Hervorbringung von Ordnung eine mehr als gleichwertige Erzeugung von Unordnung erfolgt. Die Entropiebilanz ist noch immer in der Gewinnzone, selbst wenn einige Bestandteile ein höheres Maß an Ordnung annehmen.“ (Brian Greene: Der Stoff, aus dem der Kosmos ist. Siedler, München 2004, ISBN 3-88680-738-X, S. 204f)
- „Dieser Begriff erfreut sich allgemeiner Unbeliebtheit und gilt als schwierig, vielleicht weil er zwar eine Bilanz- aber keine Erhaltungsgröße ist und sogar die ungewöhnliche Eigenschaft hat, zuzunehmen, und zwar um so mehr, je weniger man aufpasst.“ (Norbert Treitz: Brücke zur Physik, Deutsch-Verlag, Frankfurt 2003, ISBN 3-8171-1681-0, Kapitel 6.3)
- „Wenn du deinen Reispudding rührst, Septimus, denn verteilt sich die Marmalade herum und macht dabei rote Spuren wie in dem Bild eines Meteors in meinem astronomischen Atlas. Aber wenn du rückwärts rührst, kommt die Marmelade nicht mehr zusammen. Tatsächlich merkt der Pudding davon nichts und wird weiterhin rosa wie zuvor“ (Tom Stoppard: Arcadia, 1.Akt, 1.Szene, Dialog zwischen Thomasina und Septimus. In diesem 1993 uraufgeführten Theaterstück thematisiert Tom Stoppard Entropie an verschiedenen Stellen.)
Weiterführende Literatur
Entropiebegriff in der Wirtschaft:
- Philip B. Coulter: Measuring Inequality, 1989, ISBN 0813377269
- Nicholas Georgescu-Roegen: The Entropy Law and the Economic Process, 1999, ISBN 1583486003
Entropiebegriff in der Biologie:
- Sven P. Thoms: Ursprung des Lebens, 2005, ISBN 3596161282
Entropiebegriff in der Architektur:
- Günther Moewes: Weder Hütten noch Paläste, 1995, ISBN 3-7643-5106-3
Siehe auch
- Bedingte Entropie
- Carnot-Prozess
- Datenkompression
- Energieerhaltungssatz
- Entropie (Informationstheorie)
- Entropiekodierung
- Exergie
- Normentropie
- Spezifische Entropie des Wassers
- Strukturbildung
- Thermodynamische Temperatur
- Verdampfungsentropie
- Wirkungsgrad
Weblinks
- Real Video: Was ist Entropie? (Aus der Fernsehsendung Alpha Centauri)
- www.uni-koblenz.de: Energie und Entropie