Zum Inhalt springen

Diskussion:Entropie (Thermodynamik)

Seiteninhalte werden in anderen Sprachen nicht unterstützt.
aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 21. Februar 2005 um 18:55 Uhr durch 217.95.222.132 (Diskussion) (Negetropie). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Ältere Diskussion

Rudolf Clausius

bitte beachten und evtl in den artikel einfuegen



Es soll nochmals angemerkt werden: Die Entropie eines Systems ist das Integral über die zugeführte Wärmemenge, geteilt durch die Temperatur des Systems im Moment der Wärmezufuhr. Somit kann ein System ohne Energie, also bei Temperatur 0 keine Entropie haben. Führt man eine minimale Energiemenge zu, so ist der Entropieinhalt eigentlich unendlich, da man durch Null teilt. Jede weitere Energiezufuhr (nun bei Temperatur > 0)erhöht die Entropie. Insofern sollte die Entropie keinen absoluten Wert haben, vielmehr geht es immer um Differenzen.

(Anmerkung hierzu: das ist Quatsch. Waermekapazitaeten gehen immer mindestens genausoschnell gegen null wie die Temperatur. Typischerweise wie a*T^(-1) (Leitungselektronen) +b*T(-3) (Phononen). Damit bleibt das Integral endlich, und der 3. HS ist sinnvoll!) 164.15.131.28
Das wiederum ist Quatsch². Ich habe ein absolut energiefreies System. Das hat definitiv die Temperatur 0. Jetzt führe ich Energie zu.... Das ist doch nur eine Überlegung die zeigt, dass das, was ansonsten im Artikel steht, einfach nicht überlegt ist. Auch wenn das Integral endlich ist, ist es keineswegs 0, wie behauptet. Da es im Leben nachher nur um den Entropieunterschied geht, kann man wohl den Wert auch definieren. Es sei denn, es gibt Experimente, die eine Festlegung der Integrationskonstante ermöglichen.
Dann muss man sich auch klar machen, dass es ein System ohne Energie auch nicht gibt. Wir haben immer die Nullpunktsenergie. Das extremste was man sich vorstellen kann ist ein Kristall, bestehend aus zwei Stücken Bose-Einsteinkondensat, einen Harmonischen Oszillator bildend.
Ich kann nicht erkennen, und ich hoffe, mit mir viele, wie man Entropie definieren sollte, ohne mindestens zwei Größen benennen zu können. Also, bitte sucht irgend etwas sinnvolles für die Informationsentropie, wenn schon 99,99% der Information sowieso redundant ist.(Bitte nicht auf Kommastelle festnageln)RaiNa 13:54, 15. Feb 2005 (CET)

Ein Blick in *irgend* ein Festkörper-Lehrbuch würde zeigen, daß (1) ich recht habe, was das Verhalten der Wärmekapazitäten bei tiefen Temperaturen angeht, und damit (2) das Integral C dT/T der abgegebenen Wärmemenge pro Temperatur (also die Entropieerniedrigung) bis zum absoluten Nullpunkt fortgesetzt werden kann. Das uneigentliche Integral existiert, und man kann den thermodynamischen Entropienullpunkt ganz klar und eindeutig für eine reine, regelmäßig kristallisierende Substanz am absoluten Nullpunkt setzen.

Ja, das Argument ist gut und trifft es|zu. Denn es beschreibt eine begrenzte Situation und lässt durchaus zu, zu fragen, was ist ausserhalb. In Bereich Entropie geht es ja hin und her, da kann man nicht immer alles lesen. Wenn man also definiert! dass ein System mit Nullpunktsenergie die Entropie 0 hat, dann kann man darauf aufbauen. Jetzt regt man den Oszillator mit dem niedrigsten Energieniveau an und damit ändert sich der Entropiewert. Nur, in solchen Situationen redet man ja noch nicht von Temperatur, da kennt man die möglichen Zustände ja noch beim Namen und begrüßt sie mit Handschlag. Entropie ist halt Statistik und es macht auch keinen direkten Sinn, die Entropie eines Hammers in einem Mol H2 auszurechnen ;) Zwei Gründe gibt es, warum ich versuche, möglichst einfach darzustellen, was Entropie ist: Einmal, die Entropie nimmt zu. Das gilt auch für obiges, unsinniges Beispiel. Und diese Erkenntnis kommt unter die Räder, wenn man das Beispiel als unsinnig abtut. Sie kann aber sehr wichtig sein, wenn man etwa darüber streitet, wie der Geist "funktioniert". Das zweite ist, dass man den Begriff in die Informationstheorie einführt nach dem alten Motto, wenn Du etwas nicht verstanden hast, führe einen neuen Begriff ein, wiederhole ihn ausreichend oft, und Du wirst zum gefragten Spezialisten. Denn, und das kommt nun im Artikel gottseidank ausreichend heraus, der Begriff der Unordnung ist so ziemlich das ungeeignetste, was man sich hat einfallen lassen können. Hoffnung wächst! RaiNa 10:18, 16. Feb 2005 (CET)

Sodann kann man sich folgendes klarmachen: Man füge einem System eine minimale Energiemenge dE zu bei Temperatur T0, die Entropiedifferenz ist dE/T0, die Temperatur erhöht sich um dT. Dann entziehe man dem System die Energiemenge dE wiederum. Die Entropiedifferenz ist nun dE/(T0+dT). Da man real den mathematischen Übergang lim dE->0 nicht machen kann, würde dies bedeuten, dass man bei wiederholtem Durchlaufen der Schleife die Entropie eines bestimmten Zustandes beliebig groß machen kann. Folglich sind reversible Prozesse in abgeschlossenen Systemen nicht möglich.

Insofern ist die Frage, ob eine Entropie für Daten existieren kann, wenn man keine Angabe zu der beinhalteten Information macht, zumindest zu stellen. RaiNa 17:26, 29. Sep 2004 (CEST)

RaiNa, wenn du die alten Quellen hast, schreib doch mal was über die Geschichte der Entropie. Obwohl Clausius die Entropie "erfunden" hat, beschrieb erst Boltzmann eine schlüssige Theorie auf statistischer Grundlage. Clausius wird schon gewusst haben, dass man die Temperatur 0 nicht erreichen kann, aber er konnte noch nicht genau wissen, warum. Entropie von Daten gibt es überhaupt nur, wenn man den Informationsgehalt betrachtet. Ich habe auch schon darüber nachgedacht, wie man die Entropie dieses Themenkomplexes in wikipedia senken kann, aber die Wahrscheinlichkeit des gegenteiligen Effekts lässt sich nur mit einem sehr scharfen Energiewert im besten heisenbergschen Sinne minimieren, und der fehlt mir leider. Nopherox 21:20, 14. Feb 2005 (CET)

Anmerkung:

Die Charakterisierung "Die Entropie ist ein Maß für die Unordnung oder Zufälligkeit eines Systems" ist falsch. Die Entropie ist eine Zustandsgröße eines Systems, sie hat in unterschiedlichen Zuständen des Systems unterschiedliche Werte. Daher kann sie kein Maß für die Unordnung eines Systems sein. Wenn schon, dann ist die ein Maß für die Unordnung des Systems in einem bestimmten Zustand. (Tostro)

(Entropie ist ein Mass fuer die Zahl der Realisierungsmoeglichkeiten eines Makrozustands. Aber bitte nicht "Quantenzustands". Die zentrale Eigenschaft ist die Additivitaet fuer unabhaengige Systeme, deswegen ist sie proportional zum Logarithmus der Zahl der Mikrozustaende.)

Negetropie

Ich bin kein thermondynamik Experte. Tatsächlich wollte ich mein Wissen darüber bei Wikipdia aktualisieren; Aber einen Diskurs ueber "Negentropie" gibt es in der Physik meines Wissens nicht. Aus Sicht der Physik ist die Tatsache, dass andere Wissenschaften lieber 1/Entropie als Einheit verarbeiten ist zwar interessant, führt aber zu keinem Diskurs.

Der Abschnitt klingt so, als gaebe es da noch ein geheimnis: das ist meines wissens nicht der Fall.

ein x-bel. physik student

Es gibt gibt physikalisch keine Temperatur 0 ohne Masseinheit. Wenn eine Temperatur beschrieben werden soll, dann sollte sie immer eine Masseinheit haben, In diesem Fall evtl. 0 (Null) Kelvin.

Ein Heizungs-Lüftungs- und Klima-Techniker

Drohende Missverständnisse

(Aus dem artikel hierher verschoben)

2. Entropie als Unordnung???

Die weitverbreitete Vorstellung, Entropie habe etwas mit einer geometrisch verstandenen Unordnung zu tun, ist fehlerhaft und hat bisher zumeist verhindert, die Entropie als Quantenphänomen richtig zu verstehen. Im Vorwort zum Lehrbuch: Physik der Wärme, von CH. KITTEL und H. KRÖMER, heißt es: Ohne Quanten-Begriffe gibt es keine diskreten und damit abzählbaren Zustände und ohne abzählbare Zustände bleibt die Entropie unverständlich.

Quelle: [1]

(Das ist auch nicht richtig. Es ist sehr wohl moeglich, in einer klassischen Welt auf hoeherdimensionalen Mannigfaltigkeiten ein Mass einzufuehren, und das zu benutzen, um ueber Entropiedifferenzen zu sprechen.)


Entropie beschreibt nicht die "Unordnung eines Systems"

(Aus dem artikel hierher verschoben)

WICHTIG: Dieser Artikel ist konzeptionell fehlerhaft. Entropie beschreibt nicht die "Unordnung eines Systems" (die sich objektiv gar nicht definieren liesse), sondern ist ein für unabhängige Systeme linear additives Maß für die Größe des Raums der Mikrozustände, die eine gegebene 'Beschreibung' eines Systems realisieren: Entropie wird damit 'Beschreibungen' von Systemen, und nicht den Systemen selbst zugeordnet!

Toll! Da sind wir ja wieder da angekommen, wo wir immer schon gerne sein wollen. Anstatt dass man sich die Mühe macht, den Artikel zu überarbeiten und die Kritik einzubauen, wird sie rausgenommen, damit der unbedarfte Leser weiter ungestört den alten Fehlern nachhängen darf. Um die Frage zu beantworten, warum ich selbst das nicht tue? Ich habe genügend oft Prügel eingesteckt und keine Lust mehr. RaiNa 15:43, 6. Feb 2005 (CET)

Überarbeiten

Dieser Artikel ist redundant und erhöht damit die Entropie der wikipedia in einem hohen Ausmaß. Kann nichtmal jemand die vielen Artikel über Entropie restrukturieren? Wenn dieser Artikel hier Sinn macht, doch dann nur, um einen kurzen Überblick zu geben. In Entropie (Physik) und Entropie (Informationstheorie) gibt es viel präzisere und korrektere Erläuterungen, und die sind z.T. auch noch redundant. Was allenfalls noch fehlt, ist ein Artikel über Die Mystik der Entropie oder so. --Nopherox 21:52, 14. Feb 2005 (CET)

Zum neuen Artikelstand 2005-02-17

Nach diesem "Befreiungsschlag" ist es wohl adäquat, auch die Diskussionsseite zu entrümpeln.

Erst mal danke für die Verbesserung von Tippfehlern.

Was die Zergliederung des Inhalts anbelangt, so weiß ich nicht, ob das eine gute Idee ist, weil sie dem Leser viel zu stark suggeriert, hier würden unabhängige Aspekte nebeneinander kurz in wenigen Sätzen erklärt, wohingegen die wirklich interessanten Dinge (also auch das, was normalerweise Mißverständnisse verursacht) zwischen diesen verschiedenen Aspekten geschehen. Das war in meinem ursprünglichen Artikel durchaus überlegt und mit Absicht so strukturiert.

Nachgetragen: 16:36, 17. Feb 2005 Benutzer:Doctom

Ich habe die alte Diskussion wiederhergestellt. --Pjacobi 16:54, 17. Feb 2005 (CET)
An dem Einwand gegen die Zergliederung ist was dran. Andererseits ist in dem Artikel schon Einiges drin, das vielleicht über das hinausgeht, was man Enzyklopädielesern zumuten kann. Das ist nicht als Kritik gemeint. Darum mein Versuch, den Artikel durch Unterteilung etwas aufzulockern. Vielleicht reichen ja auch nur ein paar klarere Absatzbildungen um aus der Zergliederung eine Gliederung zu machen. --Götz 23:20, 17. Feb 2005 (CET)


"Oma-Test"?

Was würden bloß unsere Großmütter von diesem Artikel verstehen? Würden sie auch nur ansatzweise begreifen, was in etwa der Begriff umschreiben soll?

Entschuldigung, aber ich als Medizinstudent und "Ex-Physik-Gutseier" in der Schule kann im Prinzip der jetzigen Form des Artikels in den ersten zwei Sätzen kaum entnehmen, worum es bei diesem (zugegebenermaßen abstrakten) Begriff (ich kannte ihn von der Thermodynamik) eigentlich auch nur grob gehen soll... Ich weiß, dass es schwierig sein kann, so abstrakte Begriffe relativ schnell und auch noch möglichst "präzise" zu beschreiben, aber wir (Ihr?) müssen uns dennoch mit solchen "Trivialitäten" abgeben, sonst werden NaturwissenschaftlerInnen (und auch Angrenzendes, wie MedizinerInnen) funktionell zu einer Art unverständlicher, moderner, quasi-magischer "Priester-Kaste" für die Laien... ;-) Immerhin soll ja bei der Wikipedia auch ein zwanzigjähriger, sagen wir, Hobby-Lyriker, der über das (mystisch) klingende Wort stolpert, "kurz mal" nachschlagen können, was - ganz im Groben - das eigentlich ist! Oder?

Vielleicht kann ich mit einem Zitat illustrieren:

en·tro·py, n. pl. en·tro·pies
1. Symbol S. For a closed thermodynamic system, a quantitative measure of the amount of thermal energy not available to do work.
2. A measure of the disorder or randomness in a closed system.
3. A measure of the loss of information in a transmitted message.
4. The tendency for all matter and energy in the universe to evolve toward a state of inert uniformity.
5. Inevitable and steady deterioration of a system or society.
(nach http://dictionary.reference.com/search?q=entropy)

Gut, es ist ein englischsprachiger Lexikoneintrag, aber er hilft Laien doch ganz gut, eine erste Verortung des Begriffs vorzunehmen, auch wenn ja offensichtlich mindestens Punkt 2 verfälschend dargestellt ist...

Vielleicht würde es Laien (die bestimmt öfter, als man so denkt, mal über so einen Begriff stolpern, via Science-Fiction z.B.) schon helfen, wenn man einfach eine vielleicht simplifizierende, aber doch definierende Einleitung schreibt, oder zumindest den etwas "anschaulicheren" Statistik-Abschnitt weiter nach oben verlegt (v.a. wegen des treffenden Beispiels, welches so ähnlich bestimmt schon mal den einen oder anderen beschäftigt hat und durchaus allerlei [alltags-] philosophische Probleme anschneidet)?

Ich bin mir dessen bewusst, dass das mal einfacher so eben gasagt als realisiert ist, aber ich bitte darum, dieses Anliegen dennoch ernst zu nehmen, denn die Wikipedia soll schließlich auch Nicht-Fachleuten die Welt (zumindest das Stichwort) erklären, und der Welt schadet's sicher auch nicht, wenn mehr Omas physikalisch-philosophische Konzepte / Begriffe kennen lernen - hilft halt beim (begrifflich) sauberen Denken ;-) -- marilyn.hanson 21:04, 19. Feb 2005 (CET)