Zum Inhalt springen

Diskussion:Entropie (Thermodynamik)

Seiteninhalte werden in anderen Sprachen nicht unterstützt.
aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 16. Juni 2005 um 00:21 Uhr durch Heliozentrik (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Letzter Kommentar: vor 20 Jahren von Stern in Abschnitt Doppeleintrag

Leute, das kann doch wohl echt nicht sein. Wenn man mit google.de nach "Entropie" sucht, ist dieser Wikipedia-Eintrag der Treffer Nr. 1, und in der Erklärung in dem Artikel steht über weite Strecken schauerlicher physikalischer Unsinn drin!

Beispiele:

1. Die Umwandlung von potenzieller in (geordnete) kinetische Energie ist reversibel. Auch ist die Umwandlung dieser beiden Energieformen in Wärmeenergie (ungeordnete kinetische Energie) möglich. Die umgekehrte Umwandlung ist für ein Gesamtsystem jedoch nicht möglich.

Anmerkung: Eine solche Umwandlung kann mit beliebig kleinen "Reibungsverlusten" geschehen, das ist beispielsweise doch gerade der Witz am Carnot-Prozess: Arbeit aus Wärme! Ganz genau so kann die Umwandlung von kinetischer in potentielle Energie mit beliebig kleinen "Reibungsverlusten" geschehen (die man real auch nie vollständig eliminieren kann). Es gibt hierbei KEINEN prinzipiellen Unterschied zwischen beiden Energie-Umwandlungs-Vorgängen. Der Carnot-Prozess wird weiter unten im Artikel dann auch noch einigermaßen richtig diskutiert, mit anderen Worten: der Artikel widerspricht sich selbst!

2. Die Entropie bringt also zum Ausdruck, zu welchem Grad die Energie in einem System in ungeordneter Form vorliegt.

Entropie läßt sich nicht irgendwelchen Zuständen, sondern nur irgendwelchen Zustandsbeschreibungen zuordnen. Sie ist ein linear additives Maß für die Größe des Raums der Realisierungsmöglichkeiten einer gegebenen Systembeschreibung. Insofern macht es keinen Sinn, von der "Unordnung eines Systems" zu sprechen. Systeme sind blind. Die haben keinen Ordnungssinn!

3. Hierdurch unterscheidet sich die Thermodynamik von den anderen physikalischen Theorien, die meist keine Zeitrichtung auszeichnen. (...) Es gibt bisher keine Theorie, welche die Irreversibilität makroskopischer Erscheinungen, ausgedrückt durch den Entropiebegriff, aus den bekannten Gleichungen der Mechanik oder der Quantenmechanik ableiten kann. (...) Da die Entropiezunahme die Zeitrichtung angibt, spricht man auch vom thermodynamischen Zeitpfeil.

Der Grund, warum es hier keine "Theorie" gibt, ist, daß von denen, die das verstanden haben, das jeder als so banal angesehen hat, daß sich niemand die Mühe gemacht hat, das aufzuschreiben. Die Sache ist ganz einfach: wir haben einen Satz "Daten", die ein System unvollständig beschreiben, und wollen wissen, wie das System in der Zukunft ausschaut. Unter gewissen "harmlosen" mechanischen Annahmen über die Mikrophysik (Phasenraum-Inkompressibilität) erhalten wir sofort, daß wir zu keiner Zeit mehr über das System wissen können, als zu der Zeit, als wir die Daten erhoben haben. Wir können das System freilich immer durch "zur Zeit t0 hat's so ausgesehen, dass es sich partiell durch S0 beschreiben läßt" beschreiben - und haben durch so eine Beschreibung NULL Entropieverlust, egal, zu welcher Zeit wir diese Beschreibung abgeben. Genau das sagt gerade die Zeitentwicklung der Entropie über Liouvile-van-Neumann. Interessant wird's, wenn wir das System zu einer Zeit t/=t0 in "menschlichen" Begriffen beschreiben wollen, die unter Zeitentwicklung des Systems nicht erhalten bleiben. Dann kann die Konsequenz nur lauten: das, was ich für die Zeit t/=t0 hinschreiben kann, was diese anthropischen Begriffe benutzt, sagt mir weniger über das System aus, als die Beschreibung zur Zeit t0. Wenn ich über das System etwas weiß, kann ich daraus immer auch eine weniger genaue Beschreibung des Systems basteln. Wenn ich eine genauere Beschreibung als die basteln will, die ich habe, muss ich irgendwie phantasieren. 3+5=8. Ich seh's der 8 nicht an, daß sie aus einer 3 und einer 5 gemacht wurde. Das ist es. Und nicht mehr.

Fazit: Gegeben eine Beschreibung B eines Systems S zur Zeit t0 in menschlichen Begriffen. Wenn ich das System niemals wieder anschaue, aber die Mikrophysik kenne, und zur Zeit t1/=t0 wieder eine Beschreibung in menschlichen Begriffen B' finden will, umfaßt die notwendigerweise eine größere Zahl von Realisierungsmöglichkeiten. Die Verwendung elementarer logischer Schlußfolgerungen kann die Menge an verhandenen Daten verkleinern, aber nicht vergrößern. Das bedeutet, daß die Entropie von B' immer größer ist als die von B. Unabhängig davon, ob t1 in der Zukunft oder in der Vergangenheit liegt. Ich kann von einem Glas Tee der Temperatur 40 Grad nicht sagen, wie das System vor einer Minute ausgesehen hat. 152.78.153.226 20:14, 17. Mai 2005 (CEST) doctomBeantworten

Hör mal Kamerad, jetzt komm doch nicht mit Argumenten! Wenn du nicht eine Literaturstelle bringst, die mindestens 300 Jahre alt ist, hast du hier keine Chance! Und was wäre, wenn jemand was verstehen würde? Hast deinen Hans Christian Andersen wohl nicht gelesen? Und falls das nicht reicht: Das eigene Nachdenken ist eine unzuverlässige und mit Recht ungern gesehene Quelle für die Wikipedia! (Verfasser bekannt, erhebe kein Urheberrecht). Übrigens: ich empfehle das Anlegen zumindest eines Tarnnamens, damit man über die Beitragsliste besser weitere solche destruktiven Ausführungen finden kann! RaiNa 20:25, 17. Mai 2005 (CEST)Beantworten

Hallo Unbekannter, lass Dich nicht von Sprücheklopfern entmutigen. Ich finde, dass Deine Einwände völlig korrekt sind. Der Artikel ist nun einmal durch die Zusammenführung eine Baustelle und Du bist herzlich eingeladen, selbst die Schüppe in die Hand zu nehmen. --Markus Schweiß, @ 20:32, 17. Mai 2005 (CEST)Beantworten

Hör mal Kamerad, das oben war einfach Ironie. Wirst es schon verstanden haben. Da ich unterzeichne, kann man mir auch einen Email schicken. Du siehst ja, dass ich auch schon mal gemeckert habe und zumindest versuche, etwas plausibler zu argumentieren. Nur, Änderungen in Texte einfließen zu lassen, kann ich mir abschminken, da waltet Cerberus.RaiNa 23:38, 17. Mai 2005 (CEST)Beantworten

Kann den obigen Ausführungen nur zustimmen, der Artikel weist einige Schwachstellen auf und ist teilweise schlichtweg falsch oder mißverständlich. Vor allem fehlt der wesentliche Bezug zu den Erhaltungsgrößen des Systems, ohne den ein korrektes Verständnis der Entropie erschwert wird. Ich werde mir da etwas überlegen, so kompliziert ist es ja in Wirklichkeit nicht, wenn man die Begriffe sauber aufschreibt. Ach ja übrigens, man kann einem einzelnen (reinen) Zustand eine Entropie zuordnen, indem man den Dichteoperator betrachtet, der den Projektor auf eben diesen Zustand darstellt. Der hat die Entropie Null. Was nichts anderes bedeutet, als das ich genau weiß in welchem Zustand das System sich befindet. Entropie ist eben kein Maß für die Unordnung, sondern für die fehlende Information über das System, wenn man nur über eine begrenzte Anzahl von Observablen verfügt. David314 20:31, 20. Mai 2005 (CEST)Beantworten

Hallo David314, es wäre geschickt, eine Benutzerseite anzulegen und die Möglichkeit zu eröffnen, eine Email zu schicken. An physikalischen Artikeln irgend etwas so zu verändern, dass auch physikalisch ungebildete Menschen einen Bezug zu ihrer Lebens- und Begriffswelt erkennen und ihre Denkstrukturen auch auf physikalische Zusammenhänge erweitern zu können, ist hier für ein Individuum nicht möglich. Der puren Masse kann nur durch pure Masse entgegnet werden. Und der Unterschied zwischen träger Masse und schwerer Masse ist nur bei Masse nicht gegeben. Geist hat wahrscheinlich eine sehr kleine schwere Masse, aber eine ungeheuere träge Masse, insbesondere, wenn man sein Leben der Monochromatik verschrieben hat.RaiNa 21:19, 22. Mai 2005 (CEST)Beantworten
David314 hat eine Email-Adresse hinterlegt, so dass Du ihm per Email Sachen sagen kannst, die unter Euch bleiben sollen. Ansonstem bitte ich darum, das ständige Pöbeln über andere Mitarbeiter einzustellen. --Pjacobi 21:32, 22. Mai 2005 (CEST)Beantworten
Vielleicht bin ich einfach noch nicht darüber belehrt worden, wie man diese Emailadresse findet. Jedenfalls ist in meinem Browser die Benutzerseite David314immer noch leer. Jedenfalls bin ich durch eigenes Nachdenken, (unter Vermeidung des gleichzeitigen Öffnens von Wikipedia) nicht auf die Adresse gekommen. Ansonsten wurdet es mich, wieso man hier von Mitarbeitern redet. Hier gibt es Administratoren und Nichtadministratoren. Und pöpeln kommt wohl von "Peuple". Daran sehe ich nichts ehrenrühriges, wird ja auch die Eucharistie zwischenzeitlich in der Sprache des Volkes gefeiert. Aber hier scheint es mir immer noch besser, Hoc est corpus meam durch Hokuspokus anzunähern. RaiNa 21:49, 22. Mai 2005 (CEST)Beantworten
Du gehst auf seine (leere) Benutzerseite und drückst den Knopf "Email an diesen Benutzer". --Pjacobi 22:19, 22. Mai 2005 (CEST)Beantworten
Danke RaiNa 23:09, 22. Mai 2005 (CEST)Beantworten
Kein Problem, mach das einfach mal. Ich bin selbst nicht so der ganz große Thermo-Spezialist, ich habe es lieber mit den einfach zu verstehenden Beispielen :-)) --Markus Schweiß, @ 21:48, 20. Mai 2005 (CEST)Beantworten
Falls "mein" Humor-Beitrag rausfliegt und dafür Entropie besser erklärt wird, dann ist das auch okay. Es ist aber eben nicht leicht, Entropie so zu erklären, dass Nicht-Mathematiker und Nicht-Physiker noch folgen können. Und genau diese Zielgruppe hat es nötig, Entropie besser zu begreifen. Die Profis haben es doch ohnehin g'studiert. Wichtig ist auch, keine Arroganz gegenüber "anschaulichen" oder "das Gefühl" ansprechenden Erklärungen zu entwickeln. Wenn also mein Versuch, Entropie etwas verständlicher zu machen, daneben gegangen sein sollte, dann drücke ich David314 den Daumen, dass es ihm besser gelingt. --Götz 22:00, 20. Mai 2005 (CEST)Beantworten

Ältere Diskussion

Rudolf Clausius

bitte beachten und evtl in den artikel einfuegen



Es soll nochmals angemerkt werden: Die Entropie eines Systems ist das Integral über die zugeführte Wärmemenge, geteilt durch die Temperatur des Systems im Moment der Wärmezufuhr. Somit kann ein System ohne Energie, also bei Temperatur 0 keine Entropie haben. Führt man eine minimale Energiemenge zu, so ist der Entropieinhalt eigentlich unendlich, da man durch Null teilt. Jede weitere Energiezufuhr (nun bei Temperatur > 0)erhöht die Entropie. Insofern sollte die Entropie keinen absoluten Wert haben, vielmehr geht es immer um Differenzen.

(Anmerkung hierzu: das ist Quatsch. Waermekapazitaeten gehen immer mindestens genausoschnell gegen null wie die Temperatur. Typischerweise wie a*T^(-1) (Leitungselektronen) +b*T(-3) (Phononen). Damit bleibt das Integral endlich, und der 3. HS ist sinnvoll!) 164.15.131.28
Das wiederum ist Quatsch². Ich habe ein absolut energiefreies System. Das hat definitiv die Temperatur 0. Jetzt führe ich Energie zu.... Das ist doch nur eine Überlegung die zeigt, dass das, was ansonsten im Artikel steht, einfach nicht überlegt ist. Auch wenn das Integral endlich ist, ist es keineswegs 0, wie behauptet. Da es im Leben nachher nur um den Entropieunterschied geht, kann man wohl den Wert auch definieren. Es sei denn, es gibt Experimente, die eine Festlegung der Integrationskonstante ermöglichen.
Dann muss man sich auch klar machen, dass es ein System ohne Energie auch nicht gibt. Wir haben immer die Nullpunktsenergie. Das extremste was man sich vorstellen kann ist ein Kristall, bestehend aus zwei Stücken Bose-Einsteinkondensat, einen Harmonischen Oszillator bildend.
Ich kann nicht erkennen, und ich hoffe, mit mir viele, wie man Entropie definieren sollte, ohne mindestens zwei Größen benennen zu können. Also, bitte sucht irgend etwas sinnvolles für die Informationsentropie, wenn schon 99,99% der Information sowieso redundant ist.(Bitte nicht auf Kommastelle festnageln)RaiNa 13:54, 15. Feb 2005 (CET)

Ein Blick in *irgend* ein Festkörper-Lehrbuch würde zeigen, daß (1) ich recht habe, was das Verhalten der Wärmekapazitäten bei tiefen Temperaturen angeht, und damit (2) das Integral C dT/T der abgegebenen Wärmemenge pro Temperatur (also die Entropieerniedrigung) bis zum absoluten Nullpunkt fortgesetzt werden kann. Das uneigentliche Integral existiert, und man kann den thermodynamischen Entropienullpunkt ganz klar und eindeutig für eine reine, regelmäßig kristallisierende Substanz am absoluten Nullpunkt setzen.

Ja, das Argument ist gut und trifft es|zu. Denn es beschreibt eine begrenzte Situation und lässt durchaus zu, zu fragen, was ist ausserhalb. In Bereich Entropie geht es ja hin und her, da kann man nicht immer alles lesen. Wenn man also definiert! dass ein System mit Nullpunktsenergie die Entropie 0 hat, dann kann man darauf aufbauen. Jetzt regt man den Oszillator mit dem niedrigsten Energieniveau an und damit ändert sich der Entropiewert. Nur, in solchen Situationen redet man ja noch nicht von Temperatur, da kennt man die möglichen Zustände ja noch beim Namen und begrüßt sie mit Handschlag. Entropie ist halt Statistik und es macht auch keinen direkten Sinn, die Entropie eines Hammers in einem Mol H2 auszurechnen ;) Zwei Gründe gibt es, warum ich versuche, möglichst einfach darzustellen, was Entropie ist: Einmal, die Entropie nimmt zu. Das gilt auch für obiges, unsinniges Beispiel. Und diese Erkenntnis kommt unter die Räder, wenn man das Beispiel als unsinnig abtut. Sie kann aber sehr wichtig sein, wenn man etwa darüber streitet, wie der Geist "funktioniert". Das zweite ist, dass man den Begriff in die Informationstheorie einführt nach dem alten Motto, wenn Du etwas nicht verstanden hast, führe einen neuen Begriff ein, wiederhole ihn ausreichend oft, und Du wirst zum gefragten Spezialisten. Denn, und das kommt nun im Artikel gottseidank ausreichend heraus, der Begriff der Unordnung ist so ziemlich das ungeeignetste, was man sich hat einfallen lassen können. Hoffnung wächst! RaiNa 10:18, 16. Feb 2005 (CET)

Sodann kann man sich folgendes klarmachen: Man füge einem System eine minimale Energiemenge dE zu bei Temperatur T0, die Entropiedifferenz ist dE/T0, die Temperatur erhöht sich um dT. Dann entziehe man dem System die Energiemenge dE wiederum. Die Entropiedifferenz ist nun dE/(T0+dT). Da man real den mathematischen Übergang lim dE->0 nicht machen kann, würde dies bedeuten, dass man bei wiederholtem Durchlaufen der Schleife die Entropie eines bestimmten Zustandes beliebig groß machen kann. Folglich sind reversible Prozesse in abgeschlossenen Systemen nicht möglich.

Insofern ist die Frage, ob eine Entropie für Daten existieren kann, wenn man keine Angabe zu der beinhalteten Information macht, zumindest zu stellen. RaiNa 17:26, 29. Sep 2004 (CEST)

RaiNa, wenn du die alten Quellen hast, schreib doch mal was über die Geschichte der Entropie. Obwohl Clausius die Entropie "erfunden" hat, beschrieb erst Boltzmann eine schlüssige Theorie auf statistischer Grundlage. Clausius wird schon gewusst haben, dass man die Temperatur 0 nicht erreichen kann, aber er konnte noch nicht genau wissen, warum. Entropie von Daten gibt es überhaupt nur, wenn man den Informationsgehalt betrachtet. Ich habe auch schon darüber nachgedacht, wie man die Entropie dieses Themenkomplexes in wikipedia senken kann, aber die Wahrscheinlichkeit des gegenteiligen Effekts lässt sich nur mit einem sehr scharfen Energiewert im besten heisenbergschen Sinne minimieren, und der fehlt mir leider. Nopherox 21:20, 14. Feb 2005 (CET)

Anmerkung:

Die Charakterisierung "Die Entropie ist ein Maß für die Unordnung oder Zufälligkeit eines Systems" ist falsch. Die Entropie ist eine Zustandsgröße eines Systems, sie hat in unterschiedlichen Zuständen des Systems unterschiedliche Werte. Daher kann sie kein Maß für die Unordnung eines Systems sein. Wenn schon, dann ist die ein Maß für die Unordnung des Systems in einem bestimmten Zustand. (Tostro)

(Entropie ist ein Mass fuer die Zahl der Realisierungsmoeglichkeiten eines Makrozustands. Aber bitte nicht "Quantenzustands". Die zentrale Eigenschaft ist die Additivitaet fuer unabhaengige Systeme, deswegen ist sie proportional zum Logarithmus der Zahl der Mikrozustaende.)

Negentropie

Ich bin kein thermondynamik Experte. Tatsächlich wollte ich mein Wissen darüber bei Wikipdia aktualisieren; Aber einen Diskurs ueber "Negentropie" gibt es in der Physik meines Wissens nicht. Aus Sicht der Physik ist die Tatsache, dass andere Wissenschaften lieber 1/Entropie als Einheit verarbeiten ist zwar interessant, führt aber zu keinem Diskurs.

Der Abschnitt klingt so, als gaebe es da noch ein geheimnis: das ist meines wissens nicht der Fall.

ein x-bel. physik student

Es gibt gibt physikalisch keine Temperatur 0 ohne Masseinheit. Wenn eine Temperatur beschrieben werden soll, dann sollte sie immer eine Masseinheit haben, In diesem Fall evtl. 0 (Null) Kelvin.

Ein Heizungs-Lüftungs- und Klima-Techniker

Drohende Missverständnisse

(Aus dem artikel hierher verschoben)

2. Entropie als Unordnung???

Die weitverbreitete Vorstellung, Entropie habe etwas mit einer geometrisch verstandenen Unordnung zu tun, ist fehlerhaft und hat bisher zumeist verhindert, die Entropie als Quantenphänomen richtig zu verstehen. Im Vorwort zum Lehrbuch: Physik der Wärme, von CH. KITTEL und H. KRÖMER, heißt es: Ohne Quanten-Begriffe gibt es keine diskreten und damit abzählbaren Zustände und ohne abzählbare Zustände bleibt die Entropie unverständlich.

Quelle: [1]

(Das ist auch nicht richtig. Es ist sehr wohl moeglich, in einer klassischen Welt auf hoeherdimensionalen Mannigfaltigkeiten ein Mass einzufuehren, und das zu benutzen, um ueber Entropiedifferenzen zu sprechen.)


Entropie beschreibt nicht die "Unordnung eines Systems"

(Aus dem artikel hierher verschoben)

WICHTIG: Dieser Artikel ist konzeptionell fehlerhaft. Entropie beschreibt nicht die "Unordnung eines Systems" (die sich objektiv gar nicht definieren liesse), sondern ist ein für unabhängige Systeme linear additives Maß für die Größe des Raums der Mikrozustände, die eine gegebene 'Beschreibung' eines Systems realisieren: Entropie wird damit 'Beschreibungen' von Systemen, und nicht den Systemen selbst zugeordnet!

Toll! Da sind wir ja wieder da angekommen, wo wir immer schon gerne sein wollen. Anstatt dass man sich die Mühe macht, den Artikel zu überarbeiten und die Kritik einzubauen, wird sie rausgenommen, damit der unbedarfte Leser weiter ungestört den alten Fehlern nachhängen darf. Um die Frage zu beantworten, warum ich selbst das nicht tue? Ich habe genügend oft Prügel eingesteckt und keine Lust mehr. RaiNa 15:43, 6. Feb 2005 (CET)

Überarbeiten

Dieser Artikel ist redundant und erhöht damit die Entropie der wikipedia in einem hohen Ausmaß. Kann nichtmal jemand die vielen Artikel über Entropie restrukturieren? Wenn dieser Artikel hier Sinn macht, doch dann nur, um einen kurzen Überblick zu geben. In Entropie (Physik) und Entropie (Informationstheorie) gibt es viel präzisere und korrektere Erläuterungen, und die sind z.T. auch noch redundant. Was allenfalls noch fehlt, ist ein Artikel über Die Mystik der Entropie oder so. --Nopherox 21:52, 14. Feb 2005 (CET)

81.242.232.94 00:58, 26. Apr 2005 (CEST)

Das Problem ist leider gerade, dass einiges, was in den Entropie-Artikeln so steht, falsch und zudem irrefuehrend ist. Es gab hier schon mal eine aeltere Fassung eines knappen Entropie-Artikels, der alle Facetten gebuehrend beleuchtet hat, alle Missverstaendnisse ausgeraeumt hat, insbesondere auch im Detail gezeigt hat, warum die informationstheoretische Entropie und die physikalische Entropie haargenau dasselbe sind. Der wurde aber leider komplett weg-erodiert.

Ja, es ist moeglich, Entropie umfassend und korrekt so zu erklaeren, dass alle der vielen verbreiteten Missverstaendnisse angesprochen und ausgeraeumt werden, und jeder mit hinreichend Nachdenken verstehen kann, worum es bei der Entropie eigentlich geht. Allerdings frage ich mich inzwischen ernsthaft, ob es nicht einen so starken latenten Drang gibt, sich lieber vom Entropie-Begriff verwirren zu lassen, dass so eine Erklaerung in der Wikipedia keinen Bestand haben kann. Irgendwie finde ich das jedenfalls arg traurig, zumal der erste Treffer auf google.de zum Thema "Entropie" dieser Wikipedia-Artikel ist.

Ich moechte euch bitten, noch mal einen genauen Blick auf diese Version zu werfen:

http://de.wikipedia.org/w/index.php?title=Entropie&oldid=4551968

Ja, das ist knapp. Ja, das ist nicht ganz einfach zu verstehen. Ja, in dem Artikel ist alles drin, was man braucht, um diese unselige Zersplitterung des Entropie-Begriffs aufzuheben. Und ja: er raeumt alle Missverstaendnisse aus, die die Physiker, die auf Wikipedia "Entropie" nachschlagen, gerne geklaert haetten.

Zum neuen Artikelstand 2005-02-17

Nach diesem "Befreiungsschlag" ist es wohl adäquat, auch die Diskussionsseite zu entrümpeln.

Erst mal danke für die Verbesserung von Tippfehlern.

Was die Zergliederung des Inhalts anbelangt, so weiß ich nicht, ob das eine gute Idee ist, weil sie dem Leser viel zu stark suggeriert, hier würden unabhängige Aspekte nebeneinander kurz in wenigen Sätzen erklärt, wohingegen die wirklich interessanten Dinge (also auch das, was normalerweise Mißverständnisse verursacht) zwischen diesen verschiedenen Aspekten geschehen. Das war in meinem ursprünglichen Artikel durchaus überlegt und mit Absicht so strukturiert.

Nachgetragen: 16:36, 17. Feb 2005 Benutzer:Doctom

Ich habe die alte Diskussion wiederhergestellt. --Pjacobi 16:54, 17. Feb 2005 (CET)
An dem Einwand gegen die Zergliederung ist was dran. Andererseits ist in dem Artikel schon Einiges drin, das vielleicht über das hinausgeht, was man Enzyklopädielesern zumuten kann. Das ist nicht als Kritik gemeint. Darum mein Versuch, den Artikel durch Unterteilung etwas aufzulockern. Vielleicht reichen ja auch nur ein paar klarere Absatzbildungen um aus der Zergliederung eine Gliederung zu machen. --Götz 23:20, 17. Feb 2005 (CET)


"Oma-Test"?

Was würden bloß unsere Großmütter von diesem Artikel verstehen? Würden sie auch nur ansatzweise begreifen, was in etwa der Begriff umschreiben soll?

Entschuldigung, aber ich als Medizinstudent und "Ex-Physik-Gutseier" in der Schule kann im Prinzip der jetzigen Form des Artikels in den ersten zwei Sätzen kaum entnehmen, worum es bei diesem (zugegebenermaßen abstrakten) Begriff (ich kannte ihn von der Thermodynamik) eigentlich auch nur grob gehen soll... Ich weiß, dass es schwierig sein kann, so abstrakte Begriffe relativ schnell und auch noch möglichst "präzise" zu beschreiben, aber wir (Ihr?) müssen uns dennoch mit solchen "Trivialitäten" abgeben, sonst werden NaturwissenschaftlerInnen (und auch Angrenzendes, wie MedizinerInnen) funktionell zu einer Art unverständlicher, moderner, quasi-magischer "Priester-Kaste" für die Laien... ;-) Immerhin soll ja bei der Wikipedia auch ein zwanzigjähriger, sagen wir, Hobby-Lyriker, der über das (mystisch) klingende Wort stolpert, "kurz mal" nachschlagen können, was - ganz im Groben - das eigentlich ist! Oder?

Vielleicht kann ich mit einem Zitat illustrieren:

en·tro·py, n. pl. en·tro·pies
1. Symbol S. For a closed thermodynamic system, a quantitative measure of the amount of thermal energy not available to do work.
2. A measure of the disorder or randomness in a closed system.
3. A measure of the loss of information in a transmitted message.
4. The tendency for all matter and energy in the universe to evolve toward a state of inert uniformity.
5. Inevitable and steady deterioration of a system or society.
(nach http://dictionary.reference.com/search?q=entropy)

Gut, es ist ein englischsprachiger Lexikoneintrag, aber er hilft Laien doch ganz gut, eine erste Verortung des Begriffs vorzunehmen, auch wenn ja offensichtlich mindestens Punkt 2 verfälschend dargestellt ist...

Vielleicht würde es Laien (die bestimmt öfter, als man so denkt, mal über so einen Begriff stolpern, via Science-Fiction z.B.) schon helfen, wenn man einfach eine vielleicht simplifizierende, aber doch definierende Einleitung schreibt, oder zumindest den etwas "anschaulicheren" Statistik-Abschnitt weiter nach oben verlegt (v.a. wegen des treffenden Beispiels, welches so ähnlich bestimmt schon mal den einen oder anderen beschäftigt hat und durchaus allerlei [alltags-] philosophische Probleme anschneidet)?

Ich bin mir dessen bewusst, dass das mal einfacher so eben gasagt als realisiert ist, aber ich bitte darum, dieses Anliegen dennoch ernst zu nehmen, denn die Wikipedia soll schließlich auch Nicht-Fachleuten die Welt (zumindest das Stichwort) erklären, und der Welt schadet's sicher auch nicht, wenn mehr Omas physikalisch-philosophische Konzepte / Begriffe kennen lernen - hilft halt beim (begrifflich) sauberen Denken ;-) -- marilyn.hanson 21:04, 19. Feb 2005 (CET)

Da ist was dran. Wenn der Stil der Entropie-Erklärung so ist, dass Leute, die diesen Stil verstehen, ohnehin nicht nötig haben, Entropie erklärt zu bekommen, dann ist die "Oma" schon gleich ganz verloren. --Götz 10:34, 23. Feb 2005 (CET)

Von den Problemen mit pseudowissenschaftlich belasteten Begriffen

Leute... Das *ganz* große Problem, das die Wikipedia hat, ist, daß gerade ganz speziell zu irgendwelchen physikalischen Themen durch Hawking und Co ein Haufen Populär-Pseudowissen durch die Köpfe der Menschen geistert, und gerade die Wikipedia jetzt auch noch eine Plattform bietet, die es Laien ermöglicht, dieses Pseudowissen als enzyklopädische Definition zu zementieren. Kann ja gut sein, daß das genau das ist, was die Wikipedia eigentlich sein will: eine Plattform die es erlaubt, jeden Begriff in einer möglichst platten Form darzustellen, ohne Rücksicht darauf zu nehmen, was denn Experten zu diesem Thema zu sagen haben. Von mir stammt die Neufassung, die dem derzeitigen Artikel zugrunde liegt, http://de.wikipedia.org/w/index.php?title=Entropie&oldid=4532533, und im folgenden zuerst ein wenig mit zusätzlichen Links und der Umstellung auf die offizielle Rechtschreibung verschönert, dann nach und nach aber wieder verhuzelt wurde mit Teilen, die da einfach nicht rein gehören, wie z.B. dem "Humor"-Abschnitt - oder wenn man so will auch schon der Neugliederung, die die vereinheitlichende Diskussion, die alle Aspekte des Begriffs unter einen Hut zu bringen versucht hat. Was ist denn bitte an dem folgenden ursprünglichen ersten Satz für einen der deutschen Sprache mächtigen Leser nicht zu verstehen?

"Der Begriff der Entropie wurde ursprünglich von Rudolf Clausius in der (phänomenologischen) Thermodynamik eingeführt, um eine quantitative Analyse der Frage zu ermöglichen, welche Prozesse in der Natur von selbst ablaufen können, und welche nicht."

Entropie = quantitative Größe; hilft, zu trennen, was von selbst geschehen kann, und was nicht von selbst passiert. Das sollte man doch wohl noch jedem zumuten können, oder?

Es tut mir ja furchtbar leid, wenn anscheinend die Mehrheit der Wikipedianer mit genau der Erwartungshaltung den Entropie-Artikel abruft, da drin ihre naive Populär-Vorstellung, "Entropie sei ein Maß für die Unordnung eines Systems" in freundlichen Lettern bestätigt zu sehen. Nein. Das stimmt so einfach nicht. Das ist einfach nur großer Käse, der aber leider so verbreitet ist, daß man ihn heute auch schon in vielen Physik-Lehrbüchern findet, die Thermodynamik zwar nicht zentral behandeln, aber streifen.

Schaut euch bitte meinen ursprünglichen Artikel noch mal an. Der hat mehr zu bieten als so ziemlich jede Entropie-Definition, die man sonstwo finden kann. Alle Fragen, die sonst normalerweise immer im Zusammenhang mit Entropie irgendwie Verwirrung stiften, werden da kurz und vor allem direkt nachvollziehbar(!) (sofern man das nötige Hintergrundwissen hat - aber nur jemand, der diese Details geklärt haben will, schlägt das ja nach) beantwortet. Die mysteriöse Zeitsymmetriebrechung, die es nicht gibt, Das keine-Entropieerzeugung-in-der-Quantenmechanik-Paradoxon, wie man denn nun "Unordnung" quantifiziert (gar nicht!), und so fort.

Wenn ihr's wirklich so wollt, können wir den Begriff vielleicht spalten:

(1) Entropie

(2) Populärwissenschaftliche Entropie - hier wird Entropie so erklärt, wie nicht physikalisch vorgebildete Leser das gerne lesen würden. (Ist zwar horrend falsch, aber genau das, was jeder hier als Erklärung erwartet.)

Wer "Populärwissenschaft" nicht richtig erklären kann, vermag vielleicht auch "Entropie" nicht so gut zu erläutern. (Das ist zugegebenerweise eine Vermutung und kein logischer Schluss.) Es gibt keine "populärwissenschaftliche Entropie". Es gibt populärwissenschaftlich erklärte Entropie. Populärwissenschaftliche Erklärungen sind nicht notwendigerweise falsche Erklärungen. Populärwissenschaftliche Erklärungen sind nicht notwendigerweise pseudowissenschaftliche Erklärungen. Sind Wissenschaftler sehr gut, dann können sie frei von Arroganz auch gut populärwissenschaftlich erklären. Sie schaffen Wissen. Erwin Schrödinger gab hier gute Beispiele.
Vielleicht kann man hier mal ohne Unterstellungen hinsichtlich der Erwartungshaltung "nicht physikalisch vorgebildete Leser" und vielmehr mit Respekt für die "Oma" populärwissenschaftliche Entropieerklärungen sammeln. Wenn dabei mein "Humor"-Absatz wegen einer besseren (Benchmark: Oma-Test) Erklärung rausfliegt, warum nicht? --Götz 21:05, 18. Mär 2005 (CET)
Bemerkung hierzu: Was erwartet man von einem Lexikon-Artikel zum Thema Entropie? Vielleicht, daß er den Begriff "Entropie" korrekt erklärt?
Richtig. Vielleicht gelingt sogar eine populärwissenschafttliche und korrekte Erklärung. --Götz 21:56, 19. Mär 2005 (CET)

Doppeleintrag

Entropie und Entropie (Physik) -- Diese Artikel führen eine unerbauliche Parallelexistenz. Mein Vorschlag wäre "Entropy (Humor)" zu entsorgem, einen getrennten Artikel Entropie (Informatik) zu erstellen, den Rest von Entropie kritisch sichten und ggfs in Entropie (Physik) einzuarbeiten, und schlussendlich aus Entropie eine BKL zu machen. --Pjacobi 22:01, 23. Mär 2005 (CET)

+ Entropie (Informationstheorie). Vielleicht kann ja Entropie (Humor) in Entropie (Philosophie) weiterleben... Anton 22:27, 23. Mär 2005 (CET)
Immerhin freundlich, dass Humor nicht ganz verschwinden soll ;-) Allernings, mit Philosophie hat der Humor, an den ich denke, eher weniger zu tun, denn er basiert ja darauf, dass mit physikalischen Unmöglichkeiten Schabernack getrieben wird. So kann er bei der Veranschaulichung von Entropie helfen. Ich bin auch dafür, aus Entropie eine BKL zu machen, aber bitte die Vorgeschichte nicht verschwinden lassen. In Entropie (Physik) werde ich nach dieser Restrukturierung versuchen, den Begriff auch für Leute mit Hauptschulabschluss in erbaulicher Weise verständlich zu machen - wenn zielführend, auch mit Humor. Entropie (Informatik), Entropie (Mathematik) und Entropiemaße (Wirtschaft) könnten Eigenbehandlungen bekommen. --Götz 22:45, 23. Mär 2005 (CET)
Ich weiß leider nichts über Entropie in der Wirtschaft und auch nicht in der Mathematik, soweit es über Statistik hinausgeht. Es gibt aber zwischen dem Entropie-Begriff in der statistischen Physik und in der Informationstheorie keinen Unterschied. Es geht dabei immer um eine Behandlung von Wahrscheinlichkeit. Nopherox 18:02, 27. Apr 2005 (CEST)

Aaahh, das macht hier gar keinen Fortschritt mehr. Ich würde mich gerne einbringen, aber ich bin zuwenig Experte um das neu zu schreiben. Für mich sind Entropie und Entropie (Physik) erstmal entschieden zu lang, um sie irgendwie zusammenzuführen. Auch sind beide Art., neben ihrer Länge, nicht so richtig "zweifelsfrei". Um hier irgendeinen Fortschritt zu erleben, denke ich, sollte man einen der beiden Art. STREICHEN. Ich stimme für Entropie(Physik). Der erscheint vielleicht ein wenig fundierter, ist er aber, m.E., nicht wirklich. Ausserdem muss nat. der Quatsch (Humor) raus. Das bringt doch überhaupt nichts. Ich zumindest würde wahrscheinlich eine Enzyklopaedie mit "Witzen" nicht kaufen. --Pediadeep 21:58, 2. Mai 2005 (CEST)Beantworten

Ich habe das ganze Zeug erst einmal zusammengeschoben und dabei neben einer neuen Ordnung auch Chaos geschaffen. Der Humorabschnitt liegt mir dabei besonders am Herzen, denn noch nie habe ich eine so griffige Beschreibung gesehen wie diese. Der Abschnitt kann sicher in dieser Form überarbeitet werden, aber bitte nicht vollständig streichen. Er würde dem Artikel helfen, den Oma-Test zu bestehen. --Markus Schweiß, @ 20:54, 15. Mai 2005 (CEST)Beantworten

Vielen Dank für die Zusammenführung!
Grundsätzlich finde ich die Idee Entropie und Humor nett (s.o.). Nur halte ich den Abschnitt für zu wenig konkret und ich finde wenig Ansätze, ihn zu spezifizieren. Mindestens sollte er den Ausdruck S= k*ln Ω veranschaulichen. Beispiel: Wieviele gleichberechtigte Zustände gibt es bei der Anordnung der Plätzchen, die an das Bild von Max und Moritz erinnern? Wieviele Zustände gibt es insgesamt?
Annahme: 1000 Plätzchen, die auf ein 1000x1000 Raster (=10^6 Punkte) gelegt werden.
Es gebe 1.000.000 Möglichkeiten, die Plätzchen so zu verteilen, dass das Bild an Max und Moritz erinnert: ln(1.000.000)=14. Insgesamt gibt es 1.000.000!/999.000! =10^6.000 Anordnungen, die Plätzchen irgendwie zu verteilen (zum Vergleich: 1g Wasser hat ca. 10^23 Atome); ln(10^6000)=14.000. Letzer Fall ist demnach deutlich wahrscheinlicher. Spannend wird es, wenn der Rasterabstand auf Atomgröße reduziert wird. Die Zahl der günstigen Fälle wächst um mehrere Größenordnungen, die Zahl der Plätze insgesamt wird riesig. Die günstigen Fälle (Beispiel: Entmischung von Flüssigkeiten) werden praktisch nie beobachtet.Anton 00:07, 16. Mai 2005 (CEST)Beantworten
Die Idee ist sehr gut, schreib das doch einfach in den Artikel :-) --Markus Schweiß, @ 08:00, 16. Mai 2005 (CEST)Beantworten

Der Begriff Entropie (Informationstheorie) hat mit dem Begriff aus der Physik nur sehr am Rande etwas zu tun. Ihn hier irgendwie unterzubringen wäre für beide bisherigen Artikel nicht gut. Also bitte nicht vereinigen! Stern !? 08:30, 24. Mai 2005 (CEST)Beantworten

Der Rand ist ziemlich breit. Es mag ja ok sein, dass man die Artikel nicht vereinigt. Dann verstehe ich aber nicht, warum der begriffliche Missbrauch in der Wirtschaftstheorie hier mehr Erwähnungsberechtigung hat. Das hat nun weitaus weniger mit der physikalischen Entropie zu tun als der Begriff aus der Informationstheorie, dessen Mathematik absolut identisch ist mit der hier beschriebenen Statistik der Mikrozustände. Zwischen den Bits einer Nachricht und z.B. den Spinzuständen unterscheidet in diesem Sinne lediglich die Wechselwirkung. Den Hinweis auf das Maß der Information kann sich auch dieser Artikel nicht verkneifen. Nopherox 07:55, 15. Jun 2005 (CEST)

Absolut abschreckend

die Einleitung des Artikels, da sind alle Physikbücher die ich kenne zu dem Thema weitaus verständlicher. --Dirk33 01:39, 6. Jun 2005 (CEST)

Wer auch immer an der Einleitung seine Finger gelegt hat, hat keine Ahnung was er da geschrieben hat. Sorry, aber jetzt steht da schlicht und einfach nur Unsinn. Erstens kann man auch einem Einteilchensystem eine Entropie zuordnen (auch wenn das nicht häufig geschieht und meist unnötig ist) und zweitens ist der Ausdruck dS = delta Q/T eine differentielle(!) Größe, was zeigt, dass der Schreiber nicht weiss was er tut. Es fehlt der Hinweis, dass die Entropie extensiv ist, der Vergleich mit intensiven Größen wie Temperatur T und Druck p ist in diesem Zusammenhang etwas unglücklich. Und das ist nur der erste Abschnitt. Ich will garnicht über die nachfolgenden Absätze reden. Leute ihr sollt nicht mit eurem Halbwissen glänzen, recherchiert mal genauer, bevor ihr was schreibt, das erspart eine Menge Arbeit. Und kommt mir nicht mit Brockhaus und Konsorten, lest mal lieber richtige Bücher/Skripten zu dem Thema, im Internet gibt es genug für umsonst. Einfach nach Thermodynamik oder Statistische Physik + Skript googeln. David314 20:46, 15. Jun 2005 (CEST)

Hallo, klopf' nicht so viele flotte Sprüche, setze den Hobel an und mach was aus dem Artikel.

P.S. es ist ja alles nicht falsch was du hier sagst.--Heliozentrik 23:08, 15. Jun 2005 (CEST)

Ich hatte die alte Einleitung geschrieben ;) Ich sehe ja ein, dass die vielen Informationen auf den ersten Blick erschlagen. Wer sich aber damit einigermaßen auskennt bekommt bei diesen oberflächlichen Erklärungen Probleme. Vor allem, wenn offensichtliche Fehler auftauchen, der Begriff der Entropie geht sehr tief und man kann den nicht mal eben so im Vorübergehen erklären, vor allem ohne auf die Thermodynamik einzugehen. Ich selbst habe Jahrzehnte gebraucht um dahinterzusteigen und das ist auch auf die unseligen Vergleiche mit unordentlichen Zimmern u.ä. zurückzuführen. Ich schreib gleich noch was dazu. David314 23:30, 15. Jun 2005 (CEST)

ack, es liegt doch aber in der Natur der Sache, dass hier in der WP Leute mit den unterschiedlichsten Vorkennnissen reinschauen. M.E. sollte jeder, wenn er die Tür wieder zu macht, ein Aha-Erlebnis mitnehmen. Es geht an dieser Stelle doch nicht primär um eine wissenschftlich exakte Darstellung. Man kann sich einem Thema von verschiedenen Seiten aus nähern, eine populärwissenschaftliche Darstellung ist nicht deshalb falsch, weil sie Nature nicht drucken würde. Etwas weniger Eitelkeit täte uns allen wohl manchmal gut.--Heliozentrik 23:45, 15. Jun 2005 (CEST)

Einleitung

Hallo, hat deine Verschiebeaktion einen tieferen Sinn? Bevor Claudius etwas einführt oder Bolzmann etwas zeigt sollte wohl mit ein paar Sätzen gesagt werden, worum es geht. Der Hinweis, dass es sich um eine Zustandsgröße handelt, ist doch ziemlich nichtssagend. Gruß --Heliozentrik 13:51, 12. Jun 2005 (CEST)

Hallo Heliozentrik! 1) Ja. Damit die Übersicht kurz bleibt, ersetzt dein neuer Satz den dritten Abschnitt, der jetzt in der Einleitung steht. 2) Es ist keineswegs trivial, dass die Entropie eine Zustandsgröße ist. Bis Carnot hatte man versucht, die Wärmemenge dazu zu machen (das sog. Caloricum). Anton
es hat niemand behauptet, der Verweis auf Zustandsgröße sei trivial ( = allg. bekannt). Er ist halt ohne die Ausführung nichtssagend. Offenbar empfinden das ja auch andere Leser so. --Heliozentrik 14:45, 12. Jun 2005 (CEST)
OK, nun verstehe ich besser (Zustandsgröße klingt in meinen Ohren wie ein Akkord). Vielleicht könntest du neue Formulierungen einarbeiten? Anton

Was ist denn eigentlich gegen "Die Entropie nimmt zu. Was bedeutet dieser Satz, der in vier Worten die Grenzen umschreibt, innerhalb derer sich die Welt entwickelt? Er sagt: die Physik ist in der Lage, alle Vorgänge des Universums zusammen durch eine Zahl zu kennzeichnen, die von Zeitpunkt zu Zeitpunkt kontinuierlich anwächst. Für Teile des Universums kann diese Zahl jedoch abnehmen, auf Kosten des Restes. Diese Tatsache bildet die Grundlage jedes Lebens. Die Sprache der Physik bedingt jedoch eine abstraktere Formulierung." zu sagen, ausser dass es nicht enzyklopädisch genug ist? 6 einfache Sätze, bevor die Physik in ihrer ganzen Brutalität wieder nach beliebten zuschlagen kann?RaiNa 19:22, 12. Jun 2005 (CEST)

"Diese Zustandsgröße ist ein Maß für die Irreversibilität (Unumkehrbarkeit) von thermodynamischen Prozessen." Der Satz ist falsch. Die Entropie wird dafür verwendet, ist aber kein Maß dafür. Eine Zunahme der Entropie zeigt an, das ein irreversibler Prozeß stattgefunden hat.--Physikr 21:20, 12. Jun 2005 (CEST)

-obschon unter Zunahme der Entropie auch reversible Prozesse ablaufen. --80.134.220.85 22:16, 12. Jun 2005 (CEST)

Wie Du das verstehen willst, mußt Du schon erklären. In einem geschlossenem System kann die Entropie höchstens steigen, aber nicht abnehmen (d.h. bei zwei oder mehr Teilsystemen kann ein Teilsystem Entropie verlieren, diese Menge an Entropie erhalten dann die anderen Teilsysteme zusätzlich) - aber ein reversibler Prozeß heißt ja, daß am Ende genau so viel Entropie vorhanden ist, wie am Anfang der Prozeßkette. Das bedeutet: wenn am Ende der Prozeßkette die Entropie die gleiche wie am Anfang wäre und einzelne Prozeßschritte die Entropie erhöhten, daß es Prozeßschritte geben würde, die die Entropie vermindern - und das ist unmöglich bzw. statistisch so selten möglich, daß es auszuschließen ist.--Physikr 07:31, 13. Jun 2005 (CEST)
Ich will nur mal wieder ins Gedächnis rufen: Wirklich reversible Prozesse gibt es im Makroskopischen nicht! Das sind Gedankenexperimente. Für mich ist absolut klar: ein wirklich reversibler Prozess ist ein Prozess, der mit mir nicht wechselwirkt, also für mich überhaupt nicht bemerkbar und somit existent ist.
Aber es gibt ein ganz einfaches System: der ungedämpfte harmonische Oszillator. Er ist eine Maschine, die kinetische Energie in potentielle Energie wandelt. Und er ist zyklisch, wie man zyklischer nicht sein kann. Damit kennt er aber auch keine Zeit. Seine Schwingung kann man nur feststellen, wenn man ihn beobachtet, also stört. Damit gibt man aber die Forderung nach Reversibilität auf. Als Uhr eignet er sich, wenn er idealer reversibel ist als der Beobachter.RaiNa 08:20, 13. Jun 2005 (CEST)

Humor

Ich weiß zwar nicht, wie es anderen Lesern geht, aber wenn ich ich in einer Enzyklopädie ein nicht - triviales Thema wie Entropie nachschlage und in dem Artikel Bilder von Max und Moritz angeboten bekomme... (ich verkneife mir den Kommentar)

Obwohl die Diskusion oben schon mal geführt wurde, stelle ich zur Diskusion, den Abschnitt zu löschen oder zu verschieben, wohin auch immer.--Heliozentrik 19:30, 12. Jun 2005 (CEST)

Warum bilden eigentlich Humor und Physik immer komplementäre Größen? Kauft wirklich keiner eine Enzyklopädie, wo der Begriff erstmal anschaulich oder intuitiv erklärt wird? Wie auch immer, das zugehörige Bild ist ohne den Text höchst überflüssig. Nopherox 07:37, 15. Jun 2005 (CEST)

Weil Physiker einfach keinen Humor haben, wenn sie nicht entweder genial oder keine Physiker sind.RaiNa 07:39, 15. Jun 2005 (CEST)

Toller Spruch, nur kann man solche Essays, wie gerade gelöscht, in jeden Artikel einstreuen und damit jedes Thema verwässern. Wenn man was zum Lachen wünscht, kann man sich ja die B___-Zeitung kaufen.--Heliozentrik 11:19, 15. Jun 2005 (CEST)
Willst du damit zum Ausdruck bringen, dass der Informationsgehalt von Wikipedia und der bewussten Zeitung ansonsten etwa gleich zu bewerten ist? Nopherox 18:17, 15. Jun 2005 (CEST)

"Unordnung"

Heliozentrik schrieb: Vereinfacht gesagt, ist Entropie so etwas wie die mathematische Bewertung der "statistischen Unordnung" der Teilchen in einem System.

Ich bin mit dem Begriff Unordnung gar nicht glücklich, weshalb ich das Bild mit den zwei Gläsern eingestellt hatte. Nach meinem Ordnungsempfinden ist das rechte Glas ordentlicher umgerührt; dennoch ist hier die Entropie größer. Anton 21:41, 13. Jun 2005 (CEST)

Die Unordnung (=nicht nach einer bestimmten Ordnung angeordnet) der Teilchen ist im rechten Glas höher. Ist halt so'ne Sache mit dem 'persönlichen Empfinden'--Heliozentrik 11:59, 15. Jun 2005 (CEST)

Das mit der Unordnung sollte weg. --Pediadeep 22:36, 13. Jun 2005 (CEST)

Kein Problem, mach was besseres. M.E. sollte der Artikel versuchen, für jeden Leser eine Antwort zu bieten, von populärwissenschaftlich über wissenschaftlich exakt bis hin zu meinetwegen nobelpreiverdächtig, aber bitte genau in dieser Abfolge.

PS: @Pediadeep: was war jetzt eigentlich mit Max und Moritz?--Heliozentrik 23:37, 13. Jun 2005 (CEST)

Aah, das ist schwierig mit dem populären.... "Bewertung der Unordnung" ist einfach falsch, da kann man nichts machen. Es geht eben nicht ohne macro- versus micro-Zustand. Schwierig, schwierig, das popkompatibel zu schreiben. Vielleicht gehts einfach nicht so knapp wie man sichs wünschen würde. Wenn man das aber richtig erklären würde, und ein paar von den pop-Kunden verstehen es, dann wär das ein RIESIGER Gewinn. Ich denke es wäre besser, wenn man mal in sich gehen würde, und das richtig ausformuliert. Auch auf die Gefahr hin, dass die Einleitung dann etwas länger wird, denn das ist eben der Kern der Sache.

Max ... ja das ist auch ein Problem. Eig. denke ich der Humor ist erstens falsch, und der Form nach nicht angebracht. Wenn man dann aber an das Volk (=Pop) denkt wäre ein wenig lockeres Anschauungsmaterial angesichts der Sperrigkeit des Themas ev. angebracht. Ich mag übrigens das Beispiel mit der Entwicklung eines typischen Kinderzimmers lieber. Da kann man sehr schön die Zunahme der Entropie beobachten. Wir schaffen das (Zitat: "Bob der Baumeister"). --Pediadeep 00:27, 14. Jun 2005 (CEST)

Habe mal etwas in befreundeten Nachschlagewerken wie Brockhaus und Großer Meyer geblättert. Die habe kein Problem damit, E. als Maß für den Ordnungszustand' bzw. Maß für die Unordnung in einem thermodynamischen System zu erklären. Angesichts der Tatsache, dass es sich um überaus seriöse Nachschlagewerke handelt, kommt mir die ganze Diskusion hier etwas seltsam vor.--Heliozentrik 11:59, 15. Jun 2005 (CEST)

Geschwindigkeit

Die Temperatur ist doch ein Mass für die (durchschnittliche) Energie in jedem Freiheitsgrad, oder ist sie nicht? Muss man noch richtig formulieren. --Pediadeep 23:54, 14. Jun 2005 (CEST)

Für die (absolute) Temperatur gibt es eine wasserfeste Definition, sie ist gegeben als die partielle Ableitung der inneren Energie E nach der Entropie bei festgehaltenem Volumen/Teilchenzahl/etc., steht im ersten Hauptsatz: , also . Ohne Entropie gibt es also keine absolute Temperatur. Das Äquipartitionsprinzip, das jeder Freiheitsgrad im Mittel die Energie besitzt, ist eine Folge und nicht die Definition. Zumal es ja auch nicht allgemeingültig ist, da Freiheitsgrade ausfrieren können! David314 23:54, 14. Jun 2005 (CEST)

Unwissenheit vs. Unordnung

Wenn das ein Hinweis auf thermodynamische Wahrscheinlichkeit sein soll, dann ist er aber perfekt verschlüsselt. Sieht so eher nach Theorienfindung aus.--Heliozentrik 11:27, 15. Jun 2005 (CEST)

Also mal ein paar hoffentlich erhellende Worte, warum der Vergleich von Entropie mit einem Maß für Unordnung verwirrend ist. Zunächst betrachten wir das ganze klassisch, weil viele das lieber haben. Da haben wir den Phasenraum, in dem sich unser System bewegt. Einigen sagt ja Phasentrajektorie etwas und wir definieren die Entropie als das Maß des Phasenraumvolumens, in dem sich unser System wohl befindet, zumindest wissen wir es nicht so genau. Woran liegt das? Es ist einfach die schiere Anzahl von Freiheitsgraden _und_ die Tatsache, dass sich das System in ständiger Veränderung befindet. Das ist ganz wesentlich! Nehmen wir kurz an, dass es eingefroren wäre, dann könnten wir (klassisch) mit der Zeit immer mehr Information aus dem System herausholen. Also streng genommen alle Atome abzählen und Positionen und Impulse aufschreiben. Abgesehen davon, dass wir wegen der Papiermenge ein echtes Umweltproblem am Hals hätten, könnte man rein theoretisch also das Phasenraumvolumen immer weiter eingrenzen, bis wir an einem Punkt gelangt wären. Der das Maß Null hat und damit haben wir den Mikrozustand vor uns. Wir sagen dann, das System hat die Entropie Null. Aber Moment einmal! Das System ist ja eingefroren und gerade eben war die Entropie noch sehr groß! Wie kann das sein? Die Entropie ist doch eine Zustandsgröße! Es ist auch kein bisschen ordentlicher geworden, aber wir wissen jetzt in welchem Zustand es sich befindet. Offenbar hängt die Entropie vom Aufwand ab, den der Beobachter betreibt, das System näher kennenzulernen! Aber in Wirklichkeit ist das nicht sehr praktikabel, da die meisten thermodynamischen Systeme uns nicht den Gefallen machen einfach stehenzubleiben. Selbst in flüssigem Helium nahe dem absoluten Nullpunkt bewegen sich die Atome ständig, mit anderen Worten man kann einfach nicht feststellen in welchem (Mikro)Zustand sich das System befindet. Eine solche Messung ist weder durchführbar noch wünschenswert (wen interessiert schon an welcher Stelle Atom Nr.18274512378 sitzt? In der nächsten Sekunde ist es eh wieder ganz woanders und jeder Meßfehler wächst exponentiell an). Man beschränkt sich daher auf makroskopisch zugängige Größen, die sogenannten (makroskopischen) Observablen, die meist Erhaltungsgrößen des Gesamtsystems sind (Volumen, Masse/Teilchenzahl,Impuls, Drehimpuls,Energie,...). Hat man diese Observablen bestimmt kann man nun überlegen, welche Mikrozustände zu diesen Beobachtungen passen. Die Gesamtheit aller erreichbaren Mikrozustände bildet einen bestimmten Bereich im Phasenraum, dessen Maß ist unsere Entropie! Da das System eh ständig von Mikrozustand zu Mikrozustand hüpft (auf der Phasentrajektorie) können wir mit gutem Gewissen annehmen, das es im Prinzip jeden erreichbaren Mikrozustand im Laufe der Zeit tatsächlich durchläuft. Das nennt man die Ergodenhypothese und Systeme, die das machen sind ergodisch. Diese Idee hat zwar Probleme, aber lasst uns erstmal darüber hinwegsehen. Das System soll also ständig durch das gesamte durch die Entropie gemessene Phasenraumvolumen laufen. Und das ist der Knackpunkt! Nur dann ist jeder Mikrozustand gleich wahrscheinlich (und alle weiteren Folgerungen sinnvoll), wenn das System tatsächlich eine Evolution durchmacht. Wenn es ständig im gleichen Mikrozustand verharrt ist jede Statistik sinnlos! Was hat das nun mit einem unordentlichen Zimmer zu tun? Ihr ahnt es schon: Nicht viel. Das Zimmer ist bezüglich seiner makroskopischen Elemente wie Unterhosen, leere Bierdosen, CDs, Bettwäsche und Pantoffeln nicht ergodisch. Naja zumindest wenn nicht gerade ein Erdbeben stattfindet. Man kann die Anordnung der Elemente ziemlich gut ausmessen (wenn wir mal von der mikroskopischen Struktur absehen, aber darum geht es in dem Beispiel ja nicht) und damit die Entropie immer weiter senken, aber leider wird das Zimmer davon auch nicht ordentlicher. So jetzt genug gelesen, räumt mal euer Zimmer auf, das sieht ja heute wieder aus! Nächstes mal was zur Quantenstatistik :)

David314 00:09, 16. Jun 2005 (CEST)

ist nicht bös' gemeint, denk' mal einen Moment nach, wo wir hier sind und was wir wollen. Unter absolut abschreckend habe ich auch schon versucht, dir was zu sagen.