Diskussion:Entropie (Thermodynamik)
Ältere Diskussion
Rudolf Clausius
bitte beachten und evtl in den artikel einfuegen
Es soll nochmals angemerkt werden: Die Entropie eines Systems ist das Integral über die zugeführte Wärmemenge, geteilt durch die Temperatur des Systems im Moment der Wärmezufuhr. Somit kann ein System ohne Energie, also bei Temperatur 0 keine Entropie haben. Führt man eine minimale Energiemenge zu, so ist der Entropieinhalt eigentlich unendlich, da man durch Null teilt. Jede weitere Energiezufuhr (nun bei Temperatur > 0)erhöht die Entropie. Insofern sollte die Entropie keinen absoluten Wert haben, vielmehr geht es immer um Differenzen.
- (Anmerkung hierzu: das ist Quatsch. Waermekapazitaeten gehen immer mindestens genausoschnell gegen null wie die Temperatur. Typischerweise wie a*T^(-1) (Leitungselektronen) +b*T(-3) (Phononen). Damit bleibt das Integral endlich, und der 3. HS ist sinnvoll!) 164.15.131.28
- Das wiederum ist Quatsch². Ich habe ein absolut energiefreies System. Das hat definitiv die Temperatur 0. Jetzt führe ich Energie zu.... Das ist doch nur eine Überlegung die zeigt, dass das, was ansonsten im Artikel steht, einfach nicht überlegt ist. Auch wenn das Integral endlich ist, ist es keineswegs 0, wie behauptet. Da es im Leben nachher nur um den Entropieunterschied geht, kann man wohl den Wert auch definieren. Es sei denn, es gibt Experimente, die eine Festlegung der Integrationskonstante ermöglichen.
- Dann muss man sich auch klar machen, dass es ein System ohne Energie auch nicht gibt. Wir haben immer die Nullpunktsenergie. Das extremste was man sich vorstellen kann ist ein Kristall, bestehend aus zwei Stücken Bose-Einsteinkondensat, einen Harmonischen Oszillator bildend.
- Ich kann nicht erkennen, und ich hoffe, mit mir viele, wie man Entropie definieren sollte, ohne mindestens zwei Größen benennen zu können. Also, bitte sucht irgend etwas sinnvolles für die Informationsentropie, wenn schon 99,99% der Information sowieso redundant ist.(Bitte nicht auf Kommastelle festnageln)RaiNa 13:54, 15. Feb 2005 (CET)
Ein Blick in *irgend* ein Festkörper-Lehrbuch würde zeigen, daß (1) ich recht habe, was das Verhalten der Wärmekapazitäten bei tiefen Temperaturen angeht, und damit (2) das Integral C dT/T der abgegebenen Wärmemenge pro Temperatur (also die Entropieerniedrigung) bis zum absoluten Nullpunkt fortgesetzt werden kann. Das uneigentliche Integral existiert, und man kann den thermodynamischen Entropienullpunkt ganz klar und eindeutig für eine reine, regelmäßig kristallisierende Substanz am absoluten Nullpunkt setzen.
- Ja, das Argument ist gut und trifft es|zu. Denn es beschreibt eine begrenzte Situation und lässt durchaus zu, zu fragen, was ist ausserhalb. In Bereich Entropie geht es ja hin und her, da kann man nicht immer alles lesen. Wenn man also definiert! dass ein System mit Nullpunktsenergie die Entropie 0 hat, dann kann man darauf aufbauen. Jetzt regt man den Oszillator mit dem niedrigsten Energieniveau an und damit ändert sich der Entropiewert. Nur, in solchen Situationen redet man ja noch nicht von Temperatur, da kennt man die möglichen Zustände ja noch beim Namen und begrüßt sie mit Handschlag. Entropie ist halt Statistik und es macht auch keinen direkten Sinn, die Entropie eines Hammers in einem Mol H2 auszurechnen ;) Zwei Gründe gibt es, warum ich versuche, möglichst einfach darzustellen, was Entropie ist: Einmal, die Entropie nimmt zu. Das gilt auch für obiges, unsinniges Beispiel. Und diese Erkenntnis kommt unter die Räder, wenn man das Beispiel als unsinnig abtut. Sie kann aber sehr wichtig sein, wenn man etwa darüber streitet, wie der Geist "funktioniert". Das zweite ist, dass man den Begriff in die Informationstheorie einführt nach dem alten Motto, wenn Du etwas nicht verstanden hast, führe einen neuen Begriff ein, wiederhole ihn ausreichend oft, und Du wirst zum gefragten Spezialisten. Denn, und das kommt nun im Artikel gottseidank ausreichend heraus, der Begriff der Unordnung ist so ziemlich das ungeeignetste, was man sich hat einfallen lassen können. Hoffnung wächst! RaiNa 10:18, 16. Feb 2005 (CET)
Sodann kann man sich folgendes klarmachen: Man füge einem System eine minimale Energiemenge dE zu bei Temperatur T0, die Entropiedifferenz ist dE/T0, die Temperatur erhöht sich um dT. Dann entziehe man dem System die Energiemenge dE wiederum. Die Entropiedifferenz ist nun dE/(T0+dT). Da man real den mathematischen Übergang lim dE->0 nicht machen kann, würde dies bedeuten, dass man bei wiederholtem Durchlaufen der Schleife die Entropie eines bestimmten Zustandes beliebig groß machen kann. Folglich sind reversible Prozesse in abgeschlossenen Systemen nicht möglich.
Insofern ist die Frage, ob eine Entropie für Daten existieren kann, wenn man keine Angabe zu der beinhalteten Information macht, zumindest zu stellen. RaiNa 17:26, 29. Sep 2004 (CEST)
- RaiNa, wenn du die alten Quellen hast, schreib doch mal was über die Geschichte der Entropie. Obwohl Clausius die Entropie "erfunden" hat, beschrieb erst Boltzmann eine schlüssige Theorie auf statistischer Grundlage. Clausius wird schon gewusst haben, dass man die Temperatur 0 nicht erreichen kann, aber er konnte noch nicht genau wissen, warum. Entropie von Daten gibt es überhaupt nur, wenn man den Informationsgehalt betrachtet. Ich habe auch schon darüber nachgedacht, wie man die Entropie dieses Themenkomplexes in wikipedia senken kann, aber die Wahrscheinlichkeit des gegenteiligen Effekts lässt sich nur mit einem sehr scharfen Energiewert im besten heisenbergschen Sinne minimieren, und der fehlt mir leider. Nopherox 21:20, 14. Feb 2005 (CET)
Anmerkung:
Die Charakterisierung "Die Entropie ist ein Maß für die Unordnung oder Zufälligkeit eines Systems" ist falsch. Die Entropie ist eine Zustandsgröße eines Systems, sie hat in unterschiedlichen Zuständen des Systems unterschiedliche Werte. Daher kann sie kein Maß für die Unordnung eines Systems sein. Wenn schon, dann ist die ein Maß für die Unordnung des Systems in einem bestimmten Zustand. (Tostro)
(Entropie ist ein Mass fuer die Zahl der Realisierungsmoeglichkeiten eines Makrozustands. Aber bitte nicht "Quantenzustands". Die zentrale Eigenschaft ist die Additivitaet fuer unabhaengige Systeme, deswegen ist sie proportional zum Logarithmus der Zahl der Mikrozustaende.)
Negentropie
Ich bin kein thermondynamik Experte. Tatsächlich wollte ich mein Wissen darüber bei Wikipdia aktualisieren; Aber einen Diskurs ueber "Negentropie" gibt es in der Physik meines Wissens nicht. Aus Sicht der Physik ist die Tatsache, dass andere Wissenschaften lieber 1/Entropie als Einheit verarbeiten ist zwar interessant, führt aber zu keinem Diskurs.
Der Abschnitt klingt so, als gaebe es da noch ein geheimnis: das ist meines wissens nicht der Fall.
ein x-bel. physik student
Es gibt gibt physikalisch keine Temperatur 0 ohne Masseinheit. Wenn eine Temperatur beschrieben werden soll, dann sollte sie immer eine Masseinheit haben, In diesem Fall evtl. 0 (Null) Kelvin.
Ein Heizungs-Lüftungs- und Klima-Techniker
Drohende Missverständnisse
(Aus dem artikel hierher verschoben)
2. Entropie als Unordnung???
Die weitverbreitete Vorstellung, Entropie habe etwas mit einer geometrisch verstandenen Unordnung zu tun, ist fehlerhaft und hat bisher zumeist verhindert, die Entropie als Quantenphänomen richtig zu verstehen. Im Vorwort zum Lehrbuch: Physik der Wärme, von CH. KITTEL und H. KRÖMER, heißt es: Ohne Quanten-Begriffe gibt es keine diskreten und damit abzählbaren Zustände und ohne abzählbare Zustände bleibt die Entropie unverständlich.
Quelle: [1]
(Das ist auch nicht richtig. Es ist sehr wohl moeglich, in einer klassischen Welt auf hoeherdimensionalen Mannigfaltigkeiten ein Mass einzufuehren, und das zu benutzen, um ueber Entropiedifferenzen zu sprechen.)
Entropie beschreibt nicht die "Unordnung eines Systems"
(Aus dem artikel hierher verschoben)
WICHTIG: Dieser Artikel ist konzeptionell fehlerhaft. Entropie beschreibt nicht die "Unordnung eines Systems" (die sich objektiv gar nicht definieren liesse), sondern ist ein für unabhängige Systeme linear additives Maß für die Größe des Raums der Mikrozustände, die eine gegebene 'Beschreibung' eines Systems realisieren: Entropie wird damit 'Beschreibungen' von Systemen, und nicht den Systemen selbst zugeordnet!
Toll! Da sind wir ja wieder da angekommen, wo wir immer schon gerne sein wollen. Anstatt dass man sich die Mühe macht, den Artikel zu überarbeiten und die Kritik einzubauen, wird sie rausgenommen, damit der unbedarfte Leser weiter ungestört den alten Fehlern nachhängen darf. Um die Frage zu beantworten, warum ich selbst das nicht tue? Ich habe genügend oft Prügel eingesteckt und keine Lust mehr. RaiNa 15:43, 6. Feb 2005 (CET)
Überarbeiten
Dieser Artikel ist redundant und erhöht damit die Entropie der wikipedia in einem hohen Ausmaß. Kann nichtmal jemand die vielen Artikel über Entropie restrukturieren? Wenn dieser Artikel hier Sinn macht, doch dann nur, um einen kurzen Überblick zu geben. In Entropie (Physik) und Entropie (Informationstheorie) gibt es viel präzisere und korrektere Erläuterungen, und die sind z.T. auch noch redundant. Was allenfalls noch fehlt, ist ein Artikel über Die Mystik der Entropie oder so. --Nopherox 21:52, 14. Feb 2005 (CET)
81.242.232.94 00:58, 26. Apr 2005 (CEST)
Das Problem ist leider gerade, dass einiges, was in den Entropie-Artikeln so steht, falsch und zudem irrefuehrend ist. Es gab hier schon mal eine aeltere Fassung eines knappen Entropie-Artikels, der alle Facetten gebuehrend beleuchtet hat, alle Missverstaendnisse ausgeraeumt hat, insbesondere auch im Detail gezeigt hat, warum die informationstheoretische Entropie und die physikalische Entropie haargenau dasselbe sind. Der wurde aber leider komplett weg-erodiert.
Ja, es ist moeglich, Entropie umfassend und korrekt so zu erklaeren, dass alle der vielen verbreiteten Missverstaendnisse angesprochen und ausgeraeumt werden, und jeder mit hinreichend Nachdenken verstehen kann, worum es bei der Entropie eigentlich geht. Allerdings frage ich mich inzwischen ernsthaft, ob es nicht einen so starken latenten Drang gibt, sich lieber vom Entropie-Begriff verwirren zu lassen, dass so eine Erklaerung in der Wikipedia keinen Bestand haben kann. Irgendwie finde ich das jedenfalls arg traurig, zumal der erste Treffer auf google.de zum Thema "Entropie" dieser Wikipedia-Artikel ist.
Ich moechte euch bitten, noch mal einen genauen Blick auf diese Version zu werfen:
http://de.wikipedia.org/w/index.php?title=Entropie&oldid=4551968
Ja, das ist knapp. Ja, das ist nicht ganz einfach zu verstehen. Ja, in dem Artikel ist alles drin, was man braucht, um diese unselige Zersplitterung des Entropie-Begriffs aufzuheben. Und ja: er raeumt alle Missverstaendnisse aus, die die Physiker, die auf Wikipedia "Entropie" nachschlagen, gerne geklaert haetten.
Zum neuen Artikelstand 2005-02-17
Nach diesem "Befreiungsschlag" ist es wohl adäquat, auch die Diskussionsseite zu entrümpeln.
Erst mal danke für die Verbesserung von Tippfehlern.
Was die Zergliederung des Inhalts anbelangt, so weiß ich nicht, ob das eine gute Idee ist, weil sie dem Leser viel zu stark suggeriert, hier würden unabhängige Aspekte nebeneinander kurz in wenigen Sätzen erklärt, wohingegen die wirklich interessanten Dinge (also auch das, was normalerweise Mißverständnisse verursacht) zwischen diesen verschiedenen Aspekten geschehen. Das war in meinem ursprünglichen Artikel durchaus überlegt und mit Absicht so strukturiert.
Nachgetragen: 16:36, 17. Feb 2005 Benutzer:Doctom
- Ich habe die alte Diskussion wiederhergestellt. --Pjacobi 16:54, 17. Feb 2005 (CET)
- An dem Einwand gegen die Zergliederung ist was dran. Andererseits ist in dem Artikel schon Einiges drin, das vielleicht über das hinausgeht, was man Enzyklopädielesern zumuten kann. Das ist nicht als Kritik gemeint. Darum mein Versuch, den Artikel durch Unterteilung etwas aufzulockern. Vielleicht reichen ja auch nur ein paar klarere Absatzbildungen um aus der Zergliederung eine Gliederung zu machen. --Götz 23:20, 17. Feb 2005 (CET)
"Oma-Test"?
Was würden bloß unsere Großmütter von diesem Artikel verstehen? Würden sie auch nur ansatzweise begreifen, was in etwa der Begriff umschreiben soll?
Entschuldigung, aber ich als Medizinstudent und "Ex-Physik-Gutseier" in der Schule kann im Prinzip der jetzigen Form des Artikels in den ersten zwei Sätzen kaum entnehmen, worum es bei diesem (zugegebenermaßen abstrakten) Begriff (ich kannte ihn von der Thermodynamik) eigentlich auch nur grob gehen soll... Ich weiß, dass es schwierig sein kann, so abstrakte Begriffe relativ schnell und auch noch möglichst "präzise" zu beschreiben, aber wir (Ihr?) müssen uns dennoch mit solchen "Trivialitäten" abgeben, sonst werden NaturwissenschaftlerInnen (und auch Angrenzendes, wie MedizinerInnen) funktionell zu einer Art unverständlicher, moderner, quasi-magischer "Priester-Kaste" für die Laien... ;-) Immerhin soll ja bei der Wikipedia auch ein zwanzigjähriger, sagen wir, Hobby-Lyriker, der über das (mystisch) klingende Wort stolpert, "kurz mal" nachschlagen können, was - ganz im Groben - das eigentlich ist! Oder?
Vielleicht kann ich mit einem Zitat illustrieren:
- en·tro·py, n. pl. en·tro·pies
- 1. Symbol S. For a closed thermodynamic system, a quantitative measure of the amount of thermal energy not available to do work.
- 2. A measure of the disorder or randomness in a closed system.
- 3. A measure of the loss of information in a transmitted message.
- 4. The tendency for all matter and energy in the universe to evolve toward a state of inert uniformity.
- 5. Inevitable and steady deterioration of a system or society.
Gut, es ist ein englischsprachiger Lexikoneintrag, aber er hilft Laien doch ganz gut, eine erste Verortung des Begriffs vorzunehmen, auch wenn ja offensichtlich mindestens Punkt 2 verfälschend dargestellt ist...
Vielleicht würde es Laien (die bestimmt öfter, als man so denkt, mal über so einen Begriff stolpern, via Science-Fiction z.B.) schon helfen, wenn man einfach eine vielleicht simplifizierende, aber doch definierende Einleitung schreibt, oder zumindest den etwas "anschaulicheren" Statistik-Abschnitt weiter nach oben verlegt (v.a. wegen des treffenden Beispiels, welches so ähnlich bestimmt schon mal den einen oder anderen beschäftigt hat und durchaus allerlei [alltags-] philosophische Probleme anschneidet)?
Ich bin mir dessen bewusst, dass das mal einfacher so eben gasagt als realisiert ist, aber ich bitte darum, dieses Anliegen dennoch ernst zu nehmen, denn die Wikipedia soll schließlich auch Nicht-Fachleuten die Welt (zumindest das Stichwort) erklären, und der Welt schadet's sicher auch nicht, wenn mehr Omas physikalisch-philosophische Konzepte / Begriffe kennen lernen - hilft halt beim (begrifflich) sauberen Denken ;-) -- marilyn.hanson 21:04, 19. Feb 2005 (CET)
- Da ist was dran. Wenn der Stil der Entropie-Erklärung so ist, dass Leute, die diesen Stil verstehen, ohnehin nicht nötig haben, Entropie erklärt zu bekommen, dann ist die "Oma" schon gleich ganz verloren. --Götz 10:34, 23. Feb 2005 (CET)
Von den Problemen mit pseudowissenschaftlich belasteten Begriffen
Leute... Das *ganz* große Problem, das die Wikipedia hat, ist, daß gerade ganz speziell zu irgendwelchen physikalischen Themen durch Hawking und Co ein Haufen Populär-Pseudowissen durch die Köpfe der Menschen geistert, und gerade die Wikipedia jetzt auch noch eine Plattform bietet, die es Laien ermöglicht, dieses Pseudowissen als enzyklopädische Definition zu zementieren. Kann ja gut sein, daß das genau das ist, was die Wikipedia eigentlich sein will: eine Plattform die es erlaubt, jeden Begriff in einer möglichst platten Form darzustellen, ohne Rücksicht darauf zu nehmen, was denn Experten zu diesem Thema zu sagen haben. Von mir stammt die Neufassung, die dem derzeitigen Artikel zugrunde liegt, http://de.wikipedia.org/w/index.php?title=Entropie&oldid=4532533, und im folgenden zuerst ein wenig mit zusätzlichen Links und der Umstellung auf die offizielle Rechtschreibung verschönert, dann nach und nach aber wieder verhuzelt wurde mit Teilen, die da einfach nicht rein gehören, wie z.B. dem "Humor"-Abschnitt - oder wenn man so will auch schon der Neugliederung, die die vereinheitlichende Diskussion, die alle Aspekte des Begriffs unter einen Hut zu bringen versucht hat. Was ist denn bitte an dem folgenden ursprünglichen ersten Satz für einen der deutschen Sprache mächtigen Leser nicht zu verstehen?
"Der Begriff der Entropie wurde ursprünglich von Rudolf Clausius in der (phänomenologischen) Thermodynamik eingeführt, um eine quantitative Analyse der Frage zu ermöglichen, welche Prozesse in der Natur von selbst ablaufen können, und welche nicht."
Entropie = quantitative Größe; hilft, zu trennen, was von selbst geschehen kann, und was nicht von selbst passiert. Das sollte man doch wohl noch jedem zumuten können, oder?
Es tut mir ja furchtbar leid, wenn anscheinend die Mehrheit der Wikipedianer mit genau der Erwartungshaltung den Entropie-Artikel abruft, da drin ihre naive Populär-Vorstellung, "Entropie sei ein Maß für die Unordnung eines Systems" in freundlichen Lettern bestätigt zu sehen. Nein. Das stimmt so einfach nicht. Das ist einfach nur großer Käse, der aber leider so verbreitet ist, daß man ihn heute auch schon in vielen Physik-Lehrbüchern findet, die Thermodynamik zwar nicht zentral behandeln, aber streifen.
Schaut euch bitte meinen ursprünglichen Artikel noch mal an. Der hat mehr zu bieten als so ziemlich jede Entropie-Definition, die man sonstwo finden kann. Alle Fragen, die sonst normalerweise immer im Zusammenhang mit Entropie irgendwie Verwirrung stiften, werden da kurz und vor allem direkt nachvollziehbar(!) (sofern man das nötige Hintergrundwissen hat - aber nur jemand, der diese Details geklärt haben will, schlägt das ja nach) beantwortet. Die mysteriöse Zeitsymmetriebrechung, die es nicht gibt, Das keine-Entropieerzeugung-in-der-Quantenmechanik-Paradoxon, wie man denn nun "Unordnung" quantifiziert (gar nicht!), und so fort.
Wenn ihr's wirklich so wollt, können wir den Begriff vielleicht spalten:
(1) Entropie
(2) Populärwissenschaftliche Entropie - hier wird Entropie so erklärt, wie nicht physikalisch vorgebildete Leser das gerne lesen würden. (Ist zwar horrend falsch, aber genau das, was jeder hier als Erklärung erwartet.)
- Wer "Populärwissenschaft" nicht richtig erklären kann, vermag vielleicht auch "Entropie" nicht so gut zu erläutern. (Das ist zugegebenerweise eine Vermutung und kein logischer Schluss.) Es gibt keine "populärwissenschaftliche Entropie". Es gibt populärwissenschaftlich erklärte Entropie. Populärwissenschaftliche Erklärungen sind nicht notwendigerweise falsche Erklärungen. Populärwissenschaftliche Erklärungen sind nicht notwendigerweise pseudowissenschaftliche Erklärungen. Sind Wissenschaftler sehr gut, dann können sie frei von Arroganz auch gut populärwissenschaftlich erklären. Sie schaffen Wissen. Erwin Schrödinger gab hier gute Beispiele.
- Vielleicht kann man hier mal ohne Unterstellungen hinsichtlich der Erwartungshaltung "nicht physikalisch vorgebildete Leser" und vielmehr mit Respekt für die "Oma" populärwissenschaftliche Entropieerklärungen sammeln. Wenn dabei mein "Humor"-Absatz wegen einer besseren (Benchmark: Oma-Test) Erklärung rausfliegt, warum nicht? --Götz 21:05, 18. Mär 2005 (CET)
- Bemerkung hierzu: Was erwartet man von einem Lexikon-Artikel zum Thema Entropie? Vielleicht, daß er den Begriff "Entropie" korrekt erklärt?
- Richtig. Vielleicht gelingt sogar eine populärwissenschafttliche und korrekte Erklärung. --Götz 21:56, 19. Mär 2005 (CET)
Doppeleintrag
Entropie und Entropie (Physik) -- Diese Artikel führen eine unerbauliche Parallelexistenz. Mein Vorschlag wäre "Entropy (Humor)" zu entsorgem, einen getrennten Artikel Entropie (Informatik) zu erstellen, den Rest von Entropie kritisch sichten und ggfs in Entropie (Physik) einzuarbeiten, und schlussendlich aus Entropie eine BKL zu machen. --Pjacobi 22:01, 23. Mär 2005 (CET)
- + Entropie (Informationstheorie). Vielleicht kann ja Entropie (Humor) in Entropie (Philosophie) weiterleben... Anton 22:27, 23. Mär 2005 (CET)
- Immerhin freundlich, dass Humor nicht ganz verschwinden soll ;-) Allernings, mit Philosophie hat der Humor, an den ich denke, eher weniger zu tun, denn er basiert ja darauf, dass mit physikalischen Unmöglichkeiten Schabernack getrieben wird. So kann er bei der Veranschaulichung von Entropie helfen. Ich bin auch dafür, aus Entropie eine BKL zu machen, aber bitte die Vorgeschichte nicht verschwinden lassen. In Entropie (Physik) werde ich nach dieser Restrukturierung versuchen, den Begriff auch für Leute mit Hauptschulabschluss in erbaulicher Weise verständlich zu machen - wenn zielführend, auch mit Humor. Entropie (Informatik), Entropie (Mathematik) und Entropiemaße (Wirtschaft) könnten Eigenbehandlungen bekommen. --Götz 22:45, 23. Mär 2005 (CET)
- Ich weiß leider nichts über Entropie in der Wirtschaft und auch nicht in der Mathematik, soweit es über Statistik hinausgeht. Es gibt aber zwischen dem Entropie-Begriff in der statistischen Physik und in der Informationstheorie keinen Unterschied. Es geht dabei immer um eine Behandlung von Wahrscheinlichkeit. Nopherox 18:02, 27. Apr 2005 (CEST)
- Immerhin freundlich, dass Humor nicht ganz verschwinden soll ;-) Allernings, mit Philosophie hat der Humor, an den ich denke, eher weniger zu tun, denn er basiert ja darauf, dass mit physikalischen Unmöglichkeiten Schabernack getrieben wird. So kann er bei der Veranschaulichung von Entropie helfen. Ich bin auch dafür, aus Entropie eine BKL zu machen, aber bitte die Vorgeschichte nicht verschwinden lassen. In Entropie (Physik) werde ich nach dieser Restrukturierung versuchen, den Begriff auch für Leute mit Hauptschulabschluss in erbaulicher Weise verständlich zu machen - wenn zielführend, auch mit Humor. Entropie (Informatik), Entropie (Mathematik) und Entropiemaße (Wirtschaft) könnten Eigenbehandlungen bekommen. --Götz 22:45, 23. Mär 2005 (CET)
Aaahh, das macht hier gar keinen Fortschritt mehr. Ich würde mich gerne einbringen, aber ich bin zuwenig Experte um das neu zu schreiben. Für mich sind Entropie und Entropie (Physik) erstmal entschieden zu lang, um sie irgendwie zusammenzuführen. Auch sind beide Art., neben ihrer Länge, nicht so richtig "zweifelsfrei". Um hier irgendeinen Fortschritt zu erleben, denke ich, sollte man einen der beiden Art. STREICHEN. Ich stimme für Entropie(Physik). Der erscheint vielleicht ein wenig fundierter, ist er aber, m.E., nicht wirklich. Ausserdem muss nat. der Quatsch (Humor) raus. Das bringt doch überhaupt nichts. Ich zumindest würde wahrscheinlich eine Enzyklopaedie mit "Witzen" nicht kaufen. --Pediadeep 21:58, 2. Mai 2005 (CEST)
Ich habe das ganze Zeug erst einmal zusammengeschoben und dabei neben einer neuen Ordnung auch Chaos geschaffen. Der Humorabschnitt liegt mir dabei besonders am Herzen, denn noch nie habe ich eine so griffige Beschreibung gesehen wie diese. Der Abschnitt kann sicher in dieser Form überarbeitet werden, aber bitte nicht vollständig streichen. Er würde dem Artikel helfen, den Oma-Test zu bestehen. --Markus Schweiß, @ 20:54, 15. Mai 2005 (CEST)
- Vielen Dank für die Zusammenführung!
Grundsätzlich finde ich die Idee Entropie und Humor nett (s.o.). Nur halte ich den Abschnitt für zu wenig konkret und ich finde wenig Ansätze, ihn zu spezifizieren. Mindestens sollte er den Ausdruck S= k*ln Ω veranschaulichen. Beispiel: Wieviele gleichberechtigte Zustände gibt es bei der Anordnung der Plätzchen, die an das Bild von Max und Moritz erinnern? Wieviele Zustände gibt es insgesamt?
Annahme: 1000 Plätzchen, die auf ein 1000x1000 Raster (=10^6 Punkte) gelegt werden.
Es gebe 1.000.000 Möglichkeiten, die Plätzchen so zu verteilen, dass das Bild an Max und Moritz erinnert: ln(1.000.000)=14. Insgesamt gibt es 1.000.000!/999.000! =10^6.000 Anordnungen, die Plätzchen irgendwie zu verteilen (zum Vergleich: 1g Wasser hat ca. 10^23 Atome); ln(10^6000)=14.000. Letzer Fall ist demnach deutlich wahrscheinlicher. Spannend wird es, wenn der Rasterabstand auf Atomgröße reduziert wird. Die Zahl der günstigen Fälle wächst um mehrere Größenordnungen, die Zahl der Plätze insgesamt wird riesig. Die günstigen Fälle (Beispiel: Entmischung von Flüssigkeiten) werden praktisch nie beobachtet.Anton 00:07, 16. Mai 2005 (CEST)