Diskussion:Stirlingformel

Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 3. September 2008 um 14:39 Uhr durch 80.129.90.94 (Diskussion) (Stirling-Reihenentwicklung). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Letzter Kommentar: vor 16 Jahren von 80.129.90.94 in Abschnitt Stirling-Reihenentwicklung

Hm, die Unterscheidung zwischen "großen" und "sehr großen" n will mir nicht einleuchten, zumal nicht klar ist, was mit überhaupt ausgedrückt werden soll. Vielleicht ?--Gunther 23:36, 10. Jun 2005 (CEST)

ln(n!)= n ln(n) + 0.5 ln(n) -n + 0.5 ln(2*pi)
Für große n läßt sich letzer Ausdruck vernachlässigen, der zweite ist klein gegenüber dem dritten Term. Die verbleibenden geben eine gute Näherung ab n>1000. Und für sehr große n (n>1E45) ist n klein gegenüber n ln(n), dh. für sehr große n ist n! ca= nn. Zugegebenermaßen kommen so große Zahlen recht selten vor. Für Grobabschätzungen der Zustandszahlen von Molekülen in Gasen können die Beziehungen aber hilfreich sein.Anton 11:53, 11. Jun 2005 (CEST)
Oh, der letzte Punkt würde sich doch gut im Artikel machen? Ich hab mich nämlich schon gefragt, wer so große Zahlen braucht...--Gunther 12:17, 11. Jun 2005 (CEST)

Mir scheint der letzte Satz des Artikels nicht korrekt zu sein. Entropie ist gerade das Fehlen von Information. In der statistischen Mechanik ist mit der Entropie letztlich der Aufwand korreliert, den man treiben muß, um ein System in einen vollständig geordneten und damit bekannten Zustand zu versetzen. Entropie und Informationsgehalt sind daher als komplementäre oder zumindest gegensätzliche Größen zu sehen. Die im Artikel gegebenen Formeln stellen mit der Erläuterung allerdings diese als proportionale Größen dar. Diese Verwechslung ist geradezu populär. Um das Argument vorstellbar zu machen: Ein Kristall ist ein mikroskopisch hochgeordneter Körper, dessen Informationsgehalt wir als hoch ansetzen. Schmilzt der Kristall, so geht diese Ordnung verloren, und wir wissen weniger darüber, wo sich die Teilchen befinden. Der Informationsgehalt ist daher niedriger. Anders gesagt: Auf einem aufgeräumten Schreibtisch brauchen wir weniger zu suchen als auf einem unaufgeräumten.

Der Informationsgehalt eines Kristalls ist denkbar gering, weil die Anordnung jedes Zentrums durch die Strukturparameter definiert ist. Je komplizierter ein Zustand zu definieren ist, desto größer sein "Informationsgehalt". Da es nicht einmal eine schlüssige einheitliche Definition von Information gibt, sollte man ohnehin vorsichtig im Umgang mit dem Begriff sein.

Man darf nicht den Fehler machen, die Entropie der statistischen Mechanik mit der informationstheoretischen zu verwechseln. Der Hauptunterschied besteht darin, daß die physikalische Entropie extensiv (proportional zur Größe des Systems), die informationstheoretische Größe aber intensiv (unabhänig von der Größe des Systems, z. B. der Länge des betrachteten Textes) ist. Man kann diesen Sachverhalt so verstehen, daß es in informatheoretischen Systemen Redundanz geben kann (die bei der Entropiebetrachtung ausgeklammert wird, weil sie weder den Informationsgehalt noch die Zufälligkeit beeinflußt), nicht jedoch in physikalischen Systemen.

Ich möchte vorschlagen, die Wörter "eines ebenso definierten Systems" durch etwas Passenderes zu ersetzen.

-- Joachim Schnitter, 01. Mai 2006 11:37 (CEST).

Zu dem Satz: Beispielsweise folgt daraus, dass in Dezimaldarstellung bis auf 1 % Genauigkeit gleich ist. Mit Verlaub: Das ist Blödsinn. Erstens ist das völlig irrelevant, ob in Dezimaldarstellung oder sonst was. Wenn zwei Zahlen weniger als 1% abweichen, dann ist diese Eigenschaft in allesn Zahlensystemen gegeben. Zum zweiten: der Logarithmus weicht um weniger als 1% ab, das heißt aber noch lange nicht, daß es die Zahlen auch tun (und in dem Fall tun sie es nicht). --88.217.19.3 11:53, 11. Mai 2007 (CEST)Beantworten


Also die englische Seite hat eine bessere Abschätzung für die untere Schranke. Siehe http://en.wikipedia.org/wiki/Stirling%27s_approximation#Speed_of_convergence_and_error_estimates Wo auf der deutschen Seite also 1 <= n! / sterling <= exp(1/(12*n)) steht, könnte wohl auch exp(1/(12*n+1)) < n! / sterling < exp(1/(12*n)) stehen. --skoehler 08:43, 17. Jun. 2007 (CEST)Beantworten

Stirling-Reihenentwicklung

Bei der Stirling-Reihenentwicklung wird nur ein Beispiel gegeben jedoch nicht die Allgemeine Form präsentiert, sondern nur mit "+ ..." angedeutet. Es ist jedoch in keinster weise offensichtlich das die Reihe eine Summe aus B(i)/(2i*(2i-1)*n^(2i-1)) ist. Mich hat es ca. eine halbe Stunde Recherche gekostet dies herauszufinden. Ich würde mich sehr freuen den Nachfolgenden lesern dies durch allgemeine Angabe der Reihe als Summe zu ersparen. (Der vorstehende, nicht signierte Beitrag – siehe dazu Hilfe:Signatur – stammt von 217.87.191.56 (DiskussionBeiträge) 17:10, 31. Aug. 2008)

Ich habe es ergänzt. --80.129.90.94 14:39, 3. Sep. 2008 (CEST)Beantworten