Zum Inhalt springen

Bayessche Statistik

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 10. Mai 2012 um 22:07 Uhr durch 79.207.217.118 (Diskussion) (Formatierung). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen.

Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion! (Artikel eintragen)

Unter Bayesscher Statistik versteht man einen besonderen Zweig der modernen Statistik, der drei Besonderheiten aufweist:

  1. die Wahrscheinlichkeit ist in der Bayesschen Statistik eine Aussage über die Plausibilität des Eintretens eines Ereignisses. Dagegen wird in der traditionellen Statistik die Wahrscheinlichkeit als Sicherheit bzw. Unsicherheit über das Eintreten eines Ereignis eines Zufallsexperimentes definiert. Daher ist in der Bayesschen Statistik kein Zufallsexperiment als Grundlage notwendig.
  2. In der Bayesschen Statistik werden immer bedingte Wahrscheinlichkeiten betrachtet, d.h. wie wahrscheinlich (plausibel) ist es, dass Aussage A eintritt, wenn B eingetreten ist (Vorwissen vorliegt). Die Berechnung erfolgt mit Hilfe des Bayestheorem für drei Aussagen
  • A: Aussage über ein unbekanntes Phänomen,
  • B: Aussage mit Informationen über das unbekannte Phänomen und
  • C: Aussage über zusätzliches Wissen.
dabei wird
In der Praxis wird die a-posteriori-Wahrscheinlichkeit oft mittels Monte-Carlo-Simulationen berechnet.
  1. Unbekannte Parameter sind nicht fix, sondern selbst Zufallsvariablen. Das schließt nicht aus, dass sie konstant sind.

Beispiele

Beispiel von Laplace

Laplace hat das Theorem von Thomas Bayes erneut abgeleitet und eingesetzt um die Masse des Saturn und anderer Planeten einzugrenzen:

  • A: Masse von Saturn liegt in bestimmtem Intervall,
  • B: Daten von Observatorien über gegenseitige Störungen von Jupiter und Saturn und
  • C: die Masse des Saturns darf nicht so klein sein, dass er seine Ringe verliert, noch so gross, dass er das Sonnensystem zerstört.
Schätzung der Saturnmasse als Anteil der Gesamtmasse der Sonne
Laplace (1814) 3512,0
NASA (2004) 3499,1

„In order to give some interesting applications of it I have profited by the immense work which M. Bouvard has just finished on the movements of Jupiter and Saturn, of which he has formed very precise tables. He has discussed with the greatest care the oppositions and quadratures of these two planets observed by Bradley and by the astronomers who have followed him down to the last years; he has concluded the corrections of the elements of their movement and their masses compared to that of the sun taken as unity. His calculations give him the mass of Saturn equal to the 3512th part of that of the sun. Applying to them my formulas of probability, I find that it is a bet of 11,000 against one that the error of this result is not 1/100 of its value, or that which amounts to almost the same that after a century of new observations added to the preceding ones, and examined in the same manner, the new result will not differ by 1/100 from that of M. Bouvard.“

Pierre-Simon Laplace[1]

Die Daten aus dem 19. Jahrhundert liessen eine Schätzung der Saturnmasse auf ca. 1 % Genauigkeit zu (Laplace 1814); die heutige Genauigkeit liegt bei 0,63 % (NASA 2004).

Anwendung in der Testtheorie

Die Attraktivität der Bayesschen Statistik kann man z.B. bei Hypothesentests sehen. Wenn die beobachtete Aussage ist und die Nullhypothese, dann wird mit der traditionellen Statistik die Wahrscheinlichkeit berechnet; also wie wahrscheinlich ist es zu beobachten, wenn die Nullhypothese wahr ist. Ist diese zu klein (kleiner als das vorgegebene Signifikanzniveau), dann wird die Nullhypothese verworfen.

Eigentlich will man jedoch eher wissen, wie wahrscheinlich ist es, dass die Nullhypothese gilt, wenn man das Ereignis beobachtet hat. Mit Hilfe der Formel von Bayes kann dies berechnet werden

mit

  • ist die A-priori-Wahrscheinlichkeit von (Vorbewertung).
  • ist die bedingte Wahrscheinlichkeit von , unter der Bedingung dass die Nullhypothese wahr ist; als Funktion von nennt man sie die Likelihood-Funktion.
  • ist die unbedingte Wahrscheinlichkeit von . Es handelt sich um eine normierende Konstante, welche manchmal als Evidenz bezeichnet wird. Die unbedingte Wahrscheinlichkeit kann mit dem Satz von der totalen Wahrscheinlichkeit als Erwartungswert der bedingten Wahrscheinlichkeiten und berechnet werden, wobei die Alternativhypothese (also die Gegenhypothese zu ) darstellt.
  • ist die A-posteriori-Wahrscheinlichkeit von gegeben (Nachbewertung).

Ableitung

Im Artikel von Cox (1946) werden drei Postulate genannt aus denen die Bayessche Statistik abgeleitet wird:[2]

  1. Die Plausibilität einer Aussage ist eine reelle Zahl und abhängig von den Informationen, die man hat im Zusammenhang mit der Aussage (divisibility and comparability).
  2. Bei der Beurteilung der Plausibilitäten eines Modells sollte diese sich in einem sinnvollen Rahmen bewegen (common sense).
  3. Wenn die Plausibilität einer Aussage in verschiedener Weise abgeleitet werden, dann sollte die Ergebnisse alle gleich sein (consistency).

Daraus lassen sich die mathematischen Grundlagen der Bayessche Statistik ableiten:

mit , , beliebige Aussagen, die sichere Aussage und die Negation der Aussage .

Einzelnachweise

  1. Pierre-Simon De Laplace: A Philosophical Essay on Probabilities. Dover, 1995, S. 79 (archive.org [abgerufen am 11 Sep. 2011, Version von 1902] französisch: Essai philosophique sur les probabilities. Übersetzt von F. W. Truscott,F. L. Emory).
  2. R. T. Cox: Probability, Frequency, and Reasonable Expectation. In: Am. Jour. Phys. Nr. 14, 1946, S. 1–13.

Literatur