Bayesscher Wahrscheinlichkeitsbegriff
Der nach dem englischen Mathematiker Thomas Bayes benannte Bayessche Wahrscheinlichkeitsbegriff interpretiert Wahrscheinlichkeit als Grad persönlicher Überzeugung (engl. "degree of belief"). Er unterscheidet sich damit vom frequentistischen Wahrscheinlichkeitsbegriff, der Wahrscheinlichkeit als relative Häufigkeit interpretiert.
Der Bayessche Wahrscheinlichkeitsbegriff sollte nicht mit dem gleichfalls auf Thomas Bayes zurückgehenden Satz von Bayes verwechselt werden, welcher in der Statistik reiche Anwendung findet.
Erläuterung des Wahrscheinlichkeitsbegriffes
Beispiele
Beispiel aus der konventionelle Wahrscheinlichkeitstheorie: Aus einer Urne mit 100 schwarzen und 10 weißen Kugeln werden zwei Kugeln gezogen. Mit welcher Wahrscheinlichkeit sind beide weiß?
Beispiel aus Bayes Wahrscheinlichkeitstheorie: Von hundert gezogenen und zurückgelegten Kugeln sind 90 schwarz und 10 weiß. Welches ist der Anteil der schwarzen Kugeln in der Urne?
Allgemeines
Bayes'sche Wahrscheinlichkeitstheorie geht unmittelbar intuitiv vor: Wie stark kann man etwas auf Grund sämtlicher verfügbarer Informationen erwarten? Mit Hilfe einiger unmittelbar einsichtiger Prämissen wird dann die Stärke dieser Erwartung als Zahl ausgedrückt. Diesbezügliche Überlegungen gehen unter anderem auf Bayes (1763), Laplace (1812) und Cox (1946) zurück. Am Anfang steht die Frage, welche logischen Eigenschaften der Begriff 'Wahrscheinlichkeit' überhaupt haben sollte. Die Bayes'sche Wahrscheinlichkeitstheorie fordert die Gültigkeit der folgenden Prinzipien (i) bis (iv):
- (i) Wenn Wahrscheinlichkeit A größer ist als Wahrscheinlichkeit B, und Wahrscheinlichkeit B größer als Wahrscheinlichkeit C, dann muss Wahrscheinlichkeit A auch größer als Wahrscheinlichkeit C sein. Mit anderen Worten, Wahrscheinlichkeiten sind transitiv angeordnet. Wenn dies nicht gelten würde, hätten wir keine Chance, Wahrscheinlichkeiten in reellen Zahlen auszudrücken, denn reelle Zahlen sind eben transitiv angeordnet. Außerdem würden Paradoxien wie die folgende auftreten:
- Ein Mann, der die Transitivität der Wahrscheinlichkeit nicht versteht, hat in einem Rennen auf Pferd A gesetzt. Er glaubt jetzt aber, Pferd B sei besser, und tauscht seine Karte um. Er muss etwas dazuzahlen, aber das macht ihm nichts aus, weil er jetzt eine bessere Karte hat. Dann glaubt er, Pferd C sei besser als Pferd B. Wieder tauscht er um und muss etwas dazuzahlen. Jetzt glaubt er aber, Pferd A sei besser als Pferd C. Wieder tauscht er um und muss etwas dazuzahlen. Immer glaubt er, er bekäme eine bessere Karte, aber jetzt ist alles wieder wie vorher, nur ist er ärmer geworden.
- (ii) Wenn wir eine Erwartung haben über die Wahrheit von etwas, dann haben wir implizit auch eine Erwartung über dessen Unwahrheit.
- (iii) Wenn wir eine Erwartung haben über die Wahrheit von H, und auch eine Erwartung über die Wahrheit von D im Falle, dass H wahr wäre, dann haben wir implizit auch eine Erwartung über die gleichzeitige Wahrheit von H und D.
- (iv) Wenn es mehrere Methoden gibt, bestimmte Informationen zu benutzen, dann muss die Schlussfolgerung immer dieselbe sein.
Wahrscheinlichkeitswerte
Es stellt sich heraus, dass die folgenden Regeln für Wahrscheinlichkeitswerte W(H) gelten müssen:
- Wir wählen .
- `Summenregel'
- `Produktregel'
Hier bedeutet:
- H oder D :: Eine Hypothese die wahr oder unwahr sein könnte oder ein Ereignis, das eintreten oder nicht eintreten könnte.
- W(H) :: die Wahrscheinlichkeit, dass Hypothese H wahr ist oder Ereignis H eintreten wird.
- !H :: Nicht H: die Hypothese H ist nicht wahr oder das Ereignis H tritt nicht ein,.
- H,D :: H und D sind beide wahr oder treten beide ein oder eins ist wahr und der andere tritt ein.
- D| H :: D im Fall, dass H wahr wäre oder eintreten würde.
Um nicht immer soviel aufschreiben zu müssen, darf man behaupten dass Ereignisse wahr und unwahr sein können. Damit wird dann das eintreten und nicht eintreten gemeint.
Man kann leicht einsehen, dass die Wahrscheinlichkeitswerte bei 0 anfangen müssen; sonst würde so etwas wie eine 'doppelt so große Wahrscheinlichkeit' keine Bedeutung haben.
- Beispiel: Bei einem Wurf mit einem Würfel mit 6 gleichen Flächen ist die Wahrscheinlichkeit, eine 1 oder eine 3 zu werfen, doppelt so groß wie die Wahrscheinlichkeit, eine 4 zu werfen, weil es sich dabei eben um zwei Flächen handelt im Vergleich zu nur einer solchen Fläche.
Auch sieht mann leicht dass die Summenregel (2) mit dem Prinzip (ii) zu tun hat, auch wenn mann den Beweis nicht selbständig nachvollziehen kann.
Aus den obigen Regeln der Wahrscheinlichkeitswerte lassen sich andere ableiten.
Statistik
Im Gegensatz zur frequentistischen Wahrscheinlichkeitstheorie lässt die Bayes'sche Wahrscheinlichkeitstheorie zu, dass man den Wert nicht-zufälliger Konstanten schätzt, wie zum Beispiel die Masse des Saturns. In der frequentistischen Wahrscheinlichkeitstheorie ist das streng genommen nicht möglich, weil dort Wahrscheinlichkeiten via Häufigkeiten interpretiert werden. Genauer: Die frequentistische Theorie kann nur dann eine Wahrscheinlichkeitsaussage über eine bestimmte Größe machen, wenn diese Größe im Rahmen eines häufig wiederholten oder wiederholbaren Experimentes mit 'zufälligem' Ausgang auftritt. Die Masse des Saturns, obwohl unbekannt, ist aber nicht Resultat eines Zufallsexperiments, sondern fix. Um solche Probleme trotzdem im Rahmen dieser Theorie angehen zu können, wird die Unsicherheit, die man darüber hat, mittels einer eigens dazu erfundenen variablen Zufallsgröße beschrieben, die zuweilen 'Statistik' genannt wird. Die Bayes'sche Wahrscheinlichkeitstheorie benötigt solch eine Hilfsgröße nicht. In diesem speziellen Sinne gibt es also keine 'Bayes'sche Statistik', aber natürlich können alle `statistischen Probleme' im Rahmen der Bayes'schen Wahrscheinlichkeitstheorie angegangen werden.
Siehe auch:
Weblinks
- http://www.sgipt.org/wisms/statm/bayes-1.htm
- http://www.ap.univie.ac.at/users/fe/Lehre/ aussermathAnw/Bayes.html