Bayesscher Wahrscheinlichkeitsbegriff
Der nach dem englischen Mathematiker Thomas Bayes benannte Bayessche Wahrscheinlichkeitsbegriff interpretiert Wahrscheinlichkeit als Grad persönlicher Überzeugung (engl. "degree of belief"). Er unterscheidet sich damit vom frequentistischen Wahrscheinlichkeitsbegriff, der Wahrscheinlichkeit als relative Häufigkeit interpretiert.
Der Bayessche Wahrscheinlichkeitsbegriff sollte nicht mit dem gleichfalls auf Thomas Bayes zurückgehenden Satz von Bayes verwechselt werden, welcher in der Statistik reiche Anwendung findet.
Erläuterung des Wahrscheinlichkeitsbegriffes
Erläuterung des Wahrscheinlichkeitsbegriffes
Beispiele
Beispiel aus der konventionelle Wahrscheinlichkeitstheorie: Aus einer Urne mit 100 schwarzen und 10 weißen Kugeln werden zwei Kugeln gezogen. Mit welcher Wahrscheinlichkeit sind beide weiß?
Beispiel aus Bayes Wahrscheinlichkeitstheorie: Von hundert gezogenen und zurückgelegten Kugeln sind 90 schwarz und 10 weiß. Welches ist der Anteil der schwarzen Kugeln in der Urne?
Die Bayes'sche Wahrscheinlichkeitstheorie fragt: Wie stark kann man etwas auf Grund sämtlicher verfügbarer Informationen erwarten? Mit Hilfe einiger unmittelbar einsichtiger Prämissen wird dann die Stärke dieser Erwartung als Zahl ausgedrückt. Diesbezügliche Überlegungen gehen unter anderem auf Bayes (1763), Laplace (1812) und Cox (1946) zurück. Am Anfang steht die Frage, welche logischen Eigenschaften der Begriff 'Wahrscheinlichkeit' überhaupt haben sollte. Die Bayes'sche Interpretation von 'Wahrscheinlichkeit' fordert die Gültigkeit der folgenden Prinzipien (i) bis (iv):
- (i) Transitivität: Wenn Wahrscheinlichkeit A größer ist als Wahrscheinlichkeit B, und Wahrscheinlichkeit B größer als Wahrscheinlichkeit C, dann muss Wahrscheinlichkeit A auch größer als Wahrscheinlichkeit C sein. Ohne diese Eigenschaft wäre es nicht möglich, Wahrscheinlichkeiten in reellen Zahlen auszudrücken, denn reelle Zahlen sind eben transitiv angeordnet. Außerdem würden Paradoxien wie die folgende auftreten:
- Ein Mann, der die Transitivität der Wahrscheinlichkeit nicht versteht, hat in einem Rennen auf Pferd A gesetzt. Er glaubt jetzt aber, Pferd B sei besser, und tauscht seine Karte um. Er muss etwas dazuzahlen, aber das macht ihm nichts aus, weil er jetzt eine bessere Karte hat. Dann glaubt er, Pferd C sei besser als Pferd B. Wieder tauscht er um und muss etwas dazuzahlen. Jetzt glaubt er aber, Pferd A sei besser als Pferd C. Wieder tauscht er um und muss etwas dazuzahlen. Immer glaubt er, er bekäme eine bessere Karte, aber jetzt ist alles wieder wie vorher, nur ist er ärmer geworden.
- (ii) Negation: Wenn wir eine Erwartung haben über die Wahrheit von etwas, dann haben wir implizit auch eine Erwartung über dessen Unwahrheit.
- (iii) Konditionierung: Wenn wir eine Erwartung haben über die Wahrheit von H, und auch eine Erwartung über die Wahrheit von D im Falle, dass H wahr wäre, dann haben wir implizit auch eine Erwartung über die gleichzeitige Wahrheit von H und D.
- (iv) Schlüssigkeit (soundness): Wenn es mehrere Methoden gibt, bestimmte Informationen zu benutzen, dann muss die Schlussfolgerung immer dieselbe sein.
Wahrscheinlichkeitswerte
Es stellt sich heraus, dass die folgenden Regeln für Wahrscheinlichkeitswerte W(H) gelten müssen:
- Wir wählen .
- 'Summenregel'
- 'Produktregel'
Hier bedeutet:
- H oder D
- : Eine Hypothese die wahr oder unwahr sein könnte oder ein Ereignis, das eintreten oder nicht eintreten könnte.
- W(H)
- die Wahrscheinlichkeit, dass Hypothese H wahr ist oder Ereignis H eintreten wird.
- !H
- Nicht H: die Hypothese H ist nicht wahr oder das Ereignis H tritt nicht ein,.
- H,D
- H und D sind beide wahr oder treten beide ein oder eins ist wahr und der andere tritt ein.
- D| H
- D im Fall, dass H wahr wäre oder eintreten würde.
Man kann leicht einsehen, dass die Wahrscheinlichkeitswerte bei 0 anfangen müssen; sonst würde so etwas wie eine 'doppelt so große Wahrscheinlichkeit' keine Bedeutung haben.
- Beispiel: Bei einem Wurf mit einem Würfel mit 6 gleichen Flächen ist die Wahrscheinlichkeit, eine 1 oder eine 3 zu werfen, doppelt so groß wie die Wahrscheinlichkeit, eine 4 zu werfen, weil es sich dabei eben um zwei Flächen handelt im Vergleich zu nur einer solchen Fläche.
Aus den obigen Regeln der Wahrscheinlichkeitswerte lassen sich andere ableiten.
Statistik
Im Gegensatz zum Frequentistischer Wahrscheinlichkeitsbegriff lässt die Bayes'sche Interpretation zu, dass man den Wert nicht-zufälliger Konstanten schätzt, wie zum Beispiel die Masse des Saturns. In der frequentistischen Wahrscheinlichkeitstheorie ist das streng genommen nicht möglich, weil dort Wahrscheinlichkeiten via Häufigkeiten interpretiert werden. Genauer: Die frequentistische Theorie kann nur dann eine Wahrscheinlichkeitsaussage über eine bestimmte Größe machen, wenn diese Größe im Rahmen eines häufig wiederholten oder wiederholbaren Experimentes mit 'zufälligem' Ausgang auftritt. Die Masse des Saturns, obwohl unbekannt, ist aber nicht Resultat eines Zufallsexperiments, sondern fix.
Um solche Probleme trotzdem im Rahmen der frequentistischen Interpretation angehen zu können, wird die Unsicherheit dort mittels einer eigens dazu erfundenen variablen Zufallsgröße beschrieben. Die Bayes'sche Wahrscheinlichkeitstheorie benötigt solch eine Hilfsgröße nicht. Statt dessen führt sie das Konzept der a-priori Wahrscheinlichkeit ein, die Vorwissen und Grundannahmen des Beobachters in einer Wahrscheinlichkeitsverteilung zusammenfasst. Vertreter der Bayes-Ansatzes sehen es als großen Vorteil, dass Vorwissen und a-priori Annahmen explizit im Modell ausgedrückt werden.
Siehe auch: Satz von Bayes, eine zweite Version von 'Bayes Wahrscheinlichkeitstheorie
Weblinks
- http://www.sgipt.org/wisms/statm/ bayes-1.htm
- http://www.ap.univie.ac.at/users/fe/ Lehre/aussermathAnw/Bayes.html