Zum Inhalt springen

Bayesscher Wahrscheinlichkeitsbegriff

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 26. November 2002 um 18:59 Uhr durch 217.98.138.204 (Diskussion) (pl link). Sie kann sich erheblich von der aktuellen Version unterscheiden.


Die Bayes'sche Wahrscheinlichkeitstheorie unterscheidet sich von der konventionellen Wahrscheinlichkeitstheorie nicht in Bezug auf die mathematischen Formeln, sondern in der Philosophie ihrer Bedeutung, also in dem, was man sich bei den Formeln denkt.

Definition des Wahrscheinlichkeitsbegriffes

Bayes'sche Wahrscheinlichkeitstheorie benötigt keine direkten mathematischen Prinzipien (wie zum Beispiel Häufigkeitsbetrachtungen), um 'Wahrscheinlichkeit' zu definieren. Sie geht unmittelbar intuitiv vor: Wie stark kann man etwas auf Grund sämtlicher verfügbarer Informationen erwarten? Mit Hilfe einiger unmittelbar einsichtiger Prämissen wird dann die Stärke dieser Erwartung als Zahl ausgedrückt. Diesbezügliche Überlegungen gehen unter anderem auf Bayes (1763), Laplace (1812) und Cox (1946) zurück. Am Anfang steht die Frage, welche logischen Eigenschaften der Begriff 'Wahrscheinlichkeit' überhaupt haben sollte. Die Bayes'sche Wahrscheinlichkeitstheorie fordert die Gültigkeit der folgenden Prinzipien (i) bis (iv):

  • (i) Wenn Wahrscheinlichkeit A größer ist als Wahrscheinlichkeit B, und Wahrscheinlichkeit B größer als Wahrscheinlichkeit C, dann muss Wahrscheinlichkeit A auch größer als Wahrscheinlichkeit C sein. Mit anderen Worten, Wahrscheinlichkeiten sind transitiv angeordnet. Wenn dies nicht gelten würde, hätten wir keine Chance, Wahrscheinlichkeiten in reellen Zahlen auszudrücken, denn reelle Zahlen sind eben transitiv angeordnet. Außerdem würden Paradoxien wie die folgende auftreten:
Ein Mann, der die Transitivität der Wahrscheinlichkeit nicht versteht, hat in einem Rennen auf Pferd A gesetzt. Er glaubt jetzt aber, Pferd B sei besser, und tauscht seine Karte um. Er muss etwas dazuzahlen, aber das macht ihm nichts aus, weil er jetzt eine bessere Karte hat. Dann glaubt er, Pferd C sei besser als Pferd B. Wieder tauscht er um und muss etwas dazuzahlen. Jetzt glaubt er aber, Pferd A sei besser als Pferd C. Wieder tauscht er um und muss etwas dazuzahlen. Immer glaubt er, er bekäme eine bessere Karte, aber jetzt ist alles wieder wie vorher, nur ist er ärmer geworden.
  • (ii) Wenn wir eine Erwartung haben über die Wahrheit von etwas, dann haben wir implizit auch eine Erwartung über dessen Unwahrheit.
  • (iii) Wenn wir eine Erwartung haben über die Wahrheit von H, und auch eine Erwartung über die Wahrheit von D im Falle, dass H wahr wäre, dann haben wir implizit auch eine Erwartung über die gleichzeitige Wahrheit von H und D.
  • (iv) Wenn es mehrere Methoden gibt, bestimmte Informationen zu benutzen, dann muss die Schlussfolgerung immer dieselbe sein.


Wahrscheinlichkeitswerte

Wenn man Boolsche Logik und Algebra verwendet, kann man hieraus schließen, dass die folgenden Regeln für Wahrscheinlichkeitswerte W(H) gelten müssen:

  1. 0 <= W(H) <= c Wir wählen c=1.
  2. W(H) + W(!H) = c = 1 `Summenregel'
  3. W(H,D) = W(D| H) * W(H) `Produktregel'

Hier bedeutet:

H oder D :: Eine Hypothese die wahr oder unwahr sein könnte oder ein Ereignis, das eintreten oder nicht eintreten könnte.
W(H) :: die Wahrscheinlichkeit, dass Hypothese H wahr ist oder Ereignis H eintreten wird.
!H  :: Nicht H: die Hypothese H ist nicht wahr oder das Ereignis H tritt nicht ein,.
H,D  :: H und D sind beide wahr oder treten beide ein oder eins ist wahr und der andere tritt ein.
D| H  :: D im Fall, dass H wahr wäre oder eintreten würde.

Um nicht immer soviel aufschreiben zu müssen, darf man behaupten dass Ereignisse wahr und unwahr sein können. Damit wird dann das eintreten und nicht eintreten gemeint.

Die Formeln (1) bis (3) sind dieselben, die in der konventionellen Wahrscheinlichkeitstheorie auf eine andere Art bewiesen werden.

Man kann leicht einsehen, dass die Wahrscheinlichkeitswerte bei 0 anfangen müssen; sonst würde so etwas wie eine 'doppelt so große Wahrscheinlichkeit' keine Bedeutung haben.

Beispiel: Bei einem Wurf mit einem Würfel mit 6 gleichen Flächen ist die Wahrscheinlichkeit, eine 1 oder eine 3 zu werfen, doppelt so groß wie die Wahrscheinlichkeit, eine 4 zu werfen, weil es sich dabei eben um zwei Flächen handelt im Vergleich zu nur einer solchen Fläche.

Auch sieht mann leicht dass die Summenregel (2) mit dem Prinzip (ii) zu tun hat, auch wenn mann den Beweis nicht selbständig nachvollziehen kann.

Aus den obigen Regeln der Wahrscheinlichkeitswerte lassen sich andere ableiten.

Bayes-Theorem

  • W(H| D,I) = W(D| H,I) * W(H| I) / W(D| I) Das sogenannte Bayes-Theorem

Dabei bedeutet:

I: Alle Hintergrundinformationen. Es ist wichtig, dass man alle Informationen, die man genutzt hat, auch explizitiert, damit darüber keine Unklarheiten entstehen. So kann man unnötigen Debatten über die Schlussfolgerungen zuvorkommen.

Beachte, dass das Bayes-Theorem folgt, wenn man die Produktregel (3) sowohl für H als auch für D aufschreibt. 'I' hätte auch bereits in (3) eingeführt werden können.

Bayes-Theorem ist insbesondere in der Datenanalyse nützlich. In diesem Falle sollte man 'H' als 'Hypothese' verstehen und 'D' als Daten. Man will wissen, in welchem Maße man erwarten kann, dass eine Hypothese H richtig ist unter der Voraussetzung, dass bestimmte Daten D beobachtet wurden. Mit Hilfe des Bayes-Theorems kann man dies berechnen aus Wahrscheinlichkeitswerten, die einfacher berechnet werden können.

Statistik

Im Gegensatz zur konventionellen Wahrscheinlichkeitstheorie lässt die Bayes'sche Wahrscheinlichkeitstheorie zu, dass man den Wert nicht-zufälliger Konstanten schätzt, wie zum Beispiel die Masse des Saturns. In der konventionellen Wahrscheinlichkeitstheorie ist das streng genommen nicht möglich, weil Wahrscheinlichkeiten via Häufigkeiten interpretiert werden. Genauer: Die klassische Theorie kann nur dann eine Wahrscheinlichkeitsaussage über eine bestimmte Größe machen, wenn diese Größe im Rahmen eines häufig wiederholten oder wiederholbaren Experimentes mit 'zufälligem' Ausgang auftritt. Die Masse des Saturns, obwohl unbekannt, ist aber nicht Resultat eines Zufallsexperiments, sondern fix. Um solche Probleme trotzdem im Rahmen der klassischen Theorie angehen zu können, wird die Unsicherheit, die man darüber hat, mittels einer eigens dazu erfundenen variablen Zufallsgröße beschrieben, die zuweilen 'Statistik' genannt wird. Die Bayes'sche Wahrscheinlichkeitstheorie benötigt so eine erfundene variable Hilfsgröße nicht. In diesem speziellen Sinne gibt es also keine 'Bayes'sche Statistik', aber natürlich können alle `statistischen Probleme' im Rahmen der Bayes'schen Wahrscheinlichkeitstheorie angegangen werden.