Zum Inhalt springen

Bayesscher Wahrscheinlichkeitsbegriff

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 24. Juli 2003 um 20:50 Uhr durch Philipp W. (Diskussion | Beiträge) (Unterschied: klassische Wahrscheinlichkeitstheorie / Bayes Theorie (siehe auch Diskussion)). Sie kann sich erheblich von der aktuellen Version unterscheiden.


Die Bayes'sche Wahrscheinlichkeitstheorie beschreibt den Schluss von einem bestimmten Ereignis auf den verursachenden Prozess (ein ausführliches Beispiel dazu unter [1]). Darin unterscheidet sie sich grundlegend von der konventionellen Wahrscheinlichkeitstheorie. Während die konventionelle Wahrscheinlichkeitstheorie von einer bekannten Welt ausgeht und die Wahrscheinlichkeit für das Eintreten eines bestimmten Messresultates abschätzt, geht Bayes von den Messwerten aus und versucht abzuschätzen, welche Welt diesen beobachteten Resultaten zugrundeliegt. Bayes Theorie ist der mathematische Versuch, das Induktionsproblem zu lösen, und damit ein wesentlicher Beitrag zur Erkenntnistheorie.

Beispiel: Die konventionelle Wahrscheinlichkeitstheorie setzt ein exaktes Wissen über die Welt voraus und zieht daraus Schlüsse, welches Ereignis zu erwarten ist. Zum Beispiel weiss ich, dass eine Urne mit 100 schwarzen und 10 weißen Kugeln vorliegt und ich will wissen, mit welcher Wahrscheinlichkeit ich hintereinander zwei weiße Kugeln ziehe. Bayes Wahrscheinlichkeitsrechnung läuft gerade umgekehrt: Ich ziehe mehrere Kugeln und will abschätzen, wie die Urne gefüllt ist.

Definition des Wahrscheinlichkeitsbegriffes

Bayes'sche Wahrscheinlichkeitstheorie benötigt keine direkten mathematischen Prinzipien (wie zum Beispiel Häufigkeitsbetrachtungen), um 'Wahrscheinlichkeit' zu definieren. Sie geht unmittelbar intuitiv vor: Wie stark kann man etwas auf Grund sämtlicher verfügbarer Informationen erwarten? Mit Hilfe einiger unmittelbar einsichtiger Prämissen wird dann die Stärke dieser Erwartung als Zahl ausgedrückt. Diesbezügliche Überlegungen gehen unter anderem auf Bayes (1763), Laplace (1812) und Cox (1946) zurück. Am Anfang steht die Frage, welche logischen Eigenschaften der Begriff 'Wahrscheinlichkeit' überhaupt haben sollte. Die Bayes'sche Wahrscheinlichkeitstheorie fordert die Gültigkeit der folgenden Prinzipien (i) bis (iv):

  • (i) Wenn Wahrscheinlichkeit A größer ist als Wahrscheinlichkeit B, und Wahrscheinlichkeit B größer als Wahrscheinlichkeit C, dann muss Wahrscheinlichkeit A auch größer als Wahrscheinlichkeit C sein. Mit anderen Worten, Wahrscheinlichkeiten sind transitiv angeordnet. Wenn dies nicht gelten würde, hätten wir keine Chance, Wahrscheinlichkeiten in reellen Zahlen auszudrücken, denn reelle Zahlen sind eben transitiv angeordnet. Außerdem würden Paradoxien wie die folgende auftreten:
Ein Mann, der die Transitivität der Wahrscheinlichkeit nicht versteht, hat in einem Rennen auf Pferd A gesetzt. Er glaubt jetzt aber, Pferd B sei besser, und tauscht seine Karte um. Er muss etwas dazuzahlen, aber das macht ihm nichts aus, weil er jetzt eine bessere Karte hat. Dann glaubt er, Pferd C sei besser als Pferd B. Wieder tauscht er um und muss etwas dazuzahlen. Jetzt glaubt er aber, Pferd A sei besser als Pferd C. Wieder tauscht er um und muss etwas dazuzahlen. Immer glaubt er, er bekäme eine bessere Karte, aber jetzt ist alles wieder wie vorher, nur ist er ärmer geworden.
  • (ii) Wenn wir eine Erwartung haben über die Wahrheit von etwas, dann haben wir implizit auch eine Erwartung über dessen Unwahrheit.
  • (iii) Wenn wir eine Erwartung haben über die Wahrheit von H, und auch eine Erwartung über die Wahrheit von D im Falle, dass H wahr wäre, dann haben wir implizit auch eine Erwartung über die gleichzeitige Wahrheit von H und D.
  • (iv) Wenn es mehrere Methoden gibt, bestimmte Informationen zu benutzen, dann muss die Schlussfolgerung immer dieselbe sein.


Wahrscheinlichkeitswerte

Wenn man Boolsche Logik und Algebra verwendet, kann man hieraus schließen, dass die folgenden Regeln für Wahrscheinlichkeitswerte W(H) gelten müssen:

  1. 0 <= W(H) <= c Wir wählen c=1.
  2. W(H) + W(!H) = c = 1 `Summenregel'
  3. W(H,D) = W(D| H) * W(H) `Produktregel'

Hier bedeutet:

H oder D :: Eine Hypothese die wahr oder unwahr sein könnte oder ein Ereignis, das eintreten oder nicht eintreten könnte.
W(H) :: die Wahrscheinlichkeit, dass Hypothese H wahr ist oder Ereignis H eintreten wird.
!H  :: Nicht H: die Hypothese H ist nicht wahr oder das Ereignis H tritt nicht ein,.
H,D  :: H und D sind beide wahr oder treten beide ein oder eins ist wahr und der andere tritt ein.
D| H  :: D im Fall, dass H wahr wäre oder eintreten würde.

Um nicht immer soviel aufschreiben zu müssen, darf man behaupten dass Ereignisse wahr und unwahr sein können. Damit wird dann das eintreten und nicht eintreten gemeint.

Die Formeln (1) bis (3) sind dieselben, die in der konventionellen Wahrscheinlichkeitstheorie auf eine andere Art bewiesen werden.

Man kann leicht einsehen, dass die Wahrscheinlichkeitswerte bei 0 anfangen müssen; sonst würde so etwas wie eine 'doppelt so große Wahrscheinlichkeit' keine Bedeutung haben.

Beispiel: Bei einem Wurf mit einem Würfel mit 6 gleichen Flächen ist die Wahrscheinlichkeit, eine 1 oder eine 3 zu werfen, doppelt so groß wie die Wahrscheinlichkeit, eine 4 zu werfen, weil es sich dabei eben um zwei Flächen handelt im Vergleich zu nur einer solchen Fläche.

Auch sieht mann leicht dass die Summenregel (2) mit dem Prinzip (ii) zu tun hat, auch wenn mann den Beweis nicht selbständig nachvollziehen kann.

Aus den obigen Regeln der Wahrscheinlichkeitswerte lassen sich andere ableiten.

Bayes-Theorem

Ich hoffe, dass irgendwann Darstellungen der bayesschen Regel gefunden werden, die den recht verstandenen Ansprüchen der Schule und der Lehrerausbildung genügen. -- H. Dinges

Das Bayes-Theorems dient zum Rechnen mit bedingten Wahrscheinlichkeiten, er ist nicht leicht intuitiv verständlich.

Der Bayes'sche Ansatz gibt die Wahrscheinlichkeit dafür an, dass ein Kandidat zu einer Gruppe gesuchter Merkmalsträger (z.B. TBC-Träger) gehört unter der Bedingung, dass der Kandidat ein Kriterium (z.B. röntgen-positiv) erfüllt und er willkürlich aus der Population herausgegriffen wird.

  • W(H| D,I) = W(D| H,I) * W(H| I) / W(D| I) Das so genannte Bayes-Theorem

Dabei bedeutet:

I: Alle Hintergrundinformationen. Es ist wichtig, dass man alle Informationen, die man genutzt hat, auch explizitiert, damit darüber keine Unklarheiten entstehen. So kann man unnötigen Debatten über die Schlussfolgerungen zuvorkommen.

Beachte, dass das Bayes-Theorem folgt, wenn man die Produktregel (3) sowohl für H als auch für D aufschreibt. 'I' hätte auch bereits in (3) eingeführt werden können.

Das Bayes-Theorem ist insbesondere in der Datenanalyse nützlich. In diesem Falle sollte man 'H' als 'Hypothese' verstehen und 'D' als Daten. Man will wissen, in welchem Maße man erwarten kann, dass eine Hypothese H richtig ist unter der Voraussetzung, dass bestimmte Daten D beobachtet wurden.

Verständnisproblem des Bayes-Theorem

Für eine Lösung einer Aufgabe muss die Informationen aus einem Aufgabentext als solche erkannt, kodiert und richtig notiert werden. Weiters müssen die "fehlenden" Wahrscheinlichkeiten ergänzt werden.

Die gleichen Informationen, die vielen schwer verständlich sind erscheinen , können auch ohne bedingte Wahrscheinlichkeiten aufbereitet werden, wie in absolute Häufigkeit aufgeführt. Typische Verständisprobleme im Umgang mit bedingten Wahrscheinlichkeiten sind[2]:

  1. Verwechslung von Konditionalität und Kausalität
  2. Verwechslung von bedingter und konjunktiver Wahrscheinlichkeit
  3. Verwechslung von bedingtem und bedingendem Ereignis
  4. Schwierigkeiten bei der exakten Definition des bedingenden Ereignisses (z.B. beim "Ziegenproblem")
  5. Missverstehen der Fragestellung durch mangelndes Grundverständnis für bedingte Wahrscheinlichkeiten, zu komplizierte Formulierung u.ä.

Statistik

Im Gegensatz zur konventionellen Wahrscheinlichkeitstheorie lässt die Bayes'sche Wahrscheinlichkeitstheorie zu, dass man den Wert nicht-zufälliger Konstanten schätzt, wie zum Beispiel die Masse des Saturns. In der konventionellen Wahrscheinlichkeitstheorie ist das streng genommen nicht möglich, weil Wahrscheinlichkeiten via Häufigkeiten interpretiert werden. Genauer: Die klassische Theorie kann nur dann eine Wahrscheinlichkeitsaussage über eine bestimmte Größe machen, wenn diese Größe im Rahmen eines häufig wiederholten oder wiederholbaren Experimentes mit 'zufälligem' Ausgang auftritt. Die Masse des Saturns, obwohl unbekannt, ist aber nicht Resultat eines Zufallsexperiments, sondern fix. Um solche Probleme trotzdem im Rahmen der klassischen Theorie angehen zu können, wird die Unsicherheit, die man darüber hat, mittels einer eigens dazu erfundenen variablen Zufallsgröße beschrieben, die zuweilen 'Statistik' genannt wird. Die Bayes'sche Wahrscheinlichkeitstheorie benötigt so eine erfundene variable Hilfsgröße nicht. In diesem speziellen Sinne gibt es also keine 'Bayes'sche Statistik', aber natürlich können alle `statistischen Probleme' im Rahmen der Bayes'schen Wahrscheinlichkeitstheorie angegangen werden.

Siehe auch: