Satz von Bayes

mathematischer Satz aus der Wahrscheinlichkeitstheorie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 30. Mai 2008 um 00:31 Uhr durch 129.242.236.138 (Diskussion). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Das Bayestheorem (auch Satz von Bayes) ist ein Ergebnis der Wahrscheinlichkeitstheorie, benannt nach dem Mathematiker Thomas Bayes Der Satz ist zwar nach Bayes benannt, aber ist nicht unter Bayes Arbeiten gefunden. Der verantwortliche für den Satz ist dagegen Pierre-Simon Laplace. Es gibt an, wie man mit bedingten Wahrscheinlichkeiten rechnet.

Formel

Für zwei Ereignisse   und   lautet es

 

Hierbei ist

  die A-Priori-Wahrscheinlichkeit für ein Ereignis   und
  die Wahrscheinlichkeit für ein Ereignis   unter der Bedingung, dass   eingetreten ist und
  die A-Priori-Wahrscheinlichkeit für ein Ereignis  

Der Satz folgt unmittelbar aus der Definition der bedingten Wahrscheinlichkeit:

 

Bei endlich vielen Ereignissen ergibt sich das Bayessche Theorem folgendermaßen: Wenn   eine Zerlegung des Ereignisraumes in disjunkte Ereignisse ist, gilt für die a-posteriori-Wahrscheinlichkeit  

 

Den zuletzt gemachten Umformungsschritt bezeichnet man auch als Marginalisierung. Man nennt diese Formel auch Bayesformel.

Die Beziehung

 

wird als Gesetz der totalen Wahrscheinlichkeit bezeichnet.

Interpretation

Der Satz von Bayes erlaubt in gewissem Sinn das Umkehren von Schlussfolgerungen:

Die Berechnung von   ist häufig einfach, aber oft ist eigentlich   gesucht, also ein Vertauschen der Argumente. Für das Verständnis können der Entscheidungsbaum und die A-Priori-Wahrscheinlichkeit helfen. Das Verfahren ist auch als Rückwärtsinduktion bekannt.

Anwendungsgebiete

Rechenbeispiel 1

Es sind zwei Urnen „A“ und „B“ gegeben, in denen sich rote und weiße Kugeln befinden. In „A“ sind sieben rote und drei weiße Kugeln, in „B“ eine rote und neun weiße. Es wird nun eine beliebige Kugel aus einer willkürlich gewählten Urne gezogen. Anders ausgedrückt: Ob aus Urne A oder B gezogen wird, sei a priori gleich wahrscheinlich. Es sei das Ergebnis der Ziehung: Die Kugel ist rot. Gesucht ist die Wahrscheinlichkeit dafür, dass diese rote Kugel aus Urne „A“ stammt.

Datei:Stochastik urnen.PNG
Urnenversuch

Es sei A das Ereignis: Die Kugel stammt aus Urne „A“. Es sei R das Ereignis „Die Kugel ist rot“. Dann gilt:

  (Beide Urnen a priori gleich wahrscheinlich)

  (in Urne A sind 10 Kugeln, davon 7 rote)

  (analog)

  (totale Wahrscheinlichkeit)

Damit ist  . Die Wahrscheinlichkeit, dass eine gezogene rote Kugel aus Urne „A“ stammt (A vorausgesetzt R), beträgt 7/8.

Rechenbeispiel 2

In einem medizinischen Beispiel trete der Sachverhalt  , dass ein Mensch eine bestimmte Krankheit in sich trage, mit der Wahrscheinlichkeit   auf (Prävalenz). Jetzt soll in einem Screening-Test ermittelt werden, welche Personen diese Krankheit haben.   bezeichne die Tatsache, dass der Test bei einer Person positiv ausgefallen ist, d. h. der Test lässt vermuten, dass die Person die Krankheit hat. Der Hersteller des Tests versichert, dass der Test eine Krankheit zu 99 % erkennt (Sensitivität ) und nur in 1 % der Fälle falsch anschlägt, obwohl gar keine Krankheit vorliegt (  Spezifität ; wobei   das Komplement von   bezeichnet).

Die Frage ist: Wie wahrscheinlich ist das Vorliegen der Krankheit, wenn der Test positiv ist? (Positiver prädiktiver Wert)

Wir wissen bereits, mit welcher Wahrscheinlichkeit der Test positiv ist, wenn die Krankheit vorliegt (nämlich mit 99%-iger Wahrscheinlichkeit), jetzt soll das Ganze von der anderen Seite her gesehen werden.

Die Aufgabe kann

  • durch Einsetzen in die Formel oder
  • durch einen Entscheidungsbaum (nur bei diskreten Wahrscheinlichkeiten)

gelöst werden.

Lösung mit dem Satz von Bayes

Da P(B) unbekannt ist, muss man P(B) auf die bekannten Größen zurückführen. Dies geschieht mittels folgender Gleichungskette:

 

 
 
  (Satz von Bayes)

Nach dieser Umformung kann nun der Satz von Bayes auf die gegebenen Daten angewendet werden

 

Es liegt also nur zu 1,9 % eine Krankheit vor d. h. der Patient hat eine Chance von 98 % gesund zu sein, obwohl der Test ihn als krank einschätzte! Das ist schwer zu glauben, liegt aber daran, dass die Wahrscheinlichkeit tatsächlich erkrankt zu sein (0,02 %) um das fünzigfache geringer ist als die Wahrscheinlichkeit eines falschen Testergebnisses (1 %). Diese Problematik und dessen Konsequenzen werden von Gerd Gigerenzer im Buch Das Einmaleins der Skepsis ausführlich beschrieben.

Lösung mit dem Entscheidungsbaum

Probleme mit wenigen Klassen und einfachen Verteilungen lassen sich übersichtlich im Entscheidungsbaum darstellen. Die „fehlenden“ Angaben werden einfach eingesetzt. Das Diagramm „rechnet mit“.

                   10 000
                  /      \
                 /        \ 
                /          \ 
              2(krank)    9 998 (gesund)
              /\             /\
             /  \           /  \
            /    \         /    \
           /      \       /      \
Test-     0       2     100      9898
ergebnis  -       +     +        -
(gerundet)

Ergebnis: 2+100=102 haben ein positives Ergebnis, obwohl 100 (=falsch positiv) von ihnen gesund sind. Diese Angaben erfolgen hier in der absoluten Häufigkeit.

Siehe auch

Wikibooks: einige Beispiele – Lern- und Lehrmaterialien