„Bedingte Wahrscheinlichkeit“ – Versionsunterschied
[ungesichtete Version] | [gesichtete Version] |
→Beispiele: Was soll das? Seit wann sind zwei unterschiedliche Fragestellungen 'Interpretationen'? |
Linkvorschlag-Funktion: 2 Links hinzugefügt. |
||
(430 dazwischenliegende Versionen von mehr als 100 Benutzern, die nicht angezeigt werden) | |||
Zeile 1: | Zeile 1: | ||
'''Bedingte Wahrscheinlichkeit''' ist die [[Wahrscheinlichkeit]] des Eintretens eines [[Ereignis (Wahrscheinlichkeitstheorie)|Ereignisses]] |
'''Bedingte Wahrscheinlichkeit''' (auch '''konditionale Wahrscheinlichkeit''') ist die [[Wahrscheinlichkeit]] des Eintretens eines [[Ereignis (Wahrscheinlichkeitstheorie)|Ereignisses]] <math>A</math> unter der Bedingung, dass das Eintreten eines anderen Ereignisses <math>B</math> bereits bekannt ist. Sie wird als <math>P(A\mid B)</math> geschrieben. Der senkrechte Strich ist als „unter der Bedingung“ zu lesen und wie folgt zu verstehen: Wenn das Ereignis <math>B</math> eingetreten ist, beschränken sich die Möglichkeiten auf die [[Ergebnis (Stochastik)|Ergebnisse]] in <math>B</math>. Damit ändert sich auch die Wahrscheinlichkeit; diese neue Wahrscheinlichkeit für das Ereignis <math>A</math> ist gegeben durch <math>P(A\mid B)</math>. Die bedingte Wahrscheinlichkeit kann also als Neueinschätzung der Wahrscheinlichkeit von <math>A</math> interpretiert werden, wenn die Information vorliegt, dass das Ereignis <math>B</math> bereits eingetreten ist. |
||
Für einen verallgemeinerten, abstrakten Begriff von bedingten Wahrscheinlichkeiten als Zufallsvariablen siehe [[bedingter Erwartungswert]]. |
|||
== |
== Motivation == |
||
Mitunter möchte man untersuchen, wie stark der statistische Einfluss einer Größe auf eine andere ist. Beispielsweise möchte man wissen, ob Rauchen (<math>R</math>) krebserregend (<math>K</math>) ist. Die logische [[Implikation]] würde fordern, dass der Schluss <math display="inline">R\Rightarrow K</math> für alle Instanzen gilt, dass also jeder Raucher an Krebs erkrankt. Ein einziger Raucher, der keinen Krebs bekommt, würde die Aussage „Rauchen ruft mit logischer Sicherheit Krebs hervor“ beziehungsweise „Jeder Raucher bekommt Krebs“ falsifizieren. Dennoch, obwohl es Raucher ohne Krebs gibt, besteht ein ''statistischer'' Zusammenhang zwischen diesen beiden Ereignissen: Die Wahrscheinlichkeit, an Krebs zu erkranken, ist bei Rauchern erhöht. Diese Wahrscheinlichkeit ist die bedingte Wahrscheinlichkeit <math>P(K\mid R)</math>, dass jemand Krebs bekommt, unter der Bedingung, dass er Raucher ist. |
|||
Wenn ''A'' und ''B'' ''abhängige'' Ereignisse sind, und ''P''(''B'') > 0 ist, dann gilt |
|||
Ebenso kann die Wahrscheinlichkeit statistisch untersucht werden, dass jemand raucht, unter der Bedingung, dass er Krebs hat. In der Wahrscheinlichkeitsrechnung ist somit zu beachten, dass der Begriff der Bedingung nicht an einen [[Kausalität|kausalen]] oder zeitlichen Zusammenhang gebunden ist. Die bedingte Wahrscheinlichkeit gibt ein Maß dafür an, wie stark der statistische Einfluss von <math>R</math> auf <math>K</math> ist. Sie kann als stochastisches Maß dafür angesehen werden, wie wahrscheinlich der Schluss <math>R\Rightarrow K</math> ist. Sie sagt aber, wie alle statistischen Größen, nichts über die etwaige Kausalität des Zusammenhangs aus. |
|||
<math>P(A|B) = \frac {P(A \cap B)} {P(B)}</math> |
|||
Mit dieser Motivation kommt man zu folgender Definition. |
|||
== Definition == <!-- Ist Ziel von Weiterleitungen --> |
|||
Es ist |
|||
Wenn <math>A</math> und <math>B</math> beliebige [[Ereignis (Wahrscheinlichkeitstheorie)|Ereignis]]se sind und <math>P(B)>0</math> ist, dann ist die '''bedingte Wahrscheinlichkeit''' von <math display="inline">A</math>, vorausgesetzt <math>B</math> (auch: die Wahrscheinlichkeit von <math display="inline">A</math> unter der Bedingung <math display="inline">B</math>), notiert als <math>P(A\mid B)</math>, definiert durch: |
|||
:<math>P(A\mid B) = \frac{P(A\cap B)}{P(B)}</math> |
|||
Darin ist <math>P(A \cap B)</math> die Wahrscheinlichkeit, dass <math>A</math> und <math>B</math> gemeinsam auftreten. <math>P(A \cap B)</math> wird gemeinsame Wahrscheinlichkeit, Verbundwahrscheinlichkeit oder Schnittwahrscheinlichkeit genannt. <math>A \cap B</math> bezeichnet dabei den [[Schnittmenge|mengentheoretischen Schnitt]] der Ereignisse <math>A</math> und <math>B</math>. |
|||
<math>P(A \cap B)</math> |
|||
In diesem Zusammenhang heißt <math>B</math> '''bedingendes Ereignis''' und <math>A</math> '''bedingtes Ereignis'''. |
|||
die '''Verbundwahrscheinlichkeit''', d.h. die Wahrscheinlichkeit, dass ''A'' und ''B'' gemeinsam auftreten. Die Verbundwahrscheinlichkeit wird teilweise auch einfach ''P''(''A'',''B'') geschrieben. Es gilt durch Umformen natürlich auch: |
|||
Ältere Notationen für bedingte Wahrscheinlichkeiten sind <math>P_B(A)</math>, <math>P(A : B)</math>, <math>P(A/B)</math> und <math>(A,B)</math>. Nach 1950 hat sich die Notation <math>P(A\mid B)</math> durchgesetzt. Dabei darf der senkrechte Strich zwischen bedingtem und bedingendem Ereignis nicht mit dem [[Shefferscher Strich |Shefferschen Strich]] der [[Aussagenlogik]] verwechselt werden. Eine ältere, nicht mehr gebräuchliche Bezeichnung ist ''relative Wahrscheinlichkeit''. |
|||
<math>P(A \cap B) = {P(A | B)} \cdot {P(B)} = {P(B | A)} \cdot {P(A)} </math> |
|||
== Eigenschaften == |
|||
Wenn ''A'' und ''B'' jedoch '''''un'''abhängig'' sind, dann gilt |
|||
* Es gilt <math>0 \leq P(A\mid B) \leq 1 </math>. |
|||
* Wenn die beiden Ereignisse <math>A</math> und <math>B</math> unvereinbar sind (<math>A \cap B = \emptyset </math>), dann gilt <math>P(A\mid B) = 0</math>. |
|||
* Wenn <math>B</math> das Ereignis <math>A</math> zur Folge hat (<math> B \subseteq A</math>), dann gilt <math>P(A\mid B) = 1</math>. |
|||
* Wenn <math>(\Omega,\mathcal{A},P)</math> ein [[Wahrscheinlichkeitsraum]] ist, dann können für ein fixiertes Ereignis <math>B \in \mathcal{A}</math> mit <math>P(B)> 0</math> die bedingten Wahrscheinlichkeiten aller Ereignisse <math>A \in \mathcal{A}</math> unter <math>B</math> gebildet werden, |
|||
:: <math>P_B(A) = P(A\mid B), \quad A \in \mathcal{A}\;. </math> |
|||
:Dann ist <math>P_B</math> eine Wahrscheinlichkeit (ein [[Wahrscheinlichkeitsmaß]]) auf <math>(\Omega,\mathcal{A})</math> und daher <math>(\Omega,\mathcal{A},P_B)</math> ein Wahrscheinlichkeitsraum. Man nennt <math>P_B</math> die ''bedingte Wahrscheinlichkeit (von <math>P</math>'') ''bzgl.'' <math>B</math>. |
|||
== Multiplikationssatz == |
|||
<math>P(A \cap B) = P(A) \cdot P(B) \Rightarrow P(A|B) = P(A)</math> |
|||
[[Datei:Probability tree.svg|mini|hochkant=0.93|Das [[Baumdiagramm]] illustriert <math>P(A \cap B)= P\left(A\mid B\right) P(B) </math>.]] |
|||
Durch Umformen der Definitionsformel entsteht der Multiplikationssatz für zwei Ereignisse: |
|||
:<math>P(A\cap B) = P(A\mid B) \cdot P(B).</math> |
|||
Verallgemeinert man den obigen Ausdruck des Multiplikationssatzes, der für zwei Ereignisse gilt, erhält man den allgemeinen Multiplikationssatz. Man betrachte dazu den Fall mit <math>n</math> Zufallsereignissen <math>A_1, A_2,\dotsc, A_n</math>. |
|||
Sind nur bedingte und bedingende Wahrscheinlichkeiten bekannt, ergibt sich die '''totale Wahrscheinlichkeit''' von ''A'' aus: |
|||
:<math>\begin{align} |
|||
<math>P(A) = P(A | B) \cdot P(B) + P(A | \bar B) \cdot P(\bar B) </math> |
|||
P\left( \bigcap_{k = 1}^n A_k \right) |
|||
&= P\left( A_1 \right) \prod_{k=2}^n P \left(A_k \left| \bigcap_{j = 1}^{k-1} A_j \right. \right)\\ \\ |
|||
P \left(A_1\cap A_2\cap\dotsb\cap A_n\right) |
|||
&=P\left(A_1\right)\cdot\frac{P\left(A_1\cap A_2\right)}{P\left(A_1\right)} |
|||
\cdot\frac{P\left(A_1\cap A_2\cap A_3\right)}{P\left(A_1\cap A_2\right)} |
|||
\dotsm\frac{P\left(A_1\cap\dotsb\cap A_n\right)}{P\left(A_1\cap\dotsb\cap A_{n-1}\right)} \\ \\ |
|||
&= P(A_1)\cdot P\left(A_2\mid A_1\right)\cdot P\left(A_3\mid A_1\cap A_2\right) \dotsm P\left(A_n\mid A_1\cap\dotsb\cap A_{n-1}\right) |
|||
\end{align}</math> |
|||
Dabei ist vorausgesetzt, dass alle bedingenden Ereignisse positive Wahrscheinlichkeit haben. |
|||
== n Variablen == |
|||
Besonders anschaulich ist hier das Rechnen mit einem [[Baumdiagramm]], da hier das Diagramm gleichsam „mitrechnet“: Die Daten sind leicht einzusetzen und führen sequenziell an den richtigen Rechengang heran. |
|||
Man betrachte dazu den multivariaten Fall mit mehr als zwei Zufallsereignissen: |
|||
== Gesetz der totalen Wahrscheinlichkeit == |
|||
<math>P(X_1; X_2; ... ; X_n)</math> |
|||
Das Gesetz der totalen Wahrscheinlichkeit – auch als '''Satz von der totalen Wahrscheinlichkeit''' bekannt – gibt an, wie die Wahrscheinlichkeit eines Ereignisses aus bedingten Wahrscheinlichkeiten und den Wahrscheinlichkeiten bedingender Ereignisse bestimmt werden kann. Es gilt |
|||
:<math>P(A) = P\left(A\mid B\right)\cdot P(B)+P\left(A\mid B^\mathrm c\right)\cdot P\left(B^\mathrm c\right),</math> |
|||
wobei <math>B^\mathrm c</math> das [[Gegenereignis]] zu <math>B</math> bezeichnet und die Wahrscheinlichkeiten <math>P(B)</math> und <math>P(B^\mathrm{c})</math> positiv sind. Die Wahrscheinlichkeit des Ereignisses <math>A</math> heißt in diesem Zusammenhang '''totale Wahrscheinlichkeit'''. |
|||
Es gibt eine Verallgemeinerung für abzählbar viele bedingende Ereignisse. Gegeben sei eine endliche oder abzählbar unendliche Indexmenge <math>J</math>. Für Ereignisse <math>B_j</math> mit <math>P(B_j) > 0</math> für alle <math>j \in J</math>, die eine [[Partition (Mengenlehre)|Partition]] der Ergebnismenge <math>\Omega</math> bilden, die also [[paarweise disjunkt]] mit <math>\bigcup\limits_{j \in J} B_j = \Omega</math> sind, gilt |
|||
Verallgemeinert man den obigen Ausdruck für zwei Variablen erhält man den allgemeinen Multiplikationssatz der Wahrscheinlichkeiten: |
|||
:<math>P(A) = \sum_{j \in J} P\left(A\mid B_j\right)\cdot P\left(B_j\right)</math>. |
|||
<math>P(X_1; X_2; ... ; X_n) = P(X_1) P(X_2|X_1) P(X_3|X_2;X_1)...P(X_n|X_{n-1};...;X_1) = P(X_1) \frac{P(X1;X2)}{P(X_1)}...\frac{P(X_n;...;X_1)}{P(X_{n-1};...;P(X_1))}</math> |
|||
== Stochastische Unabhängigkeit == |
|||
Besonders anschaulich ist hier das Rechnen mit einem [[Entscheidungsbaum]], da hier das Diagramm gleichsam "mitrechnet": die Daten sind leicht einzusetzen, und man wird sequentiell an den richtigen Rechengang heran geführt. |
|||
Genau dann, wenn <math>A</math> und <math>B</math> [[Stochastisch unabhängige Ereignisse|stochastisch unabhängig]] sind, gilt: |
|||
:<math>P(A\cap B) = P(A) \cdot P(B)</math>, |
|||
was dann zu Folgendem führt: |
|||
Beispiele findet man im Artikel [[Bayes-Theorem]]. |
|||
:<math>P(A\mid B) = \frac{P(A) \cdot P(B)}{P(B)} = P(A)</math> bzw. <math>P(A\mid B) = P(A\mid B^\mathrm c)</math>. |
|||
Anders gesagt: Egal, ob das Ereignis <math>B</math> stattgefunden oder nicht stattgefunden hat, ist die Wahrscheinlichkeit des Ereignisses <math>A</math> stets dieselbe.<!-- Herleitung für das alternative Kriterium kann bei Bedarf nachgeliefert werden. --> |
|||
== Satz von Bayes == |
|||
==Beispiele== |
|||
Für den Zusammenhang zwischen <math>P(A \mid B)</math> und <math>P(B \mid A)</math> ergibt sich direkt aus der Definition und dem Multiplikationssatz der [[Satz von Bayes]]: |
|||
:<math>P(A \mid B) = \frac{P(A \cap B)}{P(B)} = \frac{P(B \cap A)}{P(B)} = \frac{P(B \mid A) \cdot P(A)}{P(B)}</math>. |
|||
Dabei kann <math>P(B)</math> im Nenner mit Hilfe des Gesetzes der totalen Wahrscheinlichkeit berechnet werden. |
|||
== Stetige Zufallsvariable == |
|||
===Junge oder Mädchen=== |
|||
{{Siehe auch|reguläre bedingte Verteilung}} |
|||
Eine Mutter hat zwei Kinder und wird nach dem Geschlecht der Kinder gefragt. Fall 1 dient Vergleichszwecken und basiert nicht auf bedingten Wahrscheinlichkeiten. |
|||
Für zwei reellwertige [[Zufallsvariable]]n <math>X</math>, <math>Y</math> mit [[Gemeinsame Dichte|gemeinsamer Dichte]] <math>f_{X,Y}</math> ist eine Dichte <math>f_Y</math> von <math>Y</math> gegeben durch |
|||
:<math>f_Y(y)=\int f_{X,Y}(x,y)\,dx</math>. |
|||
Falls <math>f_Y(y)>0</math>, kann man eine [[Bedingter Erwartungswert#Spezialfälle|bedingte Dichte]] <math>f_X(\,\cdot\,|Y=y)</math> von <math>X</math>, gegeben (oder vorausgesetzt) das Ereignis <math>\{Y=y\}</math>, definieren durch |
|||
:'''Fall 1''': Wenn ''das erste Kind'' ein Mädchen ist, wie groß ist die Wahrscheinlichkeit, dass auch das zweite Kind ein Mädchen ist? Die Antwort ist 1:2. |
|||
:<math>f_X(x|Y=y) \,=\, \frac{f_{X,Y}(x,y)}{f_Y(y)}</math>. |
|||
Statt <math>f_X(x|Y=y)</math> schreibt man auch <math>f_{X|Y=y}(x)</math> oder <math>f_{X|Y}(x,y)</math> für die bedingte Dichte. Die letztere Formel soll aber nicht wie die Dichte einer Zufallsvariable <math>X|Y</math> verstanden werden. |
|||
:'''Fall 2''': Wenn ''eines der Kinder'' ein Mädchen ist, wie groß ist die Wahrscheinlichkeit, dass auch das andere Kind ein Mädchen ist? Die Antwort ist 1:3. |
|||
Die (eine) simultane Dichte von <math>X</math> und <math>Y</math> erhält man dann aus der Formel |
|||
Das zunächst überraschende Ergebnis läßt sich mit der folgenden Tabelle bestimmen. Die ersten beiden Spalten zeigen, welche Möglichkeiten bei zwei Kindern bestehen: Das Erstgeborene kann ein Junge oder ein Mädchen sein, das zweitgeborene kann ebenfalls ein Junge oder ein Mädchen sein, insgesamt gibt es bei den Geschlechtern vier Kobinationen. |
|||
:<math>\,\!f_{X,Y}(x,y)=f_Y(y)f_X(x|Y=y)</math>. |
|||
Daraus lässt sich eine Form des Gesetzes der '''totalen Wahrscheinlichkeit''' herleiten: |
|||
Spalte 3 zeigt die Möglichkeiten, wenn man, wie in Fall 1, davon ausgeht, dass ''das erste Kind'' ein Mädchen sein muss - die Zeilen 1 und 2 sind dann nicht möglich. |
|||
:<math>f_X(x)=\int f_{X,Y}(x,y)\,dy=\int f_Y(y)f_X(x|Y=y)\,dy.</math> |
|||
Dieser Vorgang wird als '''Marginalisierung''' bezeichnet. |
|||
Spalte 4 zeigt die Möglichkeiten, wenn man, wie in Fall 2, davon ausgeht, dass ''wenigstens eines der beiden Kinder'' ein Mädchen ist. |
|||
Hierbei ist zu beachten, dass standardmäßig [[Wahrscheinlichkeitsdichte|Dichten]], die die gleichen Integralwerte liefern, dieselbe [[Wahrscheinlichkeitsverteilung]] repräsentieren. Dichten sind daher nicht eindeutig festgelegt. Eine zulässige Wahl für <math>f_{X,Y}</math>, <math>f_X</math>, und <math>f_Y</math> ist jede [[messbare Funktion]], die im Integral die korrekten Wahrscheinlichkeiten für <math>P(X\in A, Y\in B)</math>, <math>P(X\in A)</math> bzw. <math>P(Y\in B)</math> für beliebige <math>A</math>, <math>B</math> ergibt. Die Funktion <math>f_X(\cdot |Y=\cdot)</math> muss |
|||
:{| border="1" cellspacing="0" cellpadding="5" style="border-collapse:collapse;" |
|||
:<math>P(X\in A, Y\in B) = \int_B f_Y(y) \int_A f_X(x|Y=y)\,dx\,dy</math> |
|||
| |
|||
erfüllen. Die oben angegebenen Formeln gelten somit nur bei passender Wahl der verschiedenen Dichten. |
|||
!1. Kind !! 2. Kind !! Lösung zu Fall 1:<BR>''Zweites'' Kind ist... !! Lösung für Fall 2:<BR>''Anderes'' Kind ist... |
|||
|- |
|||
!1 |
|||
| Junge || Junge || (geht nicht) ||(geht nicht) |
|||
|- |
|||
!2 |
|||
| Junge || Mädchen || (geht nicht) || Junge |
|||
|- |
|||
!3 |
|||
| Mädchen ||Junge || Junge ||Junge |
|||
|- |
|||
!4 |
|||
| Mädchen || Mädchen || Mädchen || Mädchen |
|||
|} |
|||
Eine [[Stutzung|gestutzte]] Wahrscheinlichkeitsverteilung kann als bedingte Wahrscheinlichkeitsverteilung interpretiert werden. |
|||
Einfaches abzählen zeigt, dass in Fall 1 eine von zwei Möglichkeiten auf ein Mädchen, aber in Fall 2 nur eine von drei Möglichkeiten auf ein Mädchen hinweist. |
|||
== Beispiele == |
|||
Je nach dem Grad der Überlappung von zwei Ereignissen <math>A</math> und <math>B</math>, also der Größe der Schnittmenge <math>A \cap B</math>, kann der Eintritt von Ereignis <math>B</math> die Wahrscheinlichkeit, dass auch Ereignis <math>A</math> eingetreten ist, erhöhen oder verringern, und zwar bis auf 1 (<math>A</math> ist [[fast sicher]] eingetreten) oder bis auf 0 (<math>A</math> ist fast sicher nicht eingetreten). |
|||
=== |
=== Beispiele mit Würfeln === |
||
Die nachstehenden Beispiele beziehen sich immer auf Würfe mit einem fairen Standardwürfel. Dabei bezeichnet die Schreibweise <math>A = \{1,2,3\}</math> ein Ereignis <math>A</math>, dass bei einem Wurf eine Eins, eine Zwei oder eine Drei gewürfelt wurde. |
|||
==== Sonderfälle ==== |
|||
*Beispielsweise ist die bedingte Wahrscheinlichkeit ''P(„die Erde ist nass“|„es regnet“)'' (die Erde ist nass, wenn es regnet) meist groß, denn unter der Voraussetzung, dass es zu einem Zeitpunkt regnet, sollte man erwarten, dass die Erde nass wird. Bedingte Wahrscheinlichkeit fragt also nach, wie wahrscheinlich ein Ereignis ist, wenn ich ein anderes bereits kenne. In unserem Beispiel weiß ich, dass es regnet und frage mich, wie groß die Wahrscheinlichkeit ist, dass die Erde nass ist. Offensichtlich unterscheidet sich die bedingte Wahrscheinlichkeit von der unbedingten. |
|||
* <math>A \cap B = \emptyset</math> |
|||
:<math>A</math> und <math>B</math> haben keine gemeinsamen Elemente. Wenn <math>B</math> eintritt, kann <math>A</math> daher nicht mehr eintreten und umgekehrt. |
|||
:Beispiel: |
|||
*Die Wahrscheinlichkeit, dass jemand, der französisch spricht, ein Franzose ist, ist weder gleich groß der Wahrscheinlichkeit, dass jemand, der ein Franzose ist, auch französisch spricht, noch ergänzen sich beide Wahrscheinlichkeiten auf 100%. |
|||
:Ereignis <math>A = \{1,2,3\},</math> Ereignis <math>B = \{4,5,6\}.</math> Wenn <math>B</math> eintritt (also eine Vier, eine Fünf oder eine Sechs gewürfelt wird), ist <math>A</math> sicher nicht mehr möglich. |
|||
:<math>P(A \mid B) = \frac{P(A \cap B)}{P(B)} = \frac 0 {P(B)} = 0</math>. |
|||
* <math>A \cap B = A</math> |
|||
==Siehe auch== |
|||
:Das Ereignis <math>A</math> ist eine Teilmenge des Ereignisses <math>B</math>. |
|||
:Beispiel: |
|||
[[Fehler 1. Art]],[[Fehler 2. Art]], |
|||
:Ereignis <math>A = \{1,2\},</math> Ereignis <math>B = \{1,2,3\}.</math> |
|||
[[Absolute Häufigkeit]],[[Irrtumswahrscheinlichkeit]], [[Verbundentropie]], [[Kausalbeziehung]], [[Schnittmenge]], [[DNA-Test]], [[Zahlenanalphabetismus]], [[Sensitivität]], [[Falsch positiv]], [[Positiver prädiktiver Wert]], [[Bayessches Netzwerk]], [[Bayes-Filter]],[[Ziegenproblem]], [[Umtauschparadoxon]] |
|||
:<math>P(A \mid B) = \frac{P(A \cap B)}{P(B)} = \frac{P(A)}{P(B)} = \frac{2/6}{3/6} = \frac{2}{3}</math>. |
|||
:Die Wahrscheinlichkeit von <math>A</math> (hier a priori <math>P(A) = \tfrac{1}{3}</math>) erhöht sich in diesem Fall umgekehrt proportional zur Wahrscheinlichkeit von <math>B</math> (hier <math>P(B) = \tfrac{1}{2}</math>, die Wahrscheinlichkeit erhöht sich hier also um den Faktor 2). |
|||
:Zur Berechnung der bedingten Wahrscheinlichkeit von <math>A</math> unter der Bedingung <math>B</math> genügt in diesem Fall also die Kenntnis der absoluten Wahrscheinlichkeiten <math>P(A)</math> und <math>P(B)</math>. |
|||
* <math>A \cap B = B</math> |
|||
:Das Ereignis <math>A</math> ist eine Obermenge des Ereignisses <math>B</math> bzw. das Ereignis <math>B</math> ist eine Teilmenge des Ereignisses <math>A</math>. |
|||
:Beispiel: <math>A = \{1,2,3\}, B = \{1,2\}.</math> Wenn <math>B</math> eingetreten ist, muss daher <math>A</math> auch eingetreten sein. |
|||
:<math>P(A \mid B) = \frac{P(A \cap B)}{P(B)} = \frac{P(B)}{P(B)} = 1</math>. |
|||
==== Allgemeiner Fall ==== |
|||
Allgemeiner benötigt man im [[Laplace-Experiment]] zur Berechnung der bedingten Wahrscheinlichkeit von <math>A</math> unter der Bedingung <math>B</math> die Anzahl der Elemente der Schnittmenge <math>A \cap B.</math> |
|||
Das Ereignis <math>A = \{4,5,6\}</math>, mindestens eine Vier (d. h. 4 oder höher) zu werfen, hat [[a priori]] die Wahrscheinlichkeit <math>P(A) = \tfrac{1}{2}</math>. |
|||
Wenn nun bekannt ist, dass eine gerade Zahl gewürfelt wurde, dass also das Ereignis <math>B = \{2,4,6\}</math> eingetreten ist, dann ergibt sich die bedingte Wahrscheinlichkeit für <math>A</math> unter der Bedingung <math>B</math> wegen <math>A \cap B = \{4,6\}</math> zu |
|||
:<math>P(A \mid B) = \frac{P(A \cap B)}{P(B)} = \frac{2/6}{3/6} = \frac{2}{3}</math>. |
|||
Die bedingte Wahrscheinlichkeit ist in diesem Fall höher als die Ausgangswahrscheinlichkeit. |
|||
Wenn eine ungerade Zahl gewürfelt wurde, also das Ereignis <math>B = \{1,3,5\}</math> eingetreten ist, ist die bedingte Wahrscheinlichkeit für <math>A</math> unter der Bedingung <math>B</math> wegen <math>A \cap B = \{5\}</math> gleich |
|||
:<math>P(A \mid B) = \frac{P(A \cap B)}{P(B)} = \frac{1/6}{3/6} = \frac{1}{3}</math>. |
|||
Die bedingte Wahrscheinlichkeit ist in diesem Fall kleiner als die [[A-priori-Wahrscheinlichkeit]]. |
|||
Das Ereignis <math>A = \{1,2,3,4\}</math> hat a priori die Wahrscheinlichkeit <math>P(A) = \tfrac{2}{3}</math>. Wenn wir wissen, dass das Ereignis <math>B = \{3,4,5,6\}</math> eingetreten ist, verändert sich die Wahrscheinlichkeit für <math>A</math> wegen <math>A \cap B = \{3,4\}</math> auf |
|||
:<math>P(A \mid B) = \frac{P(A \cap B)}{P(B)} = \frac{2/6}{4/6} = \frac{1}{2}</math>. |
|||
Auch in diesem Beispiel wird das Ereignis <math>A</math> durch das Eintreten des Ereignisses <math>B</math> unwahrscheinlicher, d. h., die Wahrscheinlichkeit, dass durch den Wurf das Ereignis <math>A</math> eingetreten ist, ist gegenüber der A-priori-Wahrscheinlichkeit kleiner geworden, weil durch den Wurf das Ereignis <math>B</math> jedenfalls eingetreten ist. |
|||
=== Wurfmaschine === |
|||
[[Datei:Probability venn a b intersection.svg|mini|Bedingte Wahrscheinlichkeit als Teilflächen]] |
|||
Ein anschauliches Beispiel erlaubt es, bedingte Wahrscheinlichkeiten anhand von [[Mengendiagramm]]en unmittelbar zu verstehen. Betrachtet wird eine Wurfmaschine, die in zufälliger Weise irgendwelche Objekte (z. B. Bälle, Dartpfeile) auf eine bestimmte Fläche <math>M</math> (z. B. eine Wand) wirft, so dass Flächen gleicher Größe mit gleicher Wahrscheinlichkeit getroffen wird. Die Funktion <math>F</math> ordnet der Fläche <math>M</math> bzw. einer bestimmten Teilfläche <math>A</math> der Wand (z. B. einem beliebigen mit einem Stift markierten Kreis) ihren Flächeninhalt <math>F(M)</math> bzw. <math>F(A)</math> zu. Dann ist die Wahrscheinlichkeit <math>P(A)</math>, dass das Wurfgeschoss in <math>A</math> auftrifft, gleich dem Verhältnis der Teilfläche zur Gesamtfläche, also <math>P(A)=F(A)/F(M)</math>. |
|||
Nun sei zusätzlich vorausgesetzt, dass das Wurfgeschoss innerhalb einer anderen Teilfläche <math>B</math> aufgetroffen ist, die mit der Teilfläche <math>A</math> überlappt. Dann ist die Wahrscheinlichkeit <math>P(B)</math>, dass das Wurfgeschoss in <math>B</math> auftrifft, <math>P(B)=F(B)/F(M)</math>. |
|||
Die bedingte Wahrscheinlichkeit <math>P(A\mid B)</math>, dass das Geschoss unter der zusätzlichen Voraussetzung auch gleichzeitig innerhalb der überlappenden Teilfläche <math>A</math> auftrifft, ist proportional dem Flächeninhalt desjenigen Teils der Fläche <math>A</math>, der auch in <math>B</math> liegt, also dem Flächeninhalt <math>F(A\cap B)</math> der Schnittmenge <math>A\cap B</math>. Umgekehrt ist für eine gleich groß ausfallende Schnittmenge <math>A\cap B</math> umso weniger wahrscheinlich, dass ein in <math>B</math> auftreffendes Wurfgeschoss auch in <math>A\cap B</math> auftrifft, je größer <math>F(B)</math> vorausgesetzt ist. Also ist <math>P(A\mid B)</math> umgekehrt proportional zu <math>P(B)</math>. |
|||
Somit ergibt sich die Wahrscheinlichkeit eines Auftreffens in <math>A</math> bei zusätzlich vorausgesetztem Auftreffen in <math>B</math> als bedingte Wahrscheinlichkeit <math>P(A\mid B)=F(A\cap B)/F(B)=P(A\cap B)/P(B)</math>, also definitionsgemäß. |
|||
=== Weitere Beispiele === |
|||
* Beispielsweise ist die bedingte Wahrscheinlichkeit <math>P(\text{die Erde ist nass} \mid \text{es regnet})</math> (die Erde ist nass, wenn es regnet) meist groß, denn unter der Voraussetzung, dass es zu einem Zeitpunkt regnet, sollte man erwarten, dass die Erde nass wird. Bedingte Wahrscheinlichkeit fragt also nach, wie wahrscheinlich ein Ereignis ist, wenn ich ein anderes bereits kenne. In unserem Beispiel weiß ich, dass es regnet, und frage mich, wie groß die Wahrscheinlichkeit ist, dass die Erde nass ist. Offensichtlich unterscheidet sich die bedingte Wahrscheinlichkeit von der unbedingten. |
|||
* Die Wahrscheinlichkeit, dass jemand, der französisch spricht, ein Franzose ist, ist weder gleich groß der Wahrscheinlichkeit, dass jemand, der ein Franzose ist, auch französisch spricht, noch ergänzen sich beide Wahrscheinlichkeiten auf 100 %. |
|||
* [[People v. Collins]] (1968): In diesem Strafprozess in Kalifornien wurde ein Angeklagter unter anderem deswegen zu Unrecht als Bankräuber verurteilt, weil gemäß Zeugenaussagen der Täter – genau wie der Angeklagte – sowohl einen Bart als auch einen Schnurrbart trug, was als selten angesehen wurde. Wer einen Bart trägt, trägt aber sehr oft auch einen Schnurrbart – das Gericht legte seinem Fehlurteil nicht die bedingten Wahrscheinlichkeiten zugrunde, wie es korrekt gewesen wäre. Es handelt sich hierbei um einen sogenannten [[Confusion of the Inverse|Trugschluss des Staatsanwalts]]. |
|||
* Auslosungen im Sport: Im Jahr 2013 standen zwei deutsche und zwei spanische Mannschaften im Halbfinale der [[UEFA Champions League 2012/13|Champions League]]. Die Wahrscheinlichkeit, dass in dieser Konstellation ein rein deutsches und ein rein spanisches Halbfinale ausgelost werden, beträgt ein Drittel, nicht etwa fünfzig Prozent. Gesucht ist die Wahrscheinlichkeit, dass als zweiter Verein der zweite deutsche (spanische) Verein gezogen wird, unter der Bedingung, dass als erste Mannschaft ein deutscher (spanischer) Verein aus dem Lostopf gezogen wurde. Wenn aber als erste Mannschaft ein deutscher (spanischer) Verein gezogen wurde, ist nur noch eine von drei in der Lostrommel verbliebenen Mannschaften ebenfalls deutsch (spanisch). Daher ist die gesuchte Wahrscheinlichkeit {{Bruch|3}}. Das zeigt sich auch darin, dass in diesem Fall sechs Paarungen möglich sind. Die Option eines rein deutschen (spanischen) Finalspiels steht also zwei anderen Optionen gegenüber. Dieser einfache Fall ist auch elementar ohne bedingte Wahrscheinlichkeit lösbar: Jede der vier Mannschaften bekommt mit gleicher Wahrscheinlichkeit eine der drei anderen Mannschaften zugelost. Nur eine dieser drei Mannschaften kommt aus dem gleichen Land. Also beträgt die gesuchte Wahrscheinlichkeit {{Bruch|3}}. |
|||
* In der Medizin besteht ebenfalls oft eine nur bedingte Wahrscheinlichkeit (Konditionalität) für die Ursache (Kausalität) bzw. [[Ätiologie (Medizin)|Ätiologie]] einer Krankheit.<ref>Vgl. [[Dietrich von Engelhardt]]: ''Kausalität und Konditionalität in der modernen Medizin.'' In: [[Heinrich Schipperges]] (Hrsg.): ''Pathogenese. Grundzüge und Perspektiven einer Theoretischen Pathologie.'' Berlin/Heidelberg/New York/Tokyo 1985, S. 32–58.</ref> |
|||
== Siehe auch == |
|||
* [[Bayesianische Erkenntnistheorie]] |
|||
* [[Bedingte Varianz]] |
|||
* [[Ziegenproblem]] |
|||
* [[Gefangenenparadoxon]] |
|||
* [[Junge-oder-Mädchen-Problem]] |
|||
== Weblinks == |
== Weblinks == |
||
{{ |
{{Wikibooks|Statistik: Gemeinsame Wahrscheinlichkeit mehrerer Ereignisse|Bedingte Wahrscheinlichkeiten}} |
||
{{Wikibooks|Mathematikunterricht/ Sek/ Stochastik/ Bedingte Wahrscheinlichkeit|Bedingte Wahrscheinlichkeit (Variante für Schüler)}} |
|||
*''[http://www.wissenschaft-online.de/abo/spektrum/archiv/1600 Der Trugschluß des Ermittlers]'' [[Spektrum der Wissenschaft]] Juli 1997 ("Mathematische Unterhaltungen") |
|||
*http://www.sencer.de/index.php?p=9&more=1 |
|||
== Literatur == |
|||
*http://www.fernuni-hagen.de/www2bonsai/WTHEORIE/ds/node6.html |
|||
* {{Literatur|Autor=Hans-Otto Georgii |Titel=Stochastik |TitelErg=Einführung in die Wahrscheinlichkeitstheorie und Statistik|Auflage=4. |Verlag=Walter de Gruyter |Ort=Berlin |Jahr=2009 |ISBN=978-3-11-021526-7 |DOI=10.1515/9783110215274}} |
|||
* {{Literatur|Autor=Christian Hesse |Titel=Angewandte Wahrscheinlichkeitstheorie |Auflage=1. |Verlag=Vieweg |Ort=Wiesbaden |Jahr=2003 |ISBN=3-528-03183-2 |DOI=10.1007/978-3-663-01244-3}} |
|||
* {{Literatur|Autor=Ulrich Krengel|Titel=Einführung in die Wahrscheinlichkeitstheorie und Statistik|TitelErg=Für Studium, Berufspraxis und Lehramt|Auflage=8.|Verlag=Vieweg|Ort=Wiesbaden|Jahr=2005|ISBN=3-8348-0063-5 |DOI=10.1007/978-3-663-09885-0}} |
|||
* {{Literatur |Herausgeber=[[P. Heinz Müller|P. H. Müller]] |Titel= Bedingte Wahrscheinlichkeit eines Ereignisses (conditional probability of an event) |Sammelwerk=Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik |Verlag=Akademie-Verlag |Ort=Berlin |Datum=1991 |Auflage=5 |ISBN=978-3-05-500608-1 |Seiten=27–28}} |
|||
* {{Literatur |Herausgeber=P. H. Müller |Titel= Bedingte Wahrscheinlichkeitsverteilung (conditional probability distribution) |Sammelwerk=Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik |Verlag=Akademie-Verlag |Ort=Berlin |Datum=1991 |Auflage=5 |ISBN=978-3-05-500608-1 |Seiten=28–29}} |
|||
== Einzelnachweise und Anmerkungen == |
|||
[[en:Conditional probability]] |
|||
<references /> |
|||
[[fr:Probabilité conditionnelle]] |
|||
[[it:Probabilità condizionata]] |
|||
[[nl:Voorwaardelijke kans]] |
|||
[[pl:Prawdopodobieństwo warunkowe]] |
|||
[[Kategorie:Stochastik]] |
[[Kategorie:Stochastik]] |
||
[[Kategorie: |
[[Kategorie:Wahrscheinlichkeitsrechnung]] |
||
[[Kategorie:Medizinstatistik]] |
[[Kategorie:Medizinstatistik]] |
||
[[Kategorie:bedingte Wahrscheinlichkeit| ]] |
Aktuelle Version vom 7. Februar 2025, 14:56 Uhr
Bedingte Wahrscheinlichkeit (auch konditionale Wahrscheinlichkeit) ist die Wahrscheinlichkeit des Eintretens eines Ereignisses unter der Bedingung, dass das Eintreten eines anderen Ereignisses bereits bekannt ist. Sie wird als geschrieben. Der senkrechte Strich ist als „unter der Bedingung“ zu lesen und wie folgt zu verstehen: Wenn das Ereignis eingetreten ist, beschränken sich die Möglichkeiten auf die Ergebnisse in . Damit ändert sich auch die Wahrscheinlichkeit; diese neue Wahrscheinlichkeit für das Ereignis ist gegeben durch . Die bedingte Wahrscheinlichkeit kann also als Neueinschätzung der Wahrscheinlichkeit von interpretiert werden, wenn die Information vorliegt, dass das Ereignis bereits eingetreten ist.
Für einen verallgemeinerten, abstrakten Begriff von bedingten Wahrscheinlichkeiten als Zufallsvariablen siehe bedingter Erwartungswert.
Motivation
[Bearbeiten | Quelltext bearbeiten]Mitunter möchte man untersuchen, wie stark der statistische Einfluss einer Größe auf eine andere ist. Beispielsweise möchte man wissen, ob Rauchen () krebserregend () ist. Die logische Implikation würde fordern, dass der Schluss für alle Instanzen gilt, dass also jeder Raucher an Krebs erkrankt. Ein einziger Raucher, der keinen Krebs bekommt, würde die Aussage „Rauchen ruft mit logischer Sicherheit Krebs hervor“ beziehungsweise „Jeder Raucher bekommt Krebs“ falsifizieren. Dennoch, obwohl es Raucher ohne Krebs gibt, besteht ein statistischer Zusammenhang zwischen diesen beiden Ereignissen: Die Wahrscheinlichkeit, an Krebs zu erkranken, ist bei Rauchern erhöht. Diese Wahrscheinlichkeit ist die bedingte Wahrscheinlichkeit , dass jemand Krebs bekommt, unter der Bedingung, dass er Raucher ist.
Ebenso kann die Wahrscheinlichkeit statistisch untersucht werden, dass jemand raucht, unter der Bedingung, dass er Krebs hat. In der Wahrscheinlichkeitsrechnung ist somit zu beachten, dass der Begriff der Bedingung nicht an einen kausalen oder zeitlichen Zusammenhang gebunden ist. Die bedingte Wahrscheinlichkeit gibt ein Maß dafür an, wie stark der statistische Einfluss von auf ist. Sie kann als stochastisches Maß dafür angesehen werden, wie wahrscheinlich der Schluss ist. Sie sagt aber, wie alle statistischen Größen, nichts über die etwaige Kausalität des Zusammenhangs aus. Mit dieser Motivation kommt man zu folgender Definition.
Definition
[Bearbeiten | Quelltext bearbeiten]Wenn und beliebige Ereignisse sind und ist, dann ist die bedingte Wahrscheinlichkeit von , vorausgesetzt (auch: die Wahrscheinlichkeit von unter der Bedingung ), notiert als , definiert durch:
Darin ist die Wahrscheinlichkeit, dass und gemeinsam auftreten. wird gemeinsame Wahrscheinlichkeit, Verbundwahrscheinlichkeit oder Schnittwahrscheinlichkeit genannt. bezeichnet dabei den mengentheoretischen Schnitt der Ereignisse und .
In diesem Zusammenhang heißt bedingendes Ereignis und bedingtes Ereignis.
Ältere Notationen für bedingte Wahrscheinlichkeiten sind , , und . Nach 1950 hat sich die Notation durchgesetzt. Dabei darf der senkrechte Strich zwischen bedingtem und bedingendem Ereignis nicht mit dem Shefferschen Strich der Aussagenlogik verwechselt werden. Eine ältere, nicht mehr gebräuchliche Bezeichnung ist relative Wahrscheinlichkeit.
Eigenschaften
[Bearbeiten | Quelltext bearbeiten]- Es gilt .
- Wenn die beiden Ereignisse und unvereinbar sind (), dann gilt .
- Wenn das Ereignis zur Folge hat (), dann gilt .
- Wenn ein Wahrscheinlichkeitsraum ist, dann können für ein fixiertes Ereignis mit die bedingten Wahrscheinlichkeiten aller Ereignisse unter gebildet werden,
- Dann ist eine Wahrscheinlichkeit (ein Wahrscheinlichkeitsmaß) auf und daher ein Wahrscheinlichkeitsraum. Man nennt die bedingte Wahrscheinlichkeit (von ) bzgl. .
Multiplikationssatz
[Bearbeiten | Quelltext bearbeiten]
Durch Umformen der Definitionsformel entsteht der Multiplikationssatz für zwei Ereignisse:
Verallgemeinert man den obigen Ausdruck des Multiplikationssatzes, der für zwei Ereignisse gilt, erhält man den allgemeinen Multiplikationssatz. Man betrachte dazu den Fall mit Zufallsereignissen .
Dabei ist vorausgesetzt, dass alle bedingenden Ereignisse positive Wahrscheinlichkeit haben. Besonders anschaulich ist hier das Rechnen mit einem Baumdiagramm, da hier das Diagramm gleichsam „mitrechnet“: Die Daten sind leicht einzusetzen und führen sequenziell an den richtigen Rechengang heran.
Gesetz der totalen Wahrscheinlichkeit
[Bearbeiten | Quelltext bearbeiten]Das Gesetz der totalen Wahrscheinlichkeit – auch als Satz von der totalen Wahrscheinlichkeit bekannt – gibt an, wie die Wahrscheinlichkeit eines Ereignisses aus bedingten Wahrscheinlichkeiten und den Wahrscheinlichkeiten bedingender Ereignisse bestimmt werden kann. Es gilt
wobei das Gegenereignis zu bezeichnet und die Wahrscheinlichkeiten und positiv sind. Die Wahrscheinlichkeit des Ereignisses heißt in diesem Zusammenhang totale Wahrscheinlichkeit.
Es gibt eine Verallgemeinerung für abzählbar viele bedingende Ereignisse. Gegeben sei eine endliche oder abzählbar unendliche Indexmenge . Für Ereignisse mit für alle , die eine Partition der Ergebnismenge bilden, die also paarweise disjunkt mit sind, gilt
- .
Stochastische Unabhängigkeit
[Bearbeiten | Quelltext bearbeiten]Genau dann, wenn und stochastisch unabhängig sind, gilt:
- ,
was dann zu Folgendem führt:
- bzw. .
Anders gesagt: Egal, ob das Ereignis stattgefunden oder nicht stattgefunden hat, ist die Wahrscheinlichkeit des Ereignisses stets dieselbe.
Satz von Bayes
[Bearbeiten | Quelltext bearbeiten]Für den Zusammenhang zwischen und ergibt sich direkt aus der Definition und dem Multiplikationssatz der Satz von Bayes:
- .
Dabei kann im Nenner mit Hilfe des Gesetzes der totalen Wahrscheinlichkeit berechnet werden.
Stetige Zufallsvariable
[Bearbeiten | Quelltext bearbeiten]Für zwei reellwertige Zufallsvariablen , mit gemeinsamer Dichte ist eine Dichte von gegeben durch
- .
Falls , kann man eine bedingte Dichte von , gegeben (oder vorausgesetzt) das Ereignis , definieren durch
- .
Statt schreibt man auch oder für die bedingte Dichte. Die letztere Formel soll aber nicht wie die Dichte einer Zufallsvariable verstanden werden.
Die (eine) simultane Dichte von und erhält man dann aus der Formel
- .
Daraus lässt sich eine Form des Gesetzes der totalen Wahrscheinlichkeit herleiten:
Dieser Vorgang wird als Marginalisierung bezeichnet.
Hierbei ist zu beachten, dass standardmäßig Dichten, die die gleichen Integralwerte liefern, dieselbe Wahrscheinlichkeitsverteilung repräsentieren. Dichten sind daher nicht eindeutig festgelegt. Eine zulässige Wahl für , , und ist jede messbare Funktion, die im Integral die korrekten Wahrscheinlichkeiten für , bzw. für beliebige , ergibt. Die Funktion muss
erfüllen. Die oben angegebenen Formeln gelten somit nur bei passender Wahl der verschiedenen Dichten.
Eine gestutzte Wahrscheinlichkeitsverteilung kann als bedingte Wahrscheinlichkeitsverteilung interpretiert werden.
Beispiele
[Bearbeiten | Quelltext bearbeiten]Je nach dem Grad der Überlappung von zwei Ereignissen und , also der Größe der Schnittmenge , kann der Eintritt von Ereignis die Wahrscheinlichkeit, dass auch Ereignis eingetreten ist, erhöhen oder verringern, und zwar bis auf 1 ( ist fast sicher eingetreten) oder bis auf 0 ( ist fast sicher nicht eingetreten).
Beispiele mit Würfeln
[Bearbeiten | Quelltext bearbeiten]Die nachstehenden Beispiele beziehen sich immer auf Würfe mit einem fairen Standardwürfel. Dabei bezeichnet die Schreibweise ein Ereignis , dass bei einem Wurf eine Eins, eine Zwei oder eine Drei gewürfelt wurde.
Sonderfälle
[Bearbeiten | Quelltext bearbeiten]- und haben keine gemeinsamen Elemente. Wenn eintritt, kann daher nicht mehr eintreten und umgekehrt.
- Beispiel:
- Ereignis Ereignis Wenn eintritt (also eine Vier, eine Fünf oder eine Sechs gewürfelt wird), ist sicher nicht mehr möglich.
- .
- Das Ereignis ist eine Teilmenge des Ereignisses .
- Beispiel:
- Ereignis Ereignis
- .
- Die Wahrscheinlichkeit von (hier a priori ) erhöht sich in diesem Fall umgekehrt proportional zur Wahrscheinlichkeit von (hier , die Wahrscheinlichkeit erhöht sich hier also um den Faktor 2).
- Zur Berechnung der bedingten Wahrscheinlichkeit von unter der Bedingung genügt in diesem Fall also die Kenntnis der absoluten Wahrscheinlichkeiten und .
- Das Ereignis ist eine Obermenge des Ereignisses bzw. das Ereignis ist eine Teilmenge des Ereignisses .
- Beispiel: Wenn eingetreten ist, muss daher auch eingetreten sein.
- .
Allgemeiner Fall
[Bearbeiten | Quelltext bearbeiten]Allgemeiner benötigt man im Laplace-Experiment zur Berechnung der bedingten Wahrscheinlichkeit von unter der Bedingung die Anzahl der Elemente der Schnittmenge
Das Ereignis , mindestens eine Vier (d. h. 4 oder höher) zu werfen, hat a priori die Wahrscheinlichkeit .
Wenn nun bekannt ist, dass eine gerade Zahl gewürfelt wurde, dass also das Ereignis eingetreten ist, dann ergibt sich die bedingte Wahrscheinlichkeit für unter der Bedingung wegen zu
- .
Die bedingte Wahrscheinlichkeit ist in diesem Fall höher als die Ausgangswahrscheinlichkeit.
Wenn eine ungerade Zahl gewürfelt wurde, also das Ereignis eingetreten ist, ist die bedingte Wahrscheinlichkeit für unter der Bedingung wegen gleich
- .
Die bedingte Wahrscheinlichkeit ist in diesem Fall kleiner als die A-priori-Wahrscheinlichkeit.
Das Ereignis hat a priori die Wahrscheinlichkeit . Wenn wir wissen, dass das Ereignis eingetreten ist, verändert sich die Wahrscheinlichkeit für wegen auf
- .
Auch in diesem Beispiel wird das Ereignis durch das Eintreten des Ereignisses unwahrscheinlicher, d. h., die Wahrscheinlichkeit, dass durch den Wurf das Ereignis eingetreten ist, ist gegenüber der A-priori-Wahrscheinlichkeit kleiner geworden, weil durch den Wurf das Ereignis jedenfalls eingetreten ist.
Wurfmaschine
[Bearbeiten | Quelltext bearbeiten]
Ein anschauliches Beispiel erlaubt es, bedingte Wahrscheinlichkeiten anhand von Mengendiagrammen unmittelbar zu verstehen. Betrachtet wird eine Wurfmaschine, die in zufälliger Weise irgendwelche Objekte (z. B. Bälle, Dartpfeile) auf eine bestimmte Fläche (z. B. eine Wand) wirft, so dass Flächen gleicher Größe mit gleicher Wahrscheinlichkeit getroffen wird. Die Funktion ordnet der Fläche bzw. einer bestimmten Teilfläche der Wand (z. B. einem beliebigen mit einem Stift markierten Kreis) ihren Flächeninhalt bzw. zu. Dann ist die Wahrscheinlichkeit , dass das Wurfgeschoss in auftrifft, gleich dem Verhältnis der Teilfläche zur Gesamtfläche, also .
Nun sei zusätzlich vorausgesetzt, dass das Wurfgeschoss innerhalb einer anderen Teilfläche aufgetroffen ist, die mit der Teilfläche überlappt. Dann ist die Wahrscheinlichkeit , dass das Wurfgeschoss in auftrifft, . Die bedingte Wahrscheinlichkeit , dass das Geschoss unter der zusätzlichen Voraussetzung auch gleichzeitig innerhalb der überlappenden Teilfläche auftrifft, ist proportional dem Flächeninhalt desjenigen Teils der Fläche , der auch in liegt, also dem Flächeninhalt der Schnittmenge . Umgekehrt ist für eine gleich groß ausfallende Schnittmenge umso weniger wahrscheinlich, dass ein in auftreffendes Wurfgeschoss auch in auftrifft, je größer vorausgesetzt ist. Also ist umgekehrt proportional zu .
Somit ergibt sich die Wahrscheinlichkeit eines Auftreffens in bei zusätzlich vorausgesetztem Auftreffen in als bedingte Wahrscheinlichkeit , also definitionsgemäß.
Weitere Beispiele
[Bearbeiten | Quelltext bearbeiten]- Beispielsweise ist die bedingte Wahrscheinlichkeit (die Erde ist nass, wenn es regnet) meist groß, denn unter der Voraussetzung, dass es zu einem Zeitpunkt regnet, sollte man erwarten, dass die Erde nass wird. Bedingte Wahrscheinlichkeit fragt also nach, wie wahrscheinlich ein Ereignis ist, wenn ich ein anderes bereits kenne. In unserem Beispiel weiß ich, dass es regnet, und frage mich, wie groß die Wahrscheinlichkeit ist, dass die Erde nass ist. Offensichtlich unterscheidet sich die bedingte Wahrscheinlichkeit von der unbedingten.
- Die Wahrscheinlichkeit, dass jemand, der französisch spricht, ein Franzose ist, ist weder gleich groß der Wahrscheinlichkeit, dass jemand, der ein Franzose ist, auch französisch spricht, noch ergänzen sich beide Wahrscheinlichkeiten auf 100 %.
- People v. Collins (1968): In diesem Strafprozess in Kalifornien wurde ein Angeklagter unter anderem deswegen zu Unrecht als Bankräuber verurteilt, weil gemäß Zeugenaussagen der Täter – genau wie der Angeklagte – sowohl einen Bart als auch einen Schnurrbart trug, was als selten angesehen wurde. Wer einen Bart trägt, trägt aber sehr oft auch einen Schnurrbart – das Gericht legte seinem Fehlurteil nicht die bedingten Wahrscheinlichkeiten zugrunde, wie es korrekt gewesen wäre. Es handelt sich hierbei um einen sogenannten Trugschluss des Staatsanwalts.
- Auslosungen im Sport: Im Jahr 2013 standen zwei deutsche und zwei spanische Mannschaften im Halbfinale der Champions League. Die Wahrscheinlichkeit, dass in dieser Konstellation ein rein deutsches und ein rein spanisches Halbfinale ausgelost werden, beträgt ein Drittel, nicht etwa fünfzig Prozent. Gesucht ist die Wahrscheinlichkeit, dass als zweiter Verein der zweite deutsche (spanische) Verein gezogen wird, unter der Bedingung, dass als erste Mannschaft ein deutscher (spanischer) Verein aus dem Lostopf gezogen wurde. Wenn aber als erste Mannschaft ein deutscher (spanischer) Verein gezogen wurde, ist nur noch eine von drei in der Lostrommel verbliebenen Mannschaften ebenfalls deutsch (spanisch). Daher ist die gesuchte Wahrscheinlichkeit 1⁄3. Das zeigt sich auch darin, dass in diesem Fall sechs Paarungen möglich sind. Die Option eines rein deutschen (spanischen) Finalspiels steht also zwei anderen Optionen gegenüber. Dieser einfache Fall ist auch elementar ohne bedingte Wahrscheinlichkeit lösbar: Jede der vier Mannschaften bekommt mit gleicher Wahrscheinlichkeit eine der drei anderen Mannschaften zugelost. Nur eine dieser drei Mannschaften kommt aus dem gleichen Land. Also beträgt die gesuchte Wahrscheinlichkeit 1⁄3.
- In der Medizin besteht ebenfalls oft eine nur bedingte Wahrscheinlichkeit (Konditionalität) für die Ursache (Kausalität) bzw. Ätiologie einer Krankheit.[1]
Siehe auch
[Bearbeiten | Quelltext bearbeiten]- Bayesianische Erkenntnistheorie
- Bedingte Varianz
- Ziegenproblem
- Gefangenenparadoxon
- Junge-oder-Mädchen-Problem
Weblinks
[Bearbeiten | Quelltext bearbeiten]Literatur
[Bearbeiten | Quelltext bearbeiten]- Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, doi:10.1515/9783110215274.
- Christian Hesse: Angewandte Wahrscheinlichkeitstheorie. 1. Auflage. Vieweg, Wiesbaden 2003, ISBN 3-528-03183-2, doi:10.1007/978-3-663-01244-3.
- Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Für Studium, Berufspraxis und Lehramt. 8. Auflage. Vieweg, Wiesbaden 2005, ISBN 3-8348-0063-5, doi:10.1007/978-3-663-09885-0.
- Bedingte Wahrscheinlichkeit eines Ereignisses (conditional probability of an event). In: P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 27–28.
- Bedingte Wahrscheinlichkeitsverteilung (conditional probability distribution). In: P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 28–29.
Einzelnachweise und Anmerkungen
[Bearbeiten | Quelltext bearbeiten]- ↑ Vgl. Dietrich von Engelhardt: Kausalität und Konditionalität in der modernen Medizin. In: Heinrich Schipperges (Hrsg.): Pathogenese. Grundzüge und Perspektiven einer Theoretischen Pathologie. Berlin/Heidelberg/New York/Tokyo 1985, S. 32–58.