Zum Inhalt springen

„Stochastisch unabhängige Ereignisse“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[ungesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
RobotQuistnix (Diskussion | Beiträge)
K Bot: Ergänze: he, nl
Linkvorschlag-Funktion: 1 Link hinzugefügt.
 
(228 dazwischenliegende Versionen von mehr als 100 Benutzern, die nicht angezeigt werden)
Zeile 1: Zeile 1:
Die '''stochastische Unabhängigkeit von Ereignissen''' ist ein fundamentales [[Wahrscheinlichkeitstheorie|wahrscheinlichkeitstheoretisches]] Konzept, das die Vorstellung von sich nicht gegenseitig beeinflussenden [[Zufallsereignis]]sen formalisiert: Zwei [[Ereignis (Wahrscheinlichkeitstheorie)|Ereignisse]] heißen stochastisch unabhängig, wenn sich die Wahrscheinlichkeit dafür, dass das eine Ereignis eintritt, nicht dadurch ändert, dass das andere Ereignis eintritt beziehungsweise nicht eintritt.
'''Stochastische Unabhängigkeit''' modelliert die Anschauung, dass bestimmte statistische [[Zufall|Ereignisse]] nichts miteinander zu tun haben, also unabhängig voneinander sind. [[Stochastik|Stochastisch]] bedeutet: in wahrscheinlichkeitstheoretischer Hinsicht.


== Stochastische Unabhängigkeit zweier Ereignisse ==
Zum Beispiel sind zwei Würfe einer Münze voneinander unabhängig, d. h. das Ergebnis des zweiten Wurfs ist nicht abhängig vom Ergebnis des ersten Wurfs. Als Beispiel für zwei voneinander abhängige Ereignisse kann man die [[Regenwahrscheinlichkeit]] an zwei aufeinander folgenden Tagen ansehen. Zwischen diesen beiden Tagen besteht nämlich ein (wenn auch komplexer) Zusammenhang, der durch die [[Meteorologie]] beschrieben wird.
=== Definition ===
Es sei <math>(\Omega,\Sigma,P)</math> ein [[Wahrscheinlichkeitsraum]] und <math>A, B \in \Sigma</math> seien beliebige [[Ereignis (Wahrscheinlichkeitstheorie)|Ereignisse]], also [[Maßtheorie#Messraum, messbare Mengen, messbare Funktionen|messbare]] Teilmengen der [[Ergebnismenge]] <math>\Omega</math>.


Die Ereignisse <math>A</math> und <math>B</math> heißen ''(stochastisch) unabhängig'', wenn
:<math> P ( A \cap B ) = P ( A ) \cdot P ( B )</math>


gilt. Zwei Ereignisse sind also (stochastisch) unabhängig, wenn die Wahrscheinlichkeit, dass beide Ereignisse eintreten, gleich dem Produkt ihrer Einzelwahrscheinlichkeiten ist.
==Stochastische Unabhängigkeit zweier Ereignisse==


===Formale Definition===
=== Beispiel ===
Betrachtet man als Beispiel das zweimalige Ziehen aus einer [[Urnenmodell|Urne]] mit vier Kugeln, davon zwei schwarz und zwei rot.


Zuerst wird ''mit Zurücklegen'' gezogen. Betrachtet man die Ereignisse
Zwei [[Ereignis (Wahrscheinlichkeitstheorie)|Ereignisse]] ''A'' und ''B'', die ([[Maßtheorie#Messraum.2C_messbare_Mengen|messbare]]) [[Teilmenge]]n einer nichtleeren [[Ergebnismenge]] &Omega; sind, heißen stochastisch unabhängig, wenn
:<math> A= \{\text{ Die erste Kugel ist schwarz }\} </math>
:<math> B= \{\text{ Die zweite Kugel ist rot }\} </math>,


:<math>P(A\cap B)=P(A)\cdot P(B)</math>
dann ist <math> P(A)=\tfrac{1}{2} </math> und <math> P(B)=\tfrac{1}{2} </math>. Es ist dann
:<math> P(A \cap B)= P(\{\text{ Die erste Kugel ist schwarz und die zweite rot }\}) = \frac{1}{4} =P(A) \cdot P(B)</math>.


Die beiden Ereignisse sind also unabhängig.
ist, das heißt, wenn die [[Wahrscheinlichkeit]], dass beide Ereignisse zusammen auftreten, gleich dem Produkt ihrer Einzelwahrscheinlichkeiten ist.


Zieht man hingegen ''ohne Zurücklegen'', so lauten die neuen Wahrscheinlichkeiten für dieselben Ereignisse
===Beispiel===
:<math>P'(A)=\frac{1}{2}\quad </math> und <math>\quad P'(B)=\frac{1}{2} </math>.
Es ist aber
:<math> P'(A \cap B)=\frac{1}{2}\cdot\frac{2}{3}=\frac{1}{3}\neq \frac{1}{4} = P'(A) \cdot P'(B)</math>.
Die Ereignisse sind also nicht stochastisch unabhängig. Dies macht klar, dass stochastische Unabhängigkeit nicht nur eine Eigenschaft von Ereignissen, sondern auch der verwendeten [[Wahrscheinlichkeitsmaß]]e ist.


=== Elementare Eigenschaften ===
Der Student Harry fährt an 60 % aller Tage mit dem Rad (Ereignis R) an die Uni. Sonst nimmt er den Bus. An 30 % der Tage trägt er eine gepunktete Krawatte (Ereignis P), sonst eine gestreifte. Wie groß ist die Wahrscheinlickeit, dass Harry heute auf dem Rad mit einer gepunkteten Krawatte aufkreuzt? Wir wollen davon ausgehen, dass das Muster der Krawatte eigentlich nichts mit der Fortbewegungsart zu tun hat, dass also R stochastisch unabhängig von P ist und können dann berechnen:
* Ein Ereignis ist genau dann von sich selbst unabhängig, wenn es mit Wahrscheinlichkeit 0 oder 1 eintritt. Insbesondere ist die Grundmenge <math> \Omega </math> und die leere Menge <math> \emptyset </math> stets von sich selbst unabhängig.
* Hat das Ereignis <math>A</math> die Wahrscheinlichkeit 0 oder 1, so sind <math>A</math> und <math>B</math> für beliebige Wahl von <math>B</math> voneinander unabhängig, da dann immer <math> P(A \cap B)=0 </math> beziehungsweise <math> P(A \cap B)= P(B) </math> gilt. Die Umkehrung ist auch richtig: Ist <math>A</math> von jedem beliebigen <math>B</math> unabhängig, so ist <math> P(A)=1 </math> oder <math> P(A)=0 </math>.
* Unabhängigkeit ist nicht zu verwechseln mit [[Disjunktheit]]. Disjunkte Ereignisse sind nur dann unabhängig, wenn eines der Ereignisse die Wahrscheinlichkeit 0 hat, da <math>P(A\cap B)=P(\emptyset)=0</math>.<ref>Norbert Henze: Stochastik für Einsteiger, Braunschweig/Wiesbaden, Vieweg Verlag, 1997, ISBN 3-528-06894-9, S. 118</ref>
* Unter Verwendung des wichtigen Begriffes der [[Bedingte Wahrscheinlichkeit|bedingten Wahrscheinlichkeit]] erhält man die folgenden äquivalenten Definitionen: Zwei Ereignisse <math>A</math> und <math>B</math> mit <math>P(A), P(B) > 0</math> sind genau dann unabhängig, wenn


:<math>P(R \cap P)=P(R)\cdot P(P) = 0{,}6 \cdot 0{,}3 = 0{,}18 \ .</math>
:<math> P(A|B) \; = P(A) </math>


:oder dazu äquivalent
Die Wahrscheinlichkeit beträgt also 0,18 oder man könnte sagen, an 18 % aller Tage kommt Harry mit dem Rad und hat eine gepunktete Krawatte an.


:<math> P(A|B) \; = P(A|\bar B).</math>
==Stochastische Unabhängigkeit mehrerer Ereignisse==


:Insbesondere die letzten beiden Definitionen zusammen sagen aus: Die Wahrscheinlichkeit des Eintretens des Ereignisses <math>A</math> hängt nicht davon ab, ob das Ereignis <math>B</math> oder <math>\bar B</math> eintritt. Da die Rollen von <math>A</math> und <math>B</math> auch vertauscht werden können, sagt man, die beiden Ereignisse sind unabhängig voneinander.
Verallgemeinert gilt:

=== Geschichte ===
Das Konzept nahm in Untersuchungen von [[Abraham de Moivre]] und [[Thomas Bayes]] über Glücksspiele mit Ziehen ohne Zurücklegen Gestalt an, auch wenn zuvor [[Jakob I Bernoulli]] implizit darauf aufbaut.<ref>de Tari and Diblasi: Analysis of didactic situations suggested to distinguish disjunctive events and independent events.
In: ICOTS-7, 2006.</ref>
De Moivre definiert in ''The Doctrine of Chance'' 1718
{{Zitat
|Text=… if a Fraction expresses the Probability of an Event, and another Fraction the Probability of another Event, and those two Events are independent; the Probability that both those Events will Happen, will be the Product of those Fractions.
|Sprache=en}}
und in einer späteren Ausgabe<ref>Zitiert nach: ''Grinstead and Snell’s Introduction to Probability.'' In: The CHANCE Project. Version vom 4. Juli 2006. {{Webarchiv |url=http://www.dartmouth.edu/~chance/teaching_aids/books_articles/probability_book/book.html |text=Website |wayback=20110727200156 }}</ref>
{{Zitat
|Text=Two Events are independent, when they have no connexion one with
the other, and that the happening of one neither forwards nor obstructs
the happening of the other.
|Sprache=en}}
Das letztere ist Vorläufer der Darstellung von stochastischer Unabhängigkeit über bedingte Wahrscheinlichkeiten
<math> P(A|B) = P(A)</math>. Die erste formal korrekte Definition der stochastischen Unabhängigkeit wurde 1900 von [[Georg Bohlmann]] gegeben.

== Stochastische Unabhängigkeit mehrerer Ereignisse ==
=== Definition ===
Sei <math>(\Omega,\Sigma,P)</math> ein [[Wahrscheinlichkeitsraum]], <math>I</math> eine nichtleere Indexmenge
Sei <math>(\Omega,\Sigma,P)</math> ein [[Wahrscheinlichkeitsraum]], <math>I</math> eine nichtleere Indexmenge
und <math>(\Sigma_i)_{i\in I}</math> mit <math>\Sigma_i\subset \Sigma</math> für alle <math>i\in I</math> eine Menge nichtleerer [[Mengensystem]]e, so heißen <math>(\Sigma_i)_{i\in I}</math> '''stochastisch unabhängig''', wenn für jede endliche Teilmenge <math>J\subset I</math> und alle Wahlen <math>A_j\in\Sigma_j</math> mit <math>j\in J</math> gilt:
und sei <math> (A_i)_{i \in I} </math> eine Familie von Ereignissen. Die Familie von Ereignissen heißt unabhängig, wenn für jede endliche nichtleere Teilmenge <math> J </math> von <math> I </math> gilt, dass
:<math>P(\cap_{j\in J} A_j) = \Pi_{j\in J} P(A_j)</math>.
:<math> P\left( \bigcap_{j \in J} A_j\right)= \prod_{j \in J} P (A_j) </math>


=== Beispiel ===
Eine Menge von [[Zufallsvariable|Zufallsgrößen]] heißt stochastisch unabhängig, wenn ihre [[Urbild (Mathematik)|Urbild]]-[[Sigma-Algebra|&sigma;-Algebren]] stochastisch unabhängig bezüglich obiger Definition sind.


Gemäß obiger Definition sind drei Ereignisse <math>A_1</math>, <math>A_2</math>, <math>A_3</math> genau dann stochastisch unabhängig, wenn sie paarweise unabhängig sind und ''zusätzlich'' <math>P(A_1 \cap A_2 \cap A_3) = P(A_1) \cdot P(A_2) \cdot P(A_3)</math> gilt. Folgendes Beispiel von [[Sergei Natanowitsch Bernstein|Bernstein]] (1927) zeigt die paarweise Unabhängigkeit von drei Ereignissen <math>A_1</math>, <math>A_2</math> und <math>A_3</math>, die aber nicht gemeinsam (also <math>A_1</math>, <math>A_2</math> und <math>A_3</math> gleichzeitig) unabhängig sind (ein ähnliches Beispiel wurde bereits 1908 von [[Georg Bohlmann]] gegeben).
==Bemerkungen==


In einer Schachtel befinden sich 4 Zettel mit folgenden Zahlenkombinationen: 112, 121, 211, 222. Einer der Zettel wird zufällig (je mit Wahrscheinlichkeit 1/4) gezogen. Wir betrachten dann folgende drei Ereignisse:
Bei methodisch korrektem Vorgehen kann man nicht einfach Unabhängigkeit vermuten, sondern man muss sie anhand obiger Formel überprüfen. Dabei ist meistens die gemeinsame Wahrscheinlichkeit P(A &cap; B) nicht von vornherein gegeben. Bei der praktischen [[Auswertung]] erhobener Daten kann man beispielsweise mit einem [[Chi-Quadrat-Test|&chi;<sup>2</sup>-Test]] die Merkmale auf stochastische Unabhängigkeit testen.
:<math>A_1 = \lbrace 1 \ \mathrm{an \ erster \ Stelle} \rbrace</math> mit <math>P(A_1) = \frac{1}{2}</math>
:<math>A_2 = \lbrace 1 \ \mathrm{an \ zweiter \ Stelle} \rbrace</math> mit <math>P(A_2) = \frac{1}{2}</math>
:<math>A_3 = \lbrace 1 \ \mathrm{an \ dritter \ Stelle} \rbrace</math> mit <math>P(A_3) = \frac{1}{2}</math>
Offensichtlich sind die drei Ereignisse paarweise unabhängig, da gilt
:<math>P(A_1 \cap A_2) = P(A_1) \cdot P(A_2) = \frac{1}{4}</math>
:<math>P(A_1 \cap A_3) = P(A_1) \cdot P(A_3) = \frac{1}{4}</math>
:<math>P(A_2 \cap A_3) = P(A_2) \cdot P(A_3) = \frac{1}{4}</math>


Die drei Ereignisse sind jedoch nicht (gemeinsam) unabhängig, da gilt
Für die Analyse auf Abhängigkeit kann man auch den [[Korrelationskoeffizient]]en zweier Zufallsvariablen verwenden. Wenn dieser ungleich Null ist, sind diese Variablen stochastisch abhängig. Der Umkehrschluss ist allerdings nicht zulässig, denn es können Abhängigkeitsstrukturen vorliegen, die der Korrelationskoeffizient nicht erfassen kann. Jedoch sind beispielsweise unkorrelierte, gemeinsam [[Normalverteilung|normalverteilte]] Zufallsvariablen auch stochastisch unabhängig.
:<math>P(A_1 \cap A_2 \cap A_3) = 0 \ne \frac{1}{8} = P(A_1) \cdot P(A_2) \cdot P(A_3).</math>


Des Weiteren kann aus <math>P(A_1 \cap A_2 \cap A_3) = P(A_1) \cdot P(A_2) \cdot P(A_3)</math> nicht geschlossen werden, dass die drei Ereignisse paarweise unabhängig sind. Betrachtet man dazu beispielsweise die Grundmenge
==Siehe auch==
:<math> \Omega= \{a,b,c,d,e,f,g,h\} </math>
* [[Zufall]], [[Bedingte Wahrscheinlichkeit]]
* [[Korrelationskoeffizient]], [[Multivariate Verteilung]], [[Reproduktivität]]


und die Ereignisse
{{Wikibooks|Mathematik: Statistik: Gemeinsame Wahrscheinlichkeit mehrerer Ereignisse|Einführung in stochastische Unabhängigkeit}}
:<math> A_1= \{a,b,d,f\} </math>
:<math> A_2=A_3= \{a,c,e,g\} </math>


versehen mit der Gleichverteilung, so ist
[[Kategorie:Stochastik]]
:<math> P(A_1 \cap A_2 \cap A_3)=P(\{a\})=\frac{1}{8}=P(A_1)\cdot P(A_2)\cdot P(A_3) </math>.


Aber es ist zum Beispiel
[[en:Statistical independence]]
:<math> P(A_2 \cap A_3 )=P(\{a,c,e,g\})= \frac{1}{2} \neq P(A_2)\cdot P(A_3) = \frac{1}{4}</math>.
[[he:תלות (סטטיסטיקה)]]

[[it:Indipendenza stocastica]]
== Unabhängigkeit und Kausalität ==
[[nl:Onafhankelijkheid (kansrekening)]]
Wichtig ist, dass stochastische Unabhängigkeit und [[Kausalität]] grundlegend verschiedene Konzepte sind. Die stochastische Unabhängigkeit ist eine rein abstrakte Eigenschaft von Wahrscheinlichkeitsmaßen und Ereignissen. Es besteht per se ''kein'' Zusammenhang zwischen stochastischer und kausaler Unabhängigkeit. So ist die stochastische Unabhängigkeit im Gegensatz zur kausalen Unabhängigkeit immer eine symmetrische Eigenschaft, es ist also immer A unabhängig von B und B unabhängig von A. Dies ist bei kausaler Unabhängigkeit nicht gegeben.
[[pl:Niezależność statystyczna]]

[[su:Statistical independence]]
=== Stochastische Unabhängigkeit und kausale Abhängigkeit ===
Betrachtet man beispielsweise beim Werfen von zwei Würfeln die Ereignisse <math>A</math>, dass der erste Würfel eine gerade Augenzahl zeigt, und <math>B</math>, dass die Summe der gewürfelten Zahlen gerade ist, dann ist <math> P(A) = P(B) =\tfrac{1}{2} </math> und <math> P(A \cap B )=\tfrac{1}{4}</math>. Die Ereignisse sind also ''stochastisch'' unabhängig voneinander, aber B ist ''kausal'' abhängig von A, da der Wurf des ersten Würfels die Summe der Augenzahlen mitbestimmt.

=== Stochastische Unabhängigkeit und kausale Unabhängigkeit ===
Ein Beispiel, bei dem sowohl stochastische als auch kausale Unabhängigkeit eintritt ist das Werfen zweier Würfel mit den Ereignissen <math>A</math>, dass der erste Würfel eine 6 zeigt, und <math>B</math>, dass der zweite Würfel eine 6 zeigt. Es ist dann <math> P(A) = P(B) =\tfrac{1}{6} </math> und <math> P(A \cap B ) = \tfrac{1}{36} </math>, es liegt also stochastische Unabhängigkeit vor. Außerdem besteht kein kausaler Zusammenhang zwischen den Würfeln.

=== Stochastische Abhängigkeit und kausale Abhängigkeit ===
Ein Fall, bei dem sowohl stochastische als auch kausale Abhängigkeit vorliegt, ist der zweimalige Münzwurf und die Ereignisse <math> A </math>, dass zweimal Kopf geworfen wird, und <math> B </math>, dass der erste Wurf Zahl zeigt. Es ist dann <math> P(A)=\tfrac{1}{4} </math> und <math> P(B)=\tfrac{1}{2} </math>, aber <math> P(A \cap B ) =0 </math>, da die Ereignisse disjunkt sind. Also sind die Ereignisse sowohl stochastisch abhängig als auch kausal abhängig.

== Bemerkungen ==
Bei methodisch korrektem Vorgehen kann man nicht einfach Unabhängigkeit vermuten, sondern man muss sie anhand obiger Formel überprüfen. Dabei ist meistens die gemeinsame Wahrscheinlichkeit <math>P(A \cap B)</math> nicht von vornherein gegeben. Bei der [[Statistik|statistischen]] Auswertung erhobener Daten kann man beispielsweise mit einem [[Chi-Quadrat-Test|χ<sup>2</sup>-Test]] die Merkmale auf stochastische Unabhängigkeit testen.

== Verallgemeinerungen ==
Eine wichtige Verallgemeinerung der stochastischen Unabhängigkeit ist die [[unabhängige Mengensysteme|Unabhängigkeit von Mengensystemen]] und die daraus folgende weitere Verallgemeinerung der [[Stochastisch unabhängige Zufallsvariablen|stochastisch unabhängigen Zufallsvariablen]]. Diese sind ein zentrales Konzept der Wahrscheinlichkeitstheorie und Voraussetzung für viele weitreichende Sätze. Mittels des [[Bedingter Erwartungswert|bedingten Erwartungswertes]] lassen sich alle genannten Konzepte noch zur [[Bedingte Unabhängigkeit|bedingten Unabhängigkeit]] erweitern.

== Literatur ==
* {{Literatur|Autor=[[Achim Klenke]]|Titel=Wahrscheinlichkeitstheorie|Auflage=3.|Verlag=Springer-Verlag|Ort=Berlin Heidelberg|Jahr=2013|ISBN=978-3-642-36017-6|DOI=10.1007/978-3-642-36018-3}}
* {{Literatur|Autor=[[Ulrich Krengel]]|Titel=Einführung in die Wahrscheinlichkeitstheorie und Statistik|TitelErg=Für Studium, Berufspraxis und Lehramt|Auflage=8.|Verlag=Vieweg|Ort=Wiesbaden|Jahr=2005|ISBN=3-8348-0063-5|DOI=10.1007/978-3-663-09885-0}}
* {{Literatur|Autor=[[Hans-Otto Georgii]]|Titel=Stochastik|TitelErg=Einführung in die Wahrscheinlichkeitstheorie und Statistik|Auflage=4.|Verlag=Walter de Gruyter|Ort=Berlin|Jahr=2009|ISBN=978-3-11-021526-7|DOI=10.1515/9783110215274}}
* {{Literatur|Autor=[[Christian Hesse (Mathematiker)|Christian Hesse]]|Titel=Angewandte Wahrscheinlichkeitstheorie|Auflage=1.|Verlag=Vieweg|Ort=Wiesbaden|Jahr=2003|ISBN=3-528-03183-2|DOI=10.1007/978-3-663-01244-3}}
* A. M. Prochorow: ''Independence''. In: Michiel Hazewinkel (Hrsg.): ''Encyclopaedia of Mathematics'', Kluwer Academic Publishers, 2001, ISBN 978-1-55608-010-4 ([https://encyclopediaofmath.org/wiki/Independence online]).

== Weblinks ==
{{Wikibooks|Statistik: Gemeinsame Wahrscheinlichkeit mehrerer Ereignisse|Einführung in stochastische Unabhängigkeit}}

== Einzelnachweise ==
<references />

[[Kategorie:Stochastik]]
[[Kategorie:Wahrscheinlichkeitsrechnung]]

Aktuelle Version vom 15. November 2024, 11:01 Uhr

Die stochastische Unabhängigkeit von Ereignissen ist ein fundamentales wahrscheinlichkeitstheoretisches Konzept, das die Vorstellung von sich nicht gegenseitig beeinflussenden Zufallsereignissen formalisiert: Zwei Ereignisse heißen stochastisch unabhängig, wenn sich die Wahrscheinlichkeit dafür, dass das eine Ereignis eintritt, nicht dadurch ändert, dass das andere Ereignis eintritt beziehungsweise nicht eintritt.

Stochastische Unabhängigkeit zweier Ereignisse

[Bearbeiten | Quelltext bearbeiten]

Es sei ein Wahrscheinlichkeitsraum und seien beliebige Ereignisse, also messbare Teilmengen der Ergebnismenge .

Die Ereignisse und heißen (stochastisch) unabhängig, wenn

gilt. Zwei Ereignisse sind also (stochastisch) unabhängig, wenn die Wahrscheinlichkeit, dass beide Ereignisse eintreten, gleich dem Produkt ihrer Einzelwahrscheinlichkeiten ist.

Betrachtet man als Beispiel das zweimalige Ziehen aus einer Urne mit vier Kugeln, davon zwei schwarz und zwei rot.

Zuerst wird mit Zurücklegen gezogen. Betrachtet man die Ereignisse

,

dann ist und . Es ist dann

.

Die beiden Ereignisse sind also unabhängig.

Zieht man hingegen ohne Zurücklegen, so lauten die neuen Wahrscheinlichkeiten für dieselben Ereignisse

und .

Es ist aber

.

Die Ereignisse sind also nicht stochastisch unabhängig. Dies macht klar, dass stochastische Unabhängigkeit nicht nur eine Eigenschaft von Ereignissen, sondern auch der verwendeten Wahrscheinlichkeitsmaße ist.

Elementare Eigenschaften

[Bearbeiten | Quelltext bearbeiten]
  • Ein Ereignis ist genau dann von sich selbst unabhängig, wenn es mit Wahrscheinlichkeit 0 oder 1 eintritt. Insbesondere ist die Grundmenge und die leere Menge stets von sich selbst unabhängig.
  • Hat das Ereignis die Wahrscheinlichkeit 0 oder 1, so sind und für beliebige Wahl von voneinander unabhängig, da dann immer beziehungsweise gilt. Die Umkehrung ist auch richtig: Ist von jedem beliebigen unabhängig, so ist oder .
  • Unabhängigkeit ist nicht zu verwechseln mit Disjunktheit. Disjunkte Ereignisse sind nur dann unabhängig, wenn eines der Ereignisse die Wahrscheinlichkeit 0 hat, da .[1]
  • Unter Verwendung des wichtigen Begriffes der bedingten Wahrscheinlichkeit erhält man die folgenden äquivalenten Definitionen: Zwei Ereignisse und mit sind genau dann unabhängig, wenn
oder dazu äquivalent
Insbesondere die letzten beiden Definitionen zusammen sagen aus: Die Wahrscheinlichkeit des Eintretens des Ereignisses hängt nicht davon ab, ob das Ereignis oder eintritt. Da die Rollen von und auch vertauscht werden können, sagt man, die beiden Ereignisse sind unabhängig voneinander.

Das Konzept nahm in Untersuchungen von Abraham de Moivre und Thomas Bayes über Glücksspiele mit Ziehen ohne Zurücklegen Gestalt an, auch wenn zuvor Jakob I Bernoulli implizit darauf aufbaut.[2] De Moivre definiert in The Doctrine of Chance 1718

“… if a Fraction expresses the Probability of an Event, and another Fraction the Probability of another Event, and those two Events are independent; the Probability that both those Events will Happen, will be the Product of those Fractions.”

und in einer späteren Ausgabe[3]

“Two Events are independent, when they have no connexion one with the other, and that the happening of one neither forwards nor obstructs the happening of the other.”

Das letztere ist Vorläufer der Darstellung von stochastischer Unabhängigkeit über bedingte Wahrscheinlichkeiten . Die erste formal korrekte Definition der stochastischen Unabhängigkeit wurde 1900 von Georg Bohlmann gegeben.

Stochastische Unabhängigkeit mehrerer Ereignisse

[Bearbeiten | Quelltext bearbeiten]

Sei ein Wahrscheinlichkeitsraum, eine nichtleere Indexmenge und sei eine Familie von Ereignissen. Die Familie von Ereignissen heißt unabhängig, wenn für jede endliche nichtleere Teilmenge von gilt, dass

Gemäß obiger Definition sind drei Ereignisse , , genau dann stochastisch unabhängig, wenn sie paarweise unabhängig sind und zusätzlich gilt. Folgendes Beispiel von Bernstein (1927) zeigt die paarweise Unabhängigkeit von drei Ereignissen , und , die aber nicht gemeinsam (also , und gleichzeitig) unabhängig sind (ein ähnliches Beispiel wurde bereits 1908 von Georg Bohlmann gegeben).

In einer Schachtel befinden sich 4 Zettel mit folgenden Zahlenkombinationen: 112, 121, 211, 222. Einer der Zettel wird zufällig (je mit Wahrscheinlichkeit 1/4) gezogen. Wir betrachten dann folgende drei Ereignisse:

mit
mit
mit

Offensichtlich sind die drei Ereignisse paarweise unabhängig, da gilt

Die drei Ereignisse sind jedoch nicht (gemeinsam) unabhängig, da gilt

Des Weiteren kann aus nicht geschlossen werden, dass die drei Ereignisse paarweise unabhängig sind. Betrachtet man dazu beispielsweise die Grundmenge

und die Ereignisse

versehen mit der Gleichverteilung, so ist

.

Aber es ist zum Beispiel

.

Unabhängigkeit und Kausalität

[Bearbeiten | Quelltext bearbeiten]

Wichtig ist, dass stochastische Unabhängigkeit und Kausalität grundlegend verschiedene Konzepte sind. Die stochastische Unabhängigkeit ist eine rein abstrakte Eigenschaft von Wahrscheinlichkeitsmaßen und Ereignissen. Es besteht per se kein Zusammenhang zwischen stochastischer und kausaler Unabhängigkeit. So ist die stochastische Unabhängigkeit im Gegensatz zur kausalen Unabhängigkeit immer eine symmetrische Eigenschaft, es ist also immer A unabhängig von B und B unabhängig von A. Dies ist bei kausaler Unabhängigkeit nicht gegeben.

Stochastische Unabhängigkeit und kausale Abhängigkeit

[Bearbeiten | Quelltext bearbeiten]

Betrachtet man beispielsweise beim Werfen von zwei Würfeln die Ereignisse , dass der erste Würfel eine gerade Augenzahl zeigt, und , dass die Summe der gewürfelten Zahlen gerade ist, dann ist und . Die Ereignisse sind also stochastisch unabhängig voneinander, aber B ist kausal abhängig von A, da der Wurf des ersten Würfels die Summe der Augenzahlen mitbestimmt.

Stochastische Unabhängigkeit und kausale Unabhängigkeit

[Bearbeiten | Quelltext bearbeiten]

Ein Beispiel, bei dem sowohl stochastische als auch kausale Unabhängigkeit eintritt ist das Werfen zweier Würfel mit den Ereignissen , dass der erste Würfel eine 6 zeigt, und , dass der zweite Würfel eine 6 zeigt. Es ist dann und , es liegt also stochastische Unabhängigkeit vor. Außerdem besteht kein kausaler Zusammenhang zwischen den Würfeln.

Stochastische Abhängigkeit und kausale Abhängigkeit

[Bearbeiten | Quelltext bearbeiten]

Ein Fall, bei dem sowohl stochastische als auch kausale Abhängigkeit vorliegt, ist der zweimalige Münzwurf und die Ereignisse , dass zweimal Kopf geworfen wird, und , dass der erste Wurf Zahl zeigt. Es ist dann und , aber , da die Ereignisse disjunkt sind. Also sind die Ereignisse sowohl stochastisch abhängig als auch kausal abhängig.

Bei methodisch korrektem Vorgehen kann man nicht einfach Unabhängigkeit vermuten, sondern man muss sie anhand obiger Formel überprüfen. Dabei ist meistens die gemeinsame Wahrscheinlichkeit nicht von vornherein gegeben. Bei der statistischen Auswertung erhobener Daten kann man beispielsweise mit einem χ2-Test die Merkmale auf stochastische Unabhängigkeit testen.

Verallgemeinerungen

[Bearbeiten | Quelltext bearbeiten]

Eine wichtige Verallgemeinerung der stochastischen Unabhängigkeit ist die Unabhängigkeit von Mengensystemen und die daraus folgende weitere Verallgemeinerung der stochastisch unabhängigen Zufallsvariablen. Diese sind ein zentrales Konzept der Wahrscheinlichkeitstheorie und Voraussetzung für viele weitreichende Sätze. Mittels des bedingten Erwartungswertes lassen sich alle genannten Konzepte noch zur bedingten Unabhängigkeit erweitern.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Norbert Henze: Stochastik für Einsteiger, Braunschweig/Wiesbaden, Vieweg Verlag, 1997, ISBN 3-528-06894-9, S. 118
  2. de Tari and Diblasi: Analysis of didactic situations suggested to distinguish disjunctive events and independent events. In: ICOTS-7, 2006.
  3. Zitiert nach: Grinstead and Snell’s Introduction to Probability. In: The CHANCE Project. Version vom 4. Juli 2006. Website (Memento vom 27. Juli 2011 im Internet Archive)