Zum Inhalt springen

„Wahrscheinlichkeitstheorie“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[ungesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
 
(625 dazwischenliegende Versionen von mehr als 100 Benutzern, die nicht angezeigt werden)
Zeile 1: Zeile 1:
Die '''Wahrscheinlichkeitstheorie''', auch '''Wahrscheinlichkeitsrechnung''' oder '''Probabilistik''', ist ein [[Teilgebiete der Mathematik|Teilgebiet der Mathematik]], das aus der Formalisierung, der Modellierung und der Untersuchung von [[Zufall]]sgeschehen hervorgegangen ist. Gemeinsam mit der [[Mathematische Statistik|mathematischen Statistik]], die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der [[Stochastik]].
{{mathematische_Symbole}}


Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige [[Ereignis (Wahrscheinlichkeitstheorie)|Ereignisse]], [[Zufallsvariable]]n und [[Stochastischer Prozess|stochastische Prozesse]].
Die '''Wahrscheinlichkeitstheorie''' ist das Gebiet der [[Mathematik]], das vom Rechnen mit [[Wahrscheinlichkeit]]en handelt.


==Axiomatischer Aufbau==
== Axiomatischer Aufbau ==
Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie [[Mengenlehre|mengentheoretisch]] formuliert und auf [[axiom]]atischen Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind ''[[Ereignis (Wahrscheinlichkeitstheorie)|Ereignisse]],'' die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.


Diese Definitionen geben keinen Hinweis darauf, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was [[Zufall]] und was [[Wahrscheinlichkeit]] eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen, ihre Ergebnisse sind dennoch exakt und vom jeweiligen Verständnis des Wahrscheinlichkeitsbegriffs unabhängig.
Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie [[Mengentheorie|mengentheoretisch]] formuliert und auf [[Axiom|axiomatische]] Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind ''Ereignisse'', die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.


=== Definitionen ===
Diese Definitionen geben keinen Hinweis, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was [[Zufall]] und was [[Wahrscheinlichkeit]] eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen. Siehe dazu die Artikel [[Wahrscheinlichkeit]], [[Bayesscher Wahrscheinlichkeitsbegriff]], [[Frequentistischer Wahrscheinlichkeitsbegriff]], [[Quantenlogik]].
Konzeptionell wird als Grundlage der mathematischen Betrachtung von einem Zufallsvorgang oder [[Zufallsexperiment]] ausgegangen. Alle möglichen Ergebnisse dieses Zufallsvorgangs fasst man in der [[Ergebnisraum|Ergebnismenge]] <math>\Omega</math> zusammen. Häufig interessiert man sich jedoch gar nicht für das genaue Ergebnis <math>\omega \in \Omega</math>, sondern nur dafür, ob es in einer bestimmten Teilmenge der Ergebnismenge liegt, was so interpretiert werden kann, dass ein Ereignis eingetreten ist oder nicht. Ein Ereignis ist also als eine [[Teilmenge]] von <math>\Omega</math> definiert. Enthält das Ereignis genau ein Element der Ergebnismenge, handelt es sich um ein [[Ergebnis (Stochastik)|Elementarereignis]]. Zusammengesetzte Ereignisse enthalten mehrere Ergebnisse. Das Ergebnis ist also ein Element der Ergebnismenge, das Ereignis jedoch eine Teilmenge.


Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen kann, werden sie in einem Mengensystem aufgeführt, der [[Σ-Algebra|Ereignisalgebra]] oder dem ''[[Ereignissystem]]'' <math>\Sigma</math> über <math>\Omega</math>, einer Menge von Teilmengen von <math>\Omega</math>, für die gilt: Sie enthält <math>\Omega</math> und ist ein [[σ-Algebra|σ-Körper]], d.&nbsp;h., sie ist gegenüber den Mengenoperationen der Vereinigung und der Komplementbildung (relativ bzgl. <math>\Omega</math>) abgeschlossen genauso wie gegenüber der unendlichen Vereinigung abzählbar vieler Mengen.
===Definitionen===
Die Wahrscheinlichkeiten sind dann Bilder einer gewissen [[Funktion (Mathematik)|Abbildung]] <math>P</math> des Ereignisraums in das Intervall [0,1]. Solch eine Abbildung heißt ''[[Wahrscheinlichkeitsmaß]]''. Das Tripel <math>(\Omega,\Sigma,P)</math> wird als ''[[Wahrscheinlichkeitsraum]]'' bezeichnet.


=== Axiome von Kolmogorow ===
Ein '''[[Wahrscheinlichkeitsraum]]''' Ω ist eine Menge, aus deren Teilmengen sich ein ''Ereignisraum'' Σ zusammensetzt, auf dem wiederum ein '''[[Wahrscheinlichkeitsmaß]]''' ''P'' definiert ist.
Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von [[Andrei Nikolajewitsch Kolmogorow|Andrei Kolmogorow]] entwickelt und 1933 publiziert.<ref>{{Literatur |Autor= A. Kolmogoroff |Titel=Grundbegriffe der Wahrscheinlichkeitsrechnung |Datum= 1933 |Seiten=2, 13}}</ref> Seine ursprünglich aus sechs Axiomen bestehende Axiomatik wird manchmal in folgender verkürzter Form dargestellt. Ein Wahrscheinlichkeitsmaß muss folgende drei Axiome erfüllen:
{{Kasten|1=''Axiome:''
# Für jedes Ereignis <math>A\in\Sigma</math> ist die Wahrscheinlichkeit von <math>A</math> eine reelle Zahl zwischen 0 und 1: <math>0\leq P(A)\leq 1</math>.
# Das sichere Ereignis <math>\Omega\in\Sigma</math> hat die Wahrscheinlichkeit 1: <math>P(\Omega)=1</math>.
# Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler ''inkompatibler'' Ereignisse ist gleich der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Dabei heißen Ereignisse <math>A_i</math> ''inkompatibel'', wenn sie paarweise [[disjunkt]] sind, also bei <math>A_i \cap A_j = \emptyset</math> für alle <math>i \neq j</math>. Es gilt daher <math>P\left(A_1\;\;\!\!\dot\cup\;\;\!\!A_2\;\;\!\!\dot\cup\;\;\!\!\!\cdots\right) = \sum P(A_i)</math>. Diese Eigenschaft wird auch [[σ-Additivität]] genannt. }}


Beispiel: Im Rahmen einer [[physik]]alischen Modellbildung wird ein Wahrscheinlichkeitsmaß zur Quantifizierung der Wahrscheinlichkeiten von Ereignissen eines Münzwurfes angesetzt; die möglichen Ergebnisse mögen ''Zahl'' und ''Kopf'' lauten.
Ein Element von Ω wird gelegentlich '''[[Elementarereignis]]''' genannt. Einem Elementarereignis wird keine Wahrscheinlichkeit, gegebenenfalls aber eine [[Wahrscheinlichkeitsdichte]] zugeschrieben.
* Dann ist die Ergebnismenge <math>\Omega=\{\text{Zahl}, \text{Kopf}\}</math> mit zwei möglichen Ergebnissen.
* Als Ereignisraum <math>\Sigma</math> kann die [[Potenzmenge]] <math>\mathcal P(\Omega)</math> gewählt werden, also <math>\Sigma=\{\emptyset,\{\text{Zahl}\},\{\text{Kopf}\},\Omega\}</math> mit vier Ereignissen.
* Ein Wahrscheinlichkeitsmaß <math>P</math> weist den Ereignissen Wahrscheinlichkeiten (Zahlen im Intervall <math>[0,1]</math>) zu. Dabei gilt aufgrund der Axiome:
** <math>P(\emptyset)=0</math>
** <math>P(\{\text{Zahl}\})=1-P(\{\text{Kopf}\})</math>
** <math>P(\Omega)=1</math>


Zusätzliche physikalische Annahmen über die Beschaffenheit der Münze können zur Wahl <math>P(\{\text{Kopf}\})=P(\{\text{Zahl}\})=0{,}5</math> führen.
Der '''[[Ereignisraum]]''' Σ ist eine Menge von Teilmengen von Ω. Wenn Ω [[Glossar mathematischer Attribute#abzählbar|abzählbar]] ist, kann man Σ als die [[Potenzmenge]] (die Menge aller Teilmengen) von Ω wählen; jedenfalls muss Σ eine [[σ-Algebra]] sein (eine bezüglich der abzählbaren Vereinigung abgeschlossene Menge von Teilmengen, die die Grundmenge und mit jeder Menge auch deren Komplement enthält).


=== Folgerungen ===
Ein '''[[Ereignis (Wahrscheinlichkeitstheorie)|Ereignis]]''' ''A'' ist somit ''Element'' von Σ und ''Teilmenge'' von Ω.
Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:


1. Aus der [[Additivität]] der Wahrscheinlichkeit [[Disjunktion|disjunkter]] Ereignisse folgt, dass komplementäre Ereignisse (Gegenereignisse) komplementäre Wahrscheinlichkeiten ('''Gegenwahrscheinlichkeiten''') haben: <math>P(\Omega\setminus A) = 1-P(A)</math>.
Ein '''[[Wahrscheinlichkeitsmaß]]''' ist ein ''Maß'' ''P'': Σ →[0,1] im Sinne der [[Maßtheorie]] mit ''P''(Ω)=1.


:''Beweis:'' Es ist <math>(\Omega\setminus A)\cup A = \Omega</math> sowie <math>(\Omega\setminus A) \cap A = \emptyset</math>. Folglich nach Axiom (3): <math>P(\Omega \setminus A) + P(A) = P(\Omega)</math> und dann nach Axiom (2): <math>P(\Omega \setminus A) + P(A) = 1</math>. Umgestellt ergibt sich: <math>P(\Omega \setminus A) = 1 - P(A)</math>.
Historische Bemerkung:
:Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von [[Andrej Nikolajewitsch Kolmogorow|Andrej Kolmogorow]] entwickelt. Ohne explizite Berufung auf die Axiome der Maßtheorie lässt sich ein Wahrscheinlichkeitsmaß mit den folgenden drei [[Kolmogorow-Axiom]]en einführen:
::'''(1)''' Für jedes Ereignis ''A''⊆Ω ist die Wahrscheinlichkeit eine reelle Zahl zwischen 0 und 1: 0≤''P''(''A'')≤1.
::'''(2)''' Das sichere Ereignis hat die Wahrscheinlichkeit 1: ''P''(Ω)=1.
::'''(3)''' Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler ''inkompatibler'' Ereignisse entspricht der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. '''Inkompatible Ereignisse''' sind [[Glossar mathematischer Attribute#disjunkt|disjunkte]] Mengen A<sub>1</sub>, A<sub>2</sub> ...; es muss gelten: <math>P(A_1 \dot\cup A_2 \dot\cup \cdots) = \sum P(A_i)</math>. Diese Eigenschaft wird auch σ-Additivität genannt.


2. Daraus folgt, dass das ''unmögliche Ereignis,'' die [[leere Menge]], die Wahrscheinlichkeit null hat: <math>P(\emptyset)=0</math>.
===Beispiel: Münzwurf===


:''Beweis:'' Es ist <math>\emptyset\cup\Omega = \Omega</math> und <math>\emptyset\cap\Omega = \emptyset</math>, also nach Axiom (3): <math>P(\emptyset) + P(\Omega) = P(\Omega)</math>. Hieraus folgt <math>P(\emptyset) = 0</math>.
Die Ereignisse beim Münzwurf mögen ''Zahl'' oder ''Wappen'' lauten.
*Dann ist der Wahrscheinlichkeitsraum Ω={Zahl,Wappen}.
*Die Ereignismenge ist die Potenzmenge Π(Ω), also Σ={{},{Zahl},{Wappen},Ω}.
*Für das Wahrscheinlichkeitsmaß ''P'' steht aufgrund der Axiome fest:
**''P''({})=0;
**''P''({Zahl})=1-''P''({Wappen});
**''P''(Ω)=1.
Zusätzliches (außermathematisches) Wissen ist erfordert, um ''P''({Zahl})=''P''({Wappen})=0,5 anzusetzen.


3. Für die Vereinigung nicht notwendig disjunkter Ereignisse folgt: <math>P(A \cup B) = P(A) + P(B) - P(A \cap B)</math>.
===Folgerungen===


[[Datei:Stochastikmengen1.PNG|center]]
Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:
:''Beweis:'' Die für den Beweis erforderlichen Mengen sind im obigen Bild dargestellt. Die Menge <math>A \cup B</math> kann danach als Vereinigung von drei disjunkten Mengen dargestellt werden:
<div align="center">[[Datei:Stochastikmengen2.PNG]]</div>
:Hieraus folgt nach (3): <math>P(A \cup B) = P(A \setminus B) + P(A \cap B) + P(B \setminus A)</math>.
:Andererseits ist nach (3) sowohl
:<math>P(A) = P(A \setminus B) + P(A \cap B)</math> als auch
:<math>P(B) = P(A \cap B) + P(B \setminus A)</math>.
:Addition liefert:
:<math>P(A)+P(B)=P(A\setminus B)+P(A\cap B)+P(A\cap B)+P(B\setminus A)=P(A \cup B)+P(A\cap B)</math>.
:Umstellen ergibt <math>P(A \cup B) = P(A) + P(B) - P(A \cap B)</math>.


:Die [[Siebformel]] von Poincaré-Sylvester verallgemeinert diese Behauptung im Falle ''n'' verschiedener (nicht notwendig disjunkter) Teilmengen.
Aus der Additivität der Wahrscheinlichkeit disjunkter Ereignisse folgt, dass komplementäre Ereignisse komplementäre Wahrscheinlichkeiten haben: ''P''(Ω\''A'') = 1-''P''(''A'').


Im Weiteren ist zwischen [[Abzählbare Menge|abzählbaren]] und [[Überabzählbarkeit|überabzählbaren]] Ergebnismengen zu unterscheiden.
Daraus folgt unmittelbar, dass das ''unmögliche Ereignis'', die [[leere Menge]], die Wahrscheinlichkeit Null hat: ''P''({})=0.


==== Abzählbare Ergebnismenge ====
Für die Vereinigung nicht notwendig disjunkter Ereignissen folgt: <math>P(A \cup B) = P(A) + P(B) - P(A \cap B)</math>.
<div align="center">[[Datei:Probability-measure.svg|mini|410px|Beispiel: Ein Glücksrad mit Ergebnismenge <math>\Omega=\{1,2,3\}</math>, Ereignisraum <math>\Sigma</math> (hier die Potenzmenge von <math>\Omega</math>) und Wahrscheinlichkeitsmaß <math>P</math>.]]</div>


Bei einer abzählbaren Ergebnismenge kann jedem Elementarereignis eine positive Wahrscheinlichkeit zugewiesen werden. Wenn <math>\Omega</math> endlich oder abzählbar unendlich ist, kann man für die [[σ-Algebra]] <math>\Sigma</math> die [[Potenzmenge]] von <math>\Omega</math> wählen.
===Bedingte Wahrscheinlichkeit===
Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus <math>\Omega</math> ist hier 1.


==== Überabzählbare Ergebnismenge ====
'''Verbundwahrscheinlichkeit (Schnittmengen von Ereignissen):'''
[[Datei:Harrows Bristle Board Bullseye.JPG|mini|Die Wahrscheinlichkeit, mit einer als punktförmig angenommenen [[Darts]]pitze einen bestimmten [[Punkt (Geometrie)|Punkt]] auf einer Scheibe zu treffen, ist null. Eine sinnvolle mathematische Theorie kann man nur auf der Wahrscheinlichkeit aufbauen, bestimmte ''Teilflächen'' zu treffen. Solche Wahrscheinlichkeiten lassen sich durch eine ''Wahrscheinlichkeitsdichte'' beschreiben.]]


Ein Prototyp einer überabzählbaren Ergebnismenge ist die Menge der reellen Zahlen.
: <math>P(A \cap B) = P(A) \cdot P(B \vert A) = P(B) \cdot P(A \vert B)</math>
In vielen Modellen ist es nicht möglich, ''allen'' Teilmengen der reellen Zahlen sinnvoll eine Wahrscheinlichkeit zuzuordnen. Als Ereignissystem wählt man statt der Potenzmenge der reellen Zahlen hier meist die [[Borelsche σ-Algebra]], das ist die kleinste σ-Algebra, die alle Intervalle von reellen Zahlen als Elemente enthält. Die Elemente dieser σ-Algebra nennt man Borelsche Mengen oder auch ([[Émile Borel|Borel]]-)messbar. Wenn die Wahrscheinlichkeit <math>P(A)</math> jeder Borelschen Menge <math>A</math> als [[Lebesgue-Integral|Integral]]


:<math>P(A)=\int_A f(x)\,\mathrm{d}x</math>
'''[[Bayes-Theorem]]:'''


über eine [[Wahrscheinlichkeitsdichte]] <math>f</math> geschrieben werden kann, wird <math>P</math>
: <math>P(A|B) = \frac {P(B | A) P(A)} {P(B)} \;,</math>
[[Absolut stetiges Maß|absolut stetig]] genannt. In diesem Fall (aber nicht nur in diesem) haben alle Elementarereignisse {<var>x</var>} die Wahrscheinlichkeit 0. Die Wahrscheinlichkeitsdichte eines
absolut stetigen Wahrscheinlichkeitsmaßes <math>P</math> ist nur fast überall eindeutig bestimmt, d.&nbsp;h., sie kann auf einer beliebigen [[Henri Léon Lebesgue|Lebesgue]]-[[Nullmenge]], also einer Menge vom [[Lebesgue-Maß]] 0, abgeändert werden, ohne dass <math>P</math> verändert wird. Wenn die erste Ableitung der [[Wahrscheinlichkeitsverteilung|Verteilungsfunktion]] von <math>P</math> existiert, so ist sie eine Wahrscheinlichkeitsdichte von P. Die Werte der Wahrscheinlichkeitsdichte werden jedoch nicht als Wahrscheinlichkeiten interpretiert.


== Spezielle Eigenschaften im Fall diskreter Wahrscheinlichkeitsräume ==
wobei P(B) die totale Wahrscheinlichkeit von B ist.
=== Laplace-Experimente ===
Wenn man annimmt, dass nur endlich viele [[Ergebnis (Stochastik)|Elementarereignisse]] möglich und alle gleichberechtigt sind, d.&nbsp;h. mit der gleichen Wahrscheinlichkeit eintreten (wie zum Beispiel beim Werfen einer idealen Münze, wobei {Zahl} und {Kopf} jeweils die Wahrscheinlichkeit 0,5 besitzen), so spricht man von einem [[Diskrete Gleichverteilung|Laplace-Experiment]]. Dann lassen sich Wahrscheinlichkeiten einfach berechnen: Wir nehmen eine endliche Ergebnismenge <math>\Omega</math> an, die die [[Mächtigkeit (Mathematik)|Mächtigkeit]] <math>|\Omega|=n</math> besitzt, d.&nbsp;h., sie hat <math>n</math> Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach <math>P=\tfrac 1 n</math>.


:''Beweis:'' Wenn <math>|\Omega|=n</math> ist, dann gibt es <math>n</math> Elementarereignisse <math>E_1, \ldots, E_n</math>. Es ist dann einerseits <math>\Omega = E_1 \cup \cdots \cup E_n</math> und andererseits sind je zwei Elementarereignisse disjunkt (inkompatibel: wenn das eine eintritt, kann das andere nicht eintreten). Also sind die Voraussetzungen für Axiom (3) erfüllt, und es gilt:
siehe auch [[Bedingte Wahrscheinlichkeit]]
:<math>P(E_1) + \cdots + P(E_n) = P(\Omega) = 1.</math>
:Da nun andererseits <math>P(E_1) = \cdots = P(E_n) = P</math> sein soll, ist <math>n \cdot P = 1</math> und daher umgestellt: <math>P = \tfrac 1 n</math>, wie behauptet.


Als Konsequenz folgt, dass für Ereignisse, die sich aus mehreren Elementarereignissen zusammensetzen, die entsprechend vielfache Wahrscheinlichkeit gilt. Ist <math>A</math> ein Ereignis der Mächtigkeit <math>|A| = m</math>, so ist <math>A</math> die Vereinigung von <math>m</math> Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit <math>P = \tfrac 1 n</math>, also ist <math>P(A) = m \cdot \tfrac 1 n = \tfrac m n</math>. Man erhält somit den einfachen Zusammenhang
==Wahrscheinlichkeitstheorie und Statistik==
:<math>P(A) = \frac{|A|}{|\Omega|}.</math>


Bei Laplace-Versuchen ist die Wahrscheinlichkeit eines Ereignisses also gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse.
Wahrscheinlichkeitstheorie und [[Schätzen und Testen|Induktive Statistik]] werden zusammenfassend auch als [[Stochastik]] bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:
*Statistische Verteilungen werden regelmäßig unter der Annahme [[Modell|modelliert]], dass sie das Resultat zufälliger Prozesse sind.
*Ungekehrt liefern statistische Daten über eingetretene Ereignisse Anhaltspunkte (in frequentistischer Interpretation sogar die einzigen akzeptablen Anhaltspunkte) für die Wahrscheinlichkeit künftiger Ereignisse.


Nachstehend ein Beispiel beim Würfeln mit einem idealen Würfel.
==Anwendungsgebiete==


:<math>\Omega = \{</math>⚀,⚁,⚂,⚃,⚄,⚅<math>\}</math>
Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten [[Verteilung]] des [[Einsatz]]es bei abgebrochenen [[Glücksspiel]]en. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.
:<math>H = \{</math>⚄,⚅<math>\}</math>
:<math>P(H) = \frac{|H|}{|\Omega|} = \frac{2}{6} = \frac{1}{3}</math>


Das Ereignis <math>H</math> = Hohe Augenzahl (5 oder 6) hat die Wahrscheinlichkeit 1/3.
Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der schließenden Statistik.
Die angewandte [[Statistik]] nutzt Ergebnisse der Wahrscheinlichkeitstheorie, etwa um [[Umfrage]]ergebnisse zu interpretieren oder [[Wirtschaftsprognose]]n zu erstellen.


Ein typischer Laplace-Versuch ist auch das Ziehen einer Karte aus einem Spiel mit <math>n</math> Karten oder das Ziehen einer Kugel aus einer [[Urnenmodell|Urne]] mit <math>n</math> Kugeln. Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit. Um die Anzahl der Elementarereignisse bei Laplace-Versuchen zu bestimmen, werden häufig Methoden der [[Kombinatorik]] verwendet.
Daneben kommt sie außer in der Physik unter anderem auch in der [[Zuverlässigkeitstheorie]] zum Einsatz.


Das Konzept der Laplace-Experimente lässt sich auf den Fall einer [[Stetige Gleichverteilung|stetigen Gleichverteilung]] verallgemeinern.
== Stichworte ==


=== Bedingte Wahrscheinlichkeit ===
''Folgende Stichworte müssen noch eingearbeitet werden:''
Unter einer [[Bedingte Wahrscheinlichkeit|bedingten Wahrscheinlichkeit]] versteht man die Wahrscheinlichkeit für das Eintreten eines Ereignisses <math>A</math> unter der Voraussetzung, dass das Eintreten eines anderen Ereignisses <math>B</math> bereits bekannt ist. Natürlich muss <math>B</math> eintreten können, es darf also nicht das unmögliche Ereignis sein. Man schreibt dann <math>P(A|B)</math> oder seltener <math>P_B (A)</math> für „Wahrscheinlichkeit von <math>A</math> unter der Voraussetzung <math>B</math>“, kurz „<math>P</math> von <math>A</math>, vorausgesetzt <math>B</math>“.
*[[Gesetz der großen Zahl]] -- [[Korrelation]] -- [[Wahrscheinlichkeitsverteilung]] -- [[Stochastische Abhängigkeit]] -- [[Dichtefunktion]] -- [[Entropie]]


Beispiel: Die Wahrscheinlichkeit, aus einem [[Skat]]blatt eine Herz-Karte zu ziehen (Ereignis <math>A</math>), beträgt 1/4, denn es gibt 32 Karten und darunter 8 Herz-Karten. Dann ist <math>P(\text{Herz}) = \tfrac 8{32} = \tfrac 1 4</math>. Das Gegenereignis ist dann Karo, Pik oder Kreuz und hat deshalb die Wahrscheinlichkeit <math>\tfrac{24}{32} = \tfrac 3 4</math>.
[[Kategorie:Statistik]]
[[Kategorie:Stochastik]]


[[Datei:Stochastik karten.PNG|center]]
[[bg:Теория на вероятностите]]
<div align="center"><small>Ergebnismenge beim Ziehen einer Karte aus einem Skatspiel</small></div>
[[en:Probability theory]]

[[eo:Teorio de Probabloj]]
Wenn nun aber bereits das Ereignis <math>B</math> „Die Karte ist rot“ eingetreten ist (es wurde eine Herz- oder Karo-Karte gezogen, es ist aber nicht bekannt, welche der beiden Farben), man also nur noch die Auswahl unter den 16 roten Karten hat, dann ist <math>P(A|B) = \tfrac 8{16} = \tfrac 1 2</math> die Wahrscheinlichkeit, dass es sich dann um das Herz-Blatt handelt.
[[es:Probabilidad]]

[[fr:Théorie des probabilités]]
Diese Überlegung galt für einen Laplaceversuch. Für den allgemeinen Fall ''definiert'' man die bedingte Wahrscheinlichkeit von „<math>A</math>, vorausgesetzt <math>B</math>“ als
[[lt:Tikimybių teorija]]
:<math>P(A \vert B) = \frac{P(A \cap B)}{P(B)}.</math>
[[nl:Kansrekening]]

[[no:Sannsynlighetsteori]]
Dass diese Definition sinnvoll ist, zeigt sich daran, dass die so definierte Wahrscheinlichkeit den Axiomen von Kolmogorow genügt, wenn man sich auf <math>B</math> als neue Ergebnismenge beschränkt; d.&nbsp;h., dass gilt:
[[pl:Teoria prawdopodobieństwa]]

[[sv:Sannolikhetsteori]]
# <math>0 \le P(A \vert B) \le 1</math>
[[zh:概率论]]
# <math>P(B \vert B)=1</math>
# Wenn <math>A_1,\ldots,A_k</math> paarweise disjunkt sind, so ist <math>P(A_1 \cup \cdots \cup A_k \vert B) = P(A_1 \vert B) + \cdots + P(A_k \vert B)</math>
''Beweis:''
# <math>P(A \vert B)</math> ist Quotient zweier Wahrscheinlichkeiten, für welche nach Axiom (1) gilt <math>P(A \cap B) \ge 0</math> und <math>P(B) \ge 0</math>. Da <math>B</math> nicht das unmögliche Ereignis sein soll, ist sogar <math>P(B) > 0</math>. Also gilt auch für den Quotienten <math>P(A \vert B) \ge 0</math>. Ferner sind <math>A \cap B</math> und <math> B \setminus A</math> disjunkt, und ihre Vereinigung ist <math>B</math>. Also ist nach Axiom (3): <math>P(A \cap B) = P(B) - P(B \setminus A)</math>.<br />Da <math>P(B \setminus A) \ge 0</math> ist, folgt <math>P(A \cap B) \le P(B)</math> und daher <math>P(A \vert B) \le 1</math>.
# Es ist <math>P(B \vert B) = \frac{P(B \cap B)}{P(B)} = \frac{P(B)}{P(B)} = 1.</math>
# Des Weiteren ergibt sich:
:::<math>\begin{align}
P(A_1 \cup \cdots \cup A_k \vert B) &= \frac{P((A_1 \cup \cdots \cup A_k) \cap B)}{P(B)}\\
&= \frac{P((A_1\cap B)\cup\cdots\cup(A_k \cap B))}{P(B)}\\
&= \frac{P(A_1 \cap B) + \cdots + P(A_k \cap B)}{P(B)}\\
&= \frac{P(A_1 \cap B)}{P(B)} + \cdots + \frac{P(A_k \cap B)}{P(B)} \\ \\
&= P(A_1 \vert B) + \cdots + P(A_k \vert B).
\end{align}</math>
:Dies war zu zeigen.

Beispiel: Es sei wie oben <math>A</math> das Ereignis „Ziehen einer Herz-Karte“ und <math>B</math> das Ereignis „Es ist eine rote Karte“. Dann ist:
:<math>P(A \cap B) = \frac 8{32} = \frac 1 4</math>
und
:<math>P(B)= \frac{16}{32} = \frac 1 2.</math>
Folglich gilt:
:<math>P(A \vert B) = \frac{P(A \cap B)}{P(B)} = \frac{\frac 1 4}{\frac 1 2} = \frac 1 2.</math>

Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen:

==== Verbundwahrscheinlichkeit (Schnittmengen von Ereignissen) ====
Das gleichzeitige Eintreten zweier Ereignisse <math>A</math> und <math>B</math> entspricht mengentheoretisch dem Eintreten des Verbund-Ereignisses <math>A\cap B</math>. Die Wahrscheinlichkeit hiervon berechnet sich zur ''gemeinsamen Wahrscheinlichkeit'' oder ''Verbundwahrscheinlichkeit''

:<math>P(A \cap B) = P(A) \cdot P(B \vert A) = P(B) \cdot P(A \vert B).</math>

''Beweis:'' Nach Definition der bedingten Wahrscheinlichkeit ist einerseits
:<math>P(A \vert B) = \frac{P(A\cap B)}{P(B)}</math>
und andererseits auch
:<math>P(B \vert A) = \frac{P(A \cap B)}{P(A)}.</math>
Umstellen nach <math>P(A \cap B)</math> liefert dann sofort die Behauptung.

Beispiel: Es wird eine Karte aus 32 Karten gezogen. <math>A</math> sei das Ereignis: „Es ist ein König“. <math>B</math> sei das Ereignis: „Es ist eine Herz-Karte“. Dann ist <math>A\cap B</math> das gleichzeitige Eintreten von <math>A</math> und <math>B</math>, also das Ereignis: „Die gezogene Karte ist ein Herz-König“. Offenbar ist <math>P(A) = \tfrac 4{32} = \tfrac 1 8</math>. Ferner ist <math>P(B|A) = \tfrac 1 4</math>, denn es gibt nur eine Herz-Karte unter den vier Königen. Und in der Tat ist dann <math>P(A \cap B) = P(A) \cdot P(B\vert A) = \tfrac 1 8 \cdot \tfrac 1 4 = \tfrac 1{32}</math> die Wahrscheinlichkeit für den Herz-König.

==== Satz von Bayes ====
Die bedingte Wahrscheinlichkeit von <math>A</math> unter der Bedingung <math>B</math> lässt sich durch die bedingte Wahrscheinlichkeit von <math>B</math> unter der Bedingung <math>A</math> durch
:<math>P(A \mid B)=\frac{P(B\mid A)\cdot P(A)}{P(B)}</math>
ausdrücken, wenn man die [[Totale Wahrscheinlichkeit|totalen]] Wahrscheinlichkeiten <math>P(B)</math> und <math>P(A)</math> kennt ([[Satz von Bayes]]).

=== Abhängigkeit und Unabhängigkeit von Ereignissen ===
Ereignisse nennt man unabhängig voneinander, wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst. Im umgekehrten Fall nennt man sie abhängig. Man definiert:

:Zwei Ereignisse <math>A</math> und <math>B</math> sind unabhängig, wenn <math>P(A \cap B) = P(A) \cdot P(B)</math> gilt.

:Ungenau, aber einprägsam formuliert: ''Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.''

Dass dies dem Begriff „Unabhängigkeit“ gerecht wird, erkennt man durch Umstellen nach <math>P(A)</math>:
:<math>P(A) = \frac{P(A \cap B)}{P(B)} = P(A \vert B).</math>
Das bedeutet: Die totale Wahrscheinlichkeit für <math>A</math> ist ebenso groß wie die Wahrscheinlichkeit für <math>A</math>, vorausgesetzt <math>B</math>; das Eintreten von <math>B</math> beeinflusst also die Wahrscheinlichkeit von <math>A</math> nicht.

Beispiel: Es wird eine aus 32 Karten gezogen. <math>A</math> sei das Ereignis „Es ist eine Herz-Karte“. <math>B</math> sei das Ereignis „Es ist eine Bild-Karte“. Diese Ereignisse sind unabhängig, denn das Wissen, dass man eine Bild-Karte zieht, beeinflusst nicht die Wahrscheinlichkeit, dass es eine Herz-Karte ist (Der Anteil der Herz-Karten unter den Bilder-Karten ist ebenso groß wie der Anteil der Herz-Karten an allen Karten). Offenbar ist <math>P(A) = \tfrac 8{32} = \tfrac 1 4</math> und <math>P(B) = \tfrac{12}{32} = \tfrac 3 8</math>. <math>A \cap B</math> ist das Ereignis „Es ist eine Herz-Bildkarte“. Da es davon drei gibt, ist <math>P(A \cap B) = \tfrac 3{32}</math>. Und in der Tat stellt man fest, dass <math>\tfrac 1 4 \cdot \tfrac 3 8 = \tfrac 3{32}</math> ist.

Ein weiteres Beispiel für sehr kleine und sehr große Wahrscheinlichkeiten findet sich in [[Infinite-Monkey-Theorem]].

== Maßtheoretische Sichtweise ==

Die klassische Wahrscheinlichkeitsrechnung betrachtet nur Wahrscheinlichkeiten auf diskreten Wahrscheinlichkeitsräumen und stetige Modelle mit Dichtefunktionen. Diese beiden Ansätze lassen sich durch die moderne Formulierung der Wahrscheinlichkeitstheorie, die auf den Konzepten und Ergebnissen der [[Maßtheorie|Maß-]] und [[Lebesgue-Integral|Integrationstheorie]] beruht, vereinheitlichen und verallgemeinern.

=== Wahrscheinlichkeitsräume ===
{{Hauptartikel|Wahrscheinlichkeitsraum}}
In dieser Sichtweise ist ein Wahrscheinlichkeitsraum <math>(\Omega, \Sigma, P)</math> ein [[Maßtheorie#Maßraum|Maßraum]] mit einem Wahrscheinlichkeitsmaß <math>P</math>. Das bedeutet, die Ergebnismenge <math>\Omega</math> ist eine beliebige Menge, der Ereignisraum <math>\Sigma</math> ist eine [[σ-Algebra]] mit Grundmenge <math>\Omega</math> und <math>P \colon \Sigma \to [0,1]</math> ist ein [[Maß (Mathematik)|Maß]], das durch <math>P(\Omega) = 1</math> normiert ist.

Wichtige Standardfälle von Wahrscheinlichkeitsräumen sind:
* <math>\Omega</math> ist eine abzählbare Menge und <math>\Sigma</math> ist die Potenzmenge von <math>\Omega</math>. Dann ist jedes Wahrscheinlichkeitsmaß <math>P</math> eindeutig festgelegt durch seine Werte <math>P(\{\omega\})</math> auf den einelementigen Teilmengen von <math>\Omega</math> und für alle <math>A \in \Sigma</math> gilt
::<math>P(A) = \sum_{\omega\in A} P(\{\omega\})</math>.
* <math>\Omega</math> ist eine Teilmenge von <math>\mathbb{R}^n</math> und <math>\Sigma</math> ist die [[Borelsche σ-Algebra]] auf <math>\Omega</math>. Ist das Wahrscheinlichkeitsmaß <math>P</math> [[Absolut stetiges Maß|absolut stetig]] bezüglich des [[Lebesgue-Maß]]es, dann besitzt <math>P</math> nach dem [[Satz von Radon-Nikodým]] eine Lebesgue-Dichte <math>f</math>, d.&nbsp;h., für alle <math>A \in \Sigma</math> gilt
::<math>P(A) = \int_A f(x) \, \mathrm d x</math>.
:Umgekehrt wird für eine nichtnegative messbare Funktion <math>f</math>, welche die Normierungsbedingung <math>\textstyle \int_\Omega f(x) \, dx = 1</math> erfüllt, durch diese Formel ein Wahrscheinlichkeitsmaß auf <math>\Omega</math> definiert.
* <math>\textstyle\Omega = \prod_{i\in I} \Omega_i</math> ist ein [[kartesisches Produkt]] und <math>\textstyle\Sigma = \bigotimes_{i\in I} \Sigma_i</math> ist die [[Produkt-σ-Algebra]] von σ-Algebren <math>\Sigma_i</math> auf <math>\Omega_i</math>. Sind Wahrscheinlichkeitsmaße <math>P_i</math> auf <math>\Omega_i</math> gegeben, dann wird durch das [[Produktmaß]] <math>\textstyle P = \bigotimes_{i\in I} P_i</math> ein Wahrscheinlichkeitsmaß auf <math>\Omega</math> definiert, das die unabhängige Hintereinanderausführung der Einzelexperimente <math>(\Omega_i, \Sigma_i, P_i)_{i\in I}</math> modelliert.

=== Zufallsvariable ===
{{Hauptartikel|Zufallsvariable}}
Eine Zufallsvariable ist das mathematische Konzept für eine Größe, deren Wert vom Zufall abhängig ist.
Aus maßtheoretischer Sicht handelt es sich um eine [[messbare Funktion]] <math>X</math> auf einem Wahrscheinlichkeitsraum <math>(\Omega, \Sigma, P)</math> in einen [[Messraum (Mathematik)|Messraum]] <math>(\Omega', \Sigma')</math> bestehend aus einer Menge <math>\Omega'</math> und einer σ-Algebra <math>\Sigma'</math> auf <math>\Omega'</math>. Messbarkeit bedeutet dabei, dass für alle <math>A' \in \Sigma'</math> das [[Urbild (Mathematik)|Urbild]] <math>X^{-1}(A')</math> ein Element der σ-Algebra <math>\Sigma</math> ist. Die [[Wahrscheinlichkeitsverteilung|Verteilung]] von <math>X</math> ist dann nichts anderes als das [[Bildmaß]]
:<math>P_X := P \circ X^{-1} : \Sigma' \to [0,1], \quad P \circ X^{-1}(A') = P(X^{-1}(A'))</math>,
das von <math>X</math> auf dem Messraum <math>(\Omega', \Sigma')</math> induziert wird und diesen zu einem Wahrscheinlichkeitsraum <math>(\Omega', \Sigma', P_X)</math> macht.

Der [[Erwartungswert]] einer reellwertigen Zufallsvariable <math>X</math> mittelt die möglichen Ergebnisse. Er lässt sich abstrakt definieren als [[Lebesgue-Integral|Integral]] von <math>X</math> bezüglich des Wahrscheinlichkeitsmaßes <math>P</math>:
:<math>\operatorname{E}(X) = \int_\Omega X \, \mathrm d P</math>.

== Wahrscheinlichkeitstheorie und Statistik ==
Wahrscheinlichkeitstheorie und [[mathematische Statistik]] werden zusammenfassend auch als [[Stochastik]] bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:
* Statistische Verteilungen werden regelmäßig unter der Annahme [[modell]]iert, dass sie das Resultat zufälliger Prozesse sind.
* Statistische Verfahren können auf [[Numerische Mathematik|numerische]] Weise Anhaltspunkte für das Verhalten von Wahrscheinlichkeitsverteilungen liefern.

== Anwendungsgebiete ==
Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen [[Glücksspiel]]en. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.

Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der [[Statistik]]. Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie, um [[Umfrage]]ergebnisse zu analysieren oder Wirtschaftsprognosen zu erstellen.

Große Bereiche der Physik wie die [[Thermodynamik]] und die [[Quantenmechanik]] nutzen die Wahrscheinlichkeitstheorie zur theoretischen Beschreibung ihrer Resultate.

Sie ist ferner die Grundlage für mathematische Disziplinen wie die Zuverlässigkeitstheorie, die [[Erneuerungstheorie]] und die [[Warteschlangentheorie]] und das Werkzeug zur Analyse in diesen Bereichen.

Auch in der [[Mustererkennung]] ist die Wahrscheinlichkeitstheorie von zentraler Bedeutung.

== Wahrscheinlichkeitstheorie in der Schule ==
Aufgrund ihrer vielseitigen Anwendungsbereiche und des Alltagsbezugs bereits junger Schüler wird die Wahrscheinlichkeitstheorie ab der ersten Klasse in allen Schulformen im Rahmen des Mathematikunterrichts gelehrt. Geht es in der Grundschule noch darum, Grundbegriffe der Wahrscheinlichkeitsrechnung kennenzulernen und erste Zufallsexperimente hinsichtlich ihrer Gewinnchancen zu bewerten,<ref>{{Internetquelle |url=https://kultus.hessen.de/sites/kultus.hessen.de/files/2021-06/kc_mathematik_prst_2011.pdf |titel=Bildungsstandards und Inhaltsfelder - Das neue Kerncurriculum für Hessen - Primarstufe |hrsg=Hessisches Kultusministerium |abruf=2025-01-21}}</ref> wird in der Sekundarstufe I zunehmend der Wahrscheinlichkeitsbegriff analytisch in seiner Vielseitigkeit betrachtet und es stehen zunehmend komplexere Zufallsexperimente im Zentrum des Interesses.<ref>{{Internetquelle |url=https://kultus.hessen.de/sites/kultus.hessen.de/files/2021-07/kerncurriculum_mathematik_hauptschule.pdf |titel=Bildungsstandards und Inhaltsfelder - Das neue Kerncurriculum für Hessen - Sekundarstufe I – Hauptschule |hrsg=Hessisches Kultusministerium |abruf=2025-01-21}}</ref><ref>{{Internetquelle |url=https://kultus.hessen.de/sites/kultus.hessen.de/files/2021-07/kerncurriculum_mathematik_realschule.pdf |titel=Bildungsstandards und Inhaltsfelder - Das neue Kerncurriculum für Hessen - Sekundarstufe I – Realschule |hrsg=Hessisches Kultusministerium |abruf=2025-01-21}}</ref><ref>{{Internetquelle |url=https://kultus.hessen.de/sites/kultus.hessen.de/files/2021-07/kerncurriculum_mathematik_gymnasium.pdf |titel=Bildungsstandards und Inhaltsfelder - Das neue Kerncurriculum für Hessen - Sekundarstufe I – Gymnasium |hrsg=Hessisches Kultusministerium |abruf=2025-01-21}}</ref> In der Sekundarstufe II werden die Vorkenntnisse um spezifische Aspekte wie Bernoulliketten, bedingte Wahrscheinlichkeit und Laplace-Experimente erweitert.<ref>{{Internetquelle |url=https://kultus.hessen.de/sites/kultus.hessen.de/files/2024-11/kerncurriculum_gymnasiale_oberstufe-mathematik.pdf |titel=Kerncurriculum gymnasiale Oberstufe |hrsg=Hessisches Ministerium für Kultus, Bildung und Chancen |abruf=2025-01-21}}</ref>

== Siehe auch ==
* [[Bayesianische Erkenntnistheorie]]
* [[Geschichte der Wahrscheinlichkeitsrechnung]]

== Literatur (Auswahl) ==
* {{Literatur | Autor=[[Robert B. Ash]] | Titel=Real Analysis and Probability | Reihe=Probability and Mathematical statistics | BandReihe=11 | Verlag=[[Elsevier|Academic Press, Inc.]] | Ort=New York (u.&nbsp;a.) | Datum=1972 | ISBN=0-12-065201-3 | DOI=}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=Ash%2C%20Robert%20B.&s5=&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=10&mx-pid=435320 MR0474442].
* {{Literatur | Autor=[[Krishna B. Athreya]], [[Soumendra N. Lahiri]] | Titel=Measure Theory and Probability Theory | TitelErg= | Verlag=[[Springer Science+Business Media|Springer Verlag]] | Ort=New York | Datum=2006 | ISBN=978-0-387-32903-1 | DOI=}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=TI&pg7=ALLF&pg8=ET&r=1&review_format=html&s4=Athreya&s5=probability%20theory&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq MR2247694].
* {{Literatur | Autor=[[Heinz Bauer (Mathematiker)|Heinz Bauer]] | Titel=Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie | Auflage=4. | Verlag=[[Verlag Walter de Gruyter|de Gruyter]] | Ort=Berlin | Datum=1991 | ISBN=3-11-012191-3}}
* {{Literatur | Autor=Heinz Bauer | Titel=Wahrscheinlichkeitstheorie | Auflage=5., durchgesehene und verbesserte | Verlag=de Gruyter | Ort=Berlin, New York | Datum=2002 | ISBN=3-11-017236-4}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=Bauer%2C%20Heinz&s5=%09Wahrscheinlichkeitstheorie&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=1&mx-pid=1902050 MR1902050].
* {{Literatur |Autor=[[Patrick Billingsley]] |Titel=Probability and Measure |Verlag=Wiley |Ort=New York |Datum=1995 |ISBN=0-471-00710-2 |Auflage=3}}
* {{Literatur |Autor=[[Alexander Alexejewitsch Borowkow|Alexandr A. Borovkov]] |Titel=Probability Theory |Verlag=Springer-Verlag |Ort=London |Datum=2013 |ISBN=978-1-4471-5200-2 |Originalsprache=ru |Originaltitel=Teoriya Veroyatnostei, 5. Aufl., 2009 | Übersetzer= O. B. Borovkova und P. S. Ruzankin}}
* {{Literatur | Autor=[[Kai Lai Chung]] | Titel=A Course in Probability Theory | Verlag=Academic Press | Ort=San Diego (u.&nbsp;a.) | Datum=2001 | ISBN=0-12-174151-6}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=Chung&s5=Course&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=2&mx-pid=1796326 MR1796326].
* {{Literatur |Autor=[[Erhan Çinlar]] |Titel=Probability and Stochastics |Reihe=Graduate Texts in Mathematics |BandReihe=261 |Verlag=Springer |Ort=Dordrecht / Heidelberg / London |Datum=2011 |ISBN=978-0-387-87858-4 |DOI=10.1007/978-0-387-87859-1}}
* {{Literatur | Autor=[[Harald Cramér]] | Titel=Mathematical Methods of Statistics | Reihe=Princeton Mathematical Series | Band= | Auflage=11. | Verlag=[[Princeton University Press]] | Ort=Princeton | Datum=1966}}
* {{Literatur | Autor=[[Richard M. Dudley]] | Titel=Real Analysis and Probability | TitelErg= | Reihe=Cambridge Studies in Advanced Mathematics | BandReihe=74 | Auflage= | Verlag=[[Cambridge University Press]] | Ort=Cambridge | Datum=2002 | ISBN=0-521-00754-2 | DOI=}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=%20Dudley&s5=Real%20Analysis%20and%20Probability&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=1&mx-pid=1932358 MR1932358].
* {{Literatur |Autor=[[William Feller]] |Titel=An Introduction to Probability Theory and Its Applications |Band = I |Verlag=Wiley |Ort=New York / London / Sydney |Datum=1968 |Auflage=3 |ISBN=978-0-471-25708-0}}
* {{Literatur | Autor=[[Bruno de Finetti]] | Titel=Wahrscheinlichkeitstheorie | TitelErg=Einführende Synthese mit kritischem Anhang | Auflage=4. | Verlag=[[R. Oldenbourg Verlag]] | Ort=München (u.&nbsp;a.) | Datum=1981 | ISBN= 3-486-44701-7 | DOI=}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&r=1&review_format=html&s4=de%20Finetti&s5=Wahrscheinlichkeitstheorie&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq MR0742141].
* {{Literatur | Autor=[[Marek Fisz]] | Titel=Wahrscheinlichkeitsrechnung und mathematische Statistik | Reihe=Hochschulbücher für Mathematik | BandReihe=40 | Auflage=8. | Verlag=[[Deutscher Verlag der Wissenschaften|VEB Deutscher Verlag der Wissenschaften]] | Ort=Berlin | Datum=1976}}
* {{Literatur | Autor=[[Peter Gänssler|P. Gänssler]], [[Winfried Stute|W. Stute]] | Titel=Wahrscheinlichkeitstheorie | TitelErg= | Reihe=Hochschultext | BandReihe=91 | Verlag=Springer Verlag | Ort=Berlin Heidelberg, New York | Datum=1977 | ISBN=3-540-08418-5}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=AUCN&pg6=TI&pg7=ALLF&pg8=ET&review_format=html&s4=G%C3%A4nssler&s5=Stute&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=5&mx-pid=501219 MR0501219].
* {{Literatur | Autor=[[Boris Wladimirowitsch Gnedenko]] | Titel=Lehrbuch der Wahrscheinlichkeitstheorie | Verlag=[[Verlag Harri Deutsch]] | Ort=Thun, Frankfurt am Main | Datum=1997 | ISBN=3-8171-1531-8}}
* {{Literatur | Autor=[[Hans-Otto Georgii]] | Titel=Stochastik | TitelErg=Einführung in die Wahrscheinlichkeitstheorie und Statistik | Auflage=5. | Verlag=de Gruyter | Datum=2015 | ISBN=978-3-11-035969-5}}
* {{Literatur | Autor=[[Jørgen Hoffmann-Jørgensen|J. Hoffmann-Jørgensen]] | Titel=Probability with a View toward Statistics | TitelErg=Volume I | Reihe=Chapman & Hall Probability Series | BandReihe=91 | Verlag=[[Chapman and Hall]] | Ort=New York | Datum=1994 | ISBN=0-412-05221-0}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=&s5=Probability%20with%20a%20View%20toward%20Statistics&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=2&mx-pid=1278485 MR1278485].
* {{Literatur |Autor=[[Olav Kallenberg]] |Titel=Foundations of Modern Probability |Reihe=Probability Theory and Stochastic Modelling |BandReihe=99 |Auflage=3 |Verlag=Springer |Ort=Cham |Datum=2021 |ISBN=978-3-030-61870-4 |DOI=10.1007/978-3-030-61871-1}}
* {{Literatur | Autor=[[Alexander Jakowlewitsch Chintschin|A. J. Khintchine]] und A. N. Kolmogoroff | Titel=Über Konvergenz von Reihen, deren Glieder durch den Zufall bestimmt werden | Sammelwerk=[[Recueil mathématique de la Société mathématique de Moscou]] [Matematicheskii Sbornik] | Band=32 | Datum=1925 | Seiten=668-677}}
* {{Literatur | Autor=[[Achim Klenke]] | Titel=Wahrscheinlichkeitstheorie | Auflage=3., überarbeitete und ergänzte | Verlag=[[Springer Spektrum]] | Ort=Berlin, Heidelberg | Datum=2013 | ISBN=978-3-642-36017-6 | DOI=10.1007/978-3-642-36018-6}}
* {{Literatur | Autor=[[Oleg Klesov]] | Titel=Limit Theorems for Multi-Indexed Sums of Random Variables | Verlag=Springer Verlag | Ort=Heidelberg, New York, Dordrecht, London | Datum=2014 | ISBN=978-3-662-44387-3 | DOI=10.1007/978-3-662-44388-0}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=Klesov%2C%20Oleg&s5=&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=1&mx-pid=3244237 MR3244237].
* {{Literatur |Autor=[[Andrei Nikolajewitsch Kolmogorow|A. Kolmogoroff]] |Titel=Grundbegriffe der Wahrscheinlichkeitsrechnung |Reihe=Ergebnisse der Mathematik und ihrer Grenzgebiete |BandReihe=3 |Verlag=Springer |Ort=Berlin |Datum= 1933}} Reprint: {{Literatur |Autor= |Titel=Grundbegriffe der Wahrscheinlichkeitsrechnung |Verlag=Springer-Verlag |Ort=Berlin / Heidelberg / New York |Datum= 1973 |ISBN=978-3-642-49596-0 |DOI=10.1007/978-3-642-49888-6 |Online=https://archive.org/details/kolmogoroff-1933-grundbegriffe-der-wahrscheinlichkeitsrechnung}}
* {{Literatur | Autor=A. Kolmogoroff | Titel=Über die Summen durch den Zufall bestimmter unabhängiger Größen | Sammelwerk=[[Mathematische Annalen]] | Band=99 | Datum=1928 | Seiten=309-319 | DOI=10.1007/BF01459098}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=JOUR&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=Kolmogorov&s5=Mathematische%20Annalen&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=7&mx-pid=1512588 MR1512588].
* {{Literatur | Autor=[[Ulrich Krengel]] | Titel=Einführung in die Wahrscheinlichkeitstheorie und Statistik | TitelErg=Für Studium, Berufspraxis und Lehramt | Reihe=Vieweg Studium: Aufbaukurs Mathematik | Auflage=8. erweiterte | Verlag=[[Vieweg+Teubner Verlag|Vieweg]] | Ort=Wiesbaden | Datum=2005 | ISBN=3-8348-0063-5}}
* {{Literatur | Autor=[[Norbert Kusolitsch]] | Titel=Maß- und Wahrscheinlichkeitstheorie | TitelErg=Eine Einführung | Reihe=Springer-Lehrbuch | Auflage=2., überarbeitete und erweiterte | Verlag=Springer-Verlag | Ort=Berlin, Heidelberg | Datum=2014 | ISBN=978-3-642-45386-1 | DOI=10.1007/978-3-322-96418-2}}
* {{Literatur | Autor=[[Radha Govinda Laha|R. G. Laha]], [[Vijay K. Rohatgi|V. K. Rohatgi]] | Titel=Probability Theory | Reihe=Wiley Series in Probability and Mathematical Statistics | Verlag=[[John Wiley & Sons]] | Ort=New York (u.&nbsp;a.) | Datum=1979 | ISBN=0-471-03262-X}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=AUCN&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=Laha&s5=Rohatgi&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=9&mx-pid=534143 MR0534143].
* {{Literatur | Autor=[[Michel Ledoux]], [[Michel Talagrand]] | Titel=Probability in Banach Spaces | TitelErg=Isoperimetry and Processes | Reihe=Ergebnisse der Mathematik und ihrer Grenzgebiete (3. Folge) | BandReihe=23 | Verlag=Springer Verlag | Ort=Berlin (u.&nbsp;a.) | Datum=1991 | ISBN=3-540-52013-9}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=AUCN&pg7=ALLF&pg8=ET&review_format=html&s4=Ledoux&s5=Banach&s6=Talagrand&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=2&mx-pid=1102015 MR1102015].
* {{Literatur |Autor=[[Michel Loève]] |Titel=Probability Theory I |Verlag=Springer-Verlag |Ort=New York / Heidelberg / Berlin |Datum=1977 |ISBN=978-1-4684-9466-2 |Auflage=4 |DOI=10.1007/978-1-4684-9464-8}}
* {{Literatur | Autor=[[Richard von Mises]] | Titel=Probability, Statistics and Truth | TitelErg=Reprint of the 1957 English edition | Verlag=[[Dover Publications, Inc.]] | Ort=New York | Datum=1981 | ISBN=0-486-24214-5}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=von%20Mises&s5=&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=1&mx-pid=668875 MR0668875].
* {{Literatur |Autor=[[Jacques Neveu]] |Titel=Mathematische Grundlagen der Wahrscheinlichkeitstheorie |TitelErg=Aus dem Französischen übersetzt von [[Karl Bosch (Statistiker)|Karl Bosch]] |Verlag=R. Oldenbourg Verlag |Ort=München, Wien |Datum=1969}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&r=1&review_format=html&s4=Neveu&s5=Wahrscheinlichkeitstheorie&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq MR0245056].
* {{Literatur |Autor=[[Alfréd Rényi]] |Titel=Wahrscheinlichkeitsrechnung |TitelErg=Mit einem Anhang über Informationstheorie |Reihe=[[Hochschulbücher für Mathematik]] |BandReihe=54 |Auflage=5. |Verlag=Deutscher Verlag der Wissenschaften |Ort=Berlin |Datum=1977}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=Renyi&s5=Wahrscheinlichkeitsrechnung&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=1&mx-pid=474442 MR0474442].
* {{Literatur | Autor=[[Albert Nikolajewitsch Schirjajew|A. N. Širjaev]] | Titel=Wahrscheinlichkeit | Reihe=Hochschulbücher für Mathematik | BandReihe=91 | Verlag=Deutscher Verlag der Wissenschaften | Ort=Berlin | Datum=1988 | ISBN=3-326-00195-9}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&r=1&review_format=html&s4=Sirjaev%20&s5=Wahrscheinlichkeit&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq MR0967761].
* {{Literatur |Autor=Klaus D. Schmidt |Titel=Maß und Wahrscheinlichkeit |Auflage=2., durchgesehene Auflage |Verlag=Springer |Ort=Berlin / Heidelberg |Datum=2011 |ISBN=978-3-642-21025-9 |DOI=10.1007/978-3-642-21026-6}}
* {{Literatur | Autor=[[Vladimir Spokoiny]], [[Thorsten Dickhaus]] | Titel=Basics of Modern Mathematical Statistics | Reihe=Springer Texts in Statistics | Verlag=Springer-Verlag | Ort=Heidelberg, New York, Dordrecht, London | Datum=2015 | ISBN=978-3-642-39908-4}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&review_format=html&s4=Spokoiny&s5=Basics&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq&r=1&mx-pid=3289985 MR3289985].
* {{Literatur | Autor=[[James Victor Uspensky|J. V. Uspensky]] | Titel= Introduction to Mathematical Probability | Verlag=[[MacGraw-Hill Book Company, Inc.]] | Ort=New York, London | Datum=1937}}
* {{Literatur | Autor=[[Nikolai Nikolajewitsch Vakhania|N. N. Vakhania]], [[Važa I. Tarieladze|V. I. Tarieladze]], [[Sergei Čobanian|S. A. Chobanyan]] | Titel=Probability Distributions on Banach Spaces | Reihe=Mathematics and its Applications ''(Soviet Series)'' | BandReihe=14 | Auflage= | Verlag=[[D. Reidel Publishing Company]] | Ort=Dordrecht, Boston, Lancaster, Tokio | Datum=1987 | ISBN=90-277-2496-2}}
* {{Literatur | Autor=[[Walter Vogel (Mathematiker)|Walter Vogel]] | TitelErg= | Titel=Wahrscheinlichkeitstheorie | Reihe=Studia Mathematica | BandReihe=XXII | Verlag=[[Vandenhoeck & Ruprecht]] | Ort=Göttingen | Datum=1970}} [http://ams.math.uni-bielefeld.de/mathscinet/search/publdoc.html?arg3=&co4=AND&co5=AND&co6=AND&co7=AND&dr=all&pg4=AUCN&pg5=TI&pg6=PC&pg7=ALLF&pg8=ET&r=1&review_format=html&s4=Vogel&s5=Wahrscheinlichkeitstheorie&s6=&s7=&s8=All&vfpref=html&yearRangeFirst=&yearRangeSecond=&yrop=eq MR0286145].

== Weblinks ==
{{Commonscat|Probability theory|Wahrscheinlichkeitstheorie}}
* {{DNB-Portal|4079013-7}}

== Einzelnachweise ==
<references />

{{Normdaten|TYP=s|GND=4079013-7|LCCN=|NDL=|VIAF=}}

[[Kategorie:Wahrscheinlichkeitsrechnung| W]]
[[Kategorie:Stochastik]]
[[Kategorie:Teilgebiet der Mathematik]]

Aktuelle Version vom 17. März 2025, 23:15 Uhr

Die Wahrscheinlichkeitstheorie, auch Wahrscheinlichkeitsrechnung oder Probabilistik, ist ein Teilgebiet der Mathematik, das aus der Formalisierung, der Modellierung und der Untersuchung von Zufallsgeschehen hervorgegangen ist. Gemeinsam mit der mathematischen Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik.

Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariablen und stochastische Prozesse.

Axiomatischer Aufbau

[Bearbeiten | Quelltext bearbeiten]

Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie mengentheoretisch formuliert und auf axiomatischen Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind Ereignisse, die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.

Diese Definitionen geben keinen Hinweis darauf, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was Zufall und was Wahrscheinlichkeit eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen, ihre Ergebnisse sind dennoch exakt und vom jeweiligen Verständnis des Wahrscheinlichkeitsbegriffs unabhängig.

Konzeptionell wird als Grundlage der mathematischen Betrachtung von einem Zufallsvorgang oder Zufallsexperiment ausgegangen. Alle möglichen Ergebnisse dieses Zufallsvorgangs fasst man in der Ergebnismenge zusammen. Häufig interessiert man sich jedoch gar nicht für das genaue Ergebnis , sondern nur dafür, ob es in einer bestimmten Teilmenge der Ergebnismenge liegt, was so interpretiert werden kann, dass ein Ereignis eingetreten ist oder nicht. Ein Ereignis ist also als eine Teilmenge von definiert. Enthält das Ereignis genau ein Element der Ergebnismenge, handelt es sich um ein Elementarereignis. Zusammengesetzte Ereignisse enthalten mehrere Ergebnisse. Das Ergebnis ist also ein Element der Ergebnismenge, das Ereignis jedoch eine Teilmenge.

Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen kann, werden sie in einem Mengensystem aufgeführt, der Ereignisalgebra oder dem Ereignissystem über , einer Menge von Teilmengen von , für die gilt: Sie enthält und ist ein σ-Körper, d. h., sie ist gegenüber den Mengenoperationen der Vereinigung und der Komplementbildung (relativ bzgl. ) abgeschlossen genauso wie gegenüber der unendlichen Vereinigung abzählbar vieler Mengen. Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung des Ereignisraums in das Intervall [0,1]. Solch eine Abbildung heißt Wahrscheinlichkeitsmaß. Das Tripel wird als Wahrscheinlichkeitsraum bezeichnet.

Axiome von Kolmogorow

[Bearbeiten | Quelltext bearbeiten]

Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von Andrei Kolmogorow entwickelt und 1933 publiziert.[1] Seine ursprünglich aus sechs Axiomen bestehende Axiomatik wird manchmal in folgender verkürzter Form dargestellt. Ein Wahrscheinlichkeitsmaß muss folgende drei Axiome erfüllen:

Axiome:

  1. Für jedes Ereignis ist die Wahrscheinlichkeit von eine reelle Zahl zwischen 0 und 1: .
  2. Das sichere Ereignis hat die Wahrscheinlichkeit 1: .
  3. Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse ist gleich der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Dabei heißen Ereignisse inkompatibel, wenn sie paarweise disjunkt sind, also bei für alle . Es gilt daher . Diese Eigenschaft wird auch σ-Additivität genannt.

Beispiel: Im Rahmen einer physikalischen Modellbildung wird ein Wahrscheinlichkeitsmaß zur Quantifizierung der Wahrscheinlichkeiten von Ereignissen eines Münzwurfes angesetzt; die möglichen Ergebnisse mögen Zahl und Kopf lauten.

  • Dann ist die Ergebnismenge mit zwei möglichen Ergebnissen.
  • Als Ereignisraum kann die Potenzmenge gewählt werden, also mit vier Ereignissen.
  • Ein Wahrscheinlichkeitsmaß weist den Ereignissen Wahrscheinlichkeiten (Zahlen im Intervall ) zu. Dabei gilt aufgrund der Axiome:

Zusätzliche physikalische Annahmen über die Beschaffenheit der Münze können zur Wahl führen.

Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:

1. Aus der Additivität der Wahrscheinlichkeit disjunkter Ereignisse folgt, dass komplementäre Ereignisse (Gegenereignisse) komplementäre Wahrscheinlichkeiten (Gegenwahrscheinlichkeiten) haben: .

Beweis: Es ist sowie . Folglich nach Axiom (3): und dann nach Axiom (2): . Umgestellt ergibt sich: .

2. Daraus folgt, dass das unmögliche Ereignis, die leere Menge, die Wahrscheinlichkeit null hat: .

Beweis: Es ist und , also nach Axiom (3): . Hieraus folgt .

3. Für die Vereinigung nicht notwendig disjunkter Ereignisse folgt: .

Beweis: Die für den Beweis erforderlichen Mengen sind im obigen Bild dargestellt. Die Menge kann danach als Vereinigung von drei disjunkten Mengen dargestellt werden:
Hieraus folgt nach (3): .
Andererseits ist nach (3) sowohl
als auch
.
Addition liefert:
.
Umstellen ergibt .
Die Siebformel von Poincaré-Sylvester verallgemeinert diese Behauptung im Falle n verschiedener (nicht notwendig disjunkter) Teilmengen.

Im Weiteren ist zwischen abzählbaren und überabzählbaren Ergebnismengen zu unterscheiden.

Abzählbare Ergebnismenge

[Bearbeiten | Quelltext bearbeiten]
Beispiel: Ein Glücksrad mit Ergebnismenge , Ereignisraum (hier die Potenzmenge von ) und Wahrscheinlichkeitsmaß .

Bei einer abzählbaren Ergebnismenge kann jedem Elementarereignis eine positive Wahrscheinlichkeit zugewiesen werden. Wenn endlich oder abzählbar unendlich ist, kann man für die σ-Algebra die Potenzmenge von wählen. Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus ist hier 1.

Überabzählbare Ergebnismenge

[Bearbeiten | Quelltext bearbeiten]
Die Wahrscheinlichkeit, mit einer als punktförmig angenommenen Dartspitze einen bestimmten Punkt auf einer Scheibe zu treffen, ist null. Eine sinnvolle mathematische Theorie kann man nur auf der Wahrscheinlichkeit aufbauen, bestimmte Teilflächen zu treffen. Solche Wahrscheinlichkeiten lassen sich durch eine Wahrscheinlichkeitsdichte beschreiben.

Ein Prototyp einer überabzählbaren Ergebnismenge ist die Menge der reellen Zahlen. In vielen Modellen ist es nicht möglich, allen Teilmengen der reellen Zahlen sinnvoll eine Wahrscheinlichkeit zuzuordnen. Als Ereignissystem wählt man statt der Potenzmenge der reellen Zahlen hier meist die Borelsche σ-Algebra, das ist die kleinste σ-Algebra, die alle Intervalle von reellen Zahlen als Elemente enthält. Die Elemente dieser σ-Algebra nennt man Borelsche Mengen oder auch (Borel-)messbar. Wenn die Wahrscheinlichkeit jeder Borelschen Menge als Integral

über eine Wahrscheinlichkeitsdichte geschrieben werden kann, wird absolut stetig genannt. In diesem Fall (aber nicht nur in diesem) haben alle Elementarereignisse {x} die Wahrscheinlichkeit 0. Die Wahrscheinlichkeitsdichte eines absolut stetigen Wahrscheinlichkeitsmaßes ist nur fast überall eindeutig bestimmt, d. h., sie kann auf einer beliebigen Lebesgue-Nullmenge, also einer Menge vom Lebesgue-Maß 0, abgeändert werden, ohne dass verändert wird. Wenn die erste Ableitung der Verteilungsfunktion von existiert, so ist sie eine Wahrscheinlichkeitsdichte von P. Die Werte der Wahrscheinlichkeitsdichte werden jedoch nicht als Wahrscheinlichkeiten interpretiert.

Spezielle Eigenschaften im Fall diskreter Wahrscheinlichkeitsräume

[Bearbeiten | Quelltext bearbeiten]

Laplace-Experimente

[Bearbeiten | Quelltext bearbeiten]

Wenn man annimmt, dass nur endlich viele Elementarereignisse möglich und alle gleichberechtigt sind, d. h. mit der gleichen Wahrscheinlichkeit eintreten (wie zum Beispiel beim Werfen einer idealen Münze, wobei {Zahl} und {Kopf} jeweils die Wahrscheinlichkeit 0,5 besitzen), so spricht man von einem Laplace-Experiment. Dann lassen sich Wahrscheinlichkeiten einfach berechnen: Wir nehmen eine endliche Ergebnismenge an, die die Mächtigkeit besitzt, d. h., sie hat Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach .

Beweis: Wenn ist, dann gibt es Elementarereignisse . Es ist dann einerseits und andererseits sind je zwei Elementarereignisse disjunkt (inkompatibel: wenn das eine eintritt, kann das andere nicht eintreten). Also sind die Voraussetzungen für Axiom (3) erfüllt, und es gilt:
Da nun andererseits sein soll, ist und daher umgestellt: , wie behauptet.

Als Konsequenz folgt, dass für Ereignisse, die sich aus mehreren Elementarereignissen zusammensetzen, die entsprechend vielfache Wahrscheinlichkeit gilt. Ist ein Ereignis der Mächtigkeit , so ist die Vereinigung von Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit , also ist . Man erhält somit den einfachen Zusammenhang

Bei Laplace-Versuchen ist die Wahrscheinlichkeit eines Ereignisses also gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse.

Nachstehend ein Beispiel beim Würfeln mit einem idealen Würfel.

⚀,⚁,⚂,⚃,⚄,⚅
⚄,⚅

Das Ereignis = Hohe Augenzahl (5 oder 6) hat die Wahrscheinlichkeit 1/3.

Ein typischer Laplace-Versuch ist auch das Ziehen einer Karte aus einem Spiel mit Karten oder das Ziehen einer Kugel aus einer Urne mit Kugeln. Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit. Um die Anzahl der Elementarereignisse bei Laplace-Versuchen zu bestimmen, werden häufig Methoden der Kombinatorik verwendet.

Das Konzept der Laplace-Experimente lässt sich auf den Fall einer stetigen Gleichverteilung verallgemeinern.

Bedingte Wahrscheinlichkeit

[Bearbeiten | Quelltext bearbeiten]

Unter einer bedingten Wahrscheinlichkeit versteht man die Wahrscheinlichkeit für das Eintreten eines Ereignisses unter der Voraussetzung, dass das Eintreten eines anderen Ereignisses bereits bekannt ist. Natürlich muss eintreten können, es darf also nicht das unmögliche Ereignis sein. Man schreibt dann oder seltener für „Wahrscheinlichkeit von unter der Voraussetzung “, kurz „ von , vorausgesetzt “.

Beispiel: Die Wahrscheinlichkeit, aus einem Skatblatt eine Herz-Karte zu ziehen (Ereignis ), beträgt 1/4, denn es gibt 32 Karten und darunter 8 Herz-Karten. Dann ist . Das Gegenereignis ist dann Karo, Pik oder Kreuz und hat deshalb die Wahrscheinlichkeit .

Ergebnismenge beim Ziehen einer Karte aus einem Skatspiel

Wenn nun aber bereits das Ereignis „Die Karte ist rot“ eingetreten ist (es wurde eine Herz- oder Karo-Karte gezogen, es ist aber nicht bekannt, welche der beiden Farben), man also nur noch die Auswahl unter den 16 roten Karten hat, dann ist die Wahrscheinlichkeit, dass es sich dann um das Herz-Blatt handelt.

Diese Überlegung galt für einen Laplaceversuch. Für den allgemeinen Fall definiert man die bedingte Wahrscheinlichkeit von „, vorausgesetzt “ als

Dass diese Definition sinnvoll ist, zeigt sich daran, dass die so definierte Wahrscheinlichkeit den Axiomen von Kolmogorow genügt, wenn man sich auf als neue Ergebnismenge beschränkt; d. h., dass gilt:

  1. Wenn paarweise disjunkt sind, so ist

Beweis:

  1. ist Quotient zweier Wahrscheinlichkeiten, für welche nach Axiom (1) gilt und . Da nicht das unmögliche Ereignis sein soll, ist sogar . Also gilt auch für den Quotienten . Ferner sind und disjunkt, und ihre Vereinigung ist . Also ist nach Axiom (3): .
    Da ist, folgt und daher .
  2. Es ist
  3. Des Weiteren ergibt sich:
Dies war zu zeigen.

Beispiel: Es sei wie oben das Ereignis „Ziehen einer Herz-Karte“ und das Ereignis „Es ist eine rote Karte“. Dann ist:

und

Folglich gilt:

Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen:

Verbundwahrscheinlichkeit (Schnittmengen von Ereignissen)

[Bearbeiten | Quelltext bearbeiten]

Das gleichzeitige Eintreten zweier Ereignisse und entspricht mengentheoretisch dem Eintreten des Verbund-Ereignisses . Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen Wahrscheinlichkeit oder Verbundwahrscheinlichkeit

Beweis: Nach Definition der bedingten Wahrscheinlichkeit ist einerseits

und andererseits auch

Umstellen nach liefert dann sofort die Behauptung.

Beispiel: Es wird eine Karte aus 32 Karten gezogen. sei das Ereignis: „Es ist ein König“. sei das Ereignis: „Es ist eine Herz-Karte“. Dann ist das gleichzeitige Eintreten von und , also das Ereignis: „Die gezogene Karte ist ein Herz-König“. Offenbar ist . Ferner ist , denn es gibt nur eine Herz-Karte unter den vier Königen. Und in der Tat ist dann die Wahrscheinlichkeit für den Herz-König.

Die bedingte Wahrscheinlichkeit von unter der Bedingung lässt sich durch die bedingte Wahrscheinlichkeit von unter der Bedingung durch

ausdrücken, wenn man die totalen Wahrscheinlichkeiten und kennt (Satz von Bayes).

Abhängigkeit und Unabhängigkeit von Ereignissen

[Bearbeiten | Quelltext bearbeiten]

Ereignisse nennt man unabhängig voneinander, wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst. Im umgekehrten Fall nennt man sie abhängig. Man definiert:

Zwei Ereignisse und sind unabhängig, wenn gilt.
Ungenau, aber einprägsam formuliert: Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.

Dass dies dem Begriff „Unabhängigkeit“ gerecht wird, erkennt man durch Umstellen nach :

Das bedeutet: Die totale Wahrscheinlichkeit für ist ebenso groß wie die Wahrscheinlichkeit für , vorausgesetzt ; das Eintreten von beeinflusst also die Wahrscheinlichkeit von nicht.

Beispiel: Es wird eine aus 32 Karten gezogen. sei das Ereignis „Es ist eine Herz-Karte“. sei das Ereignis „Es ist eine Bild-Karte“. Diese Ereignisse sind unabhängig, denn das Wissen, dass man eine Bild-Karte zieht, beeinflusst nicht die Wahrscheinlichkeit, dass es eine Herz-Karte ist (Der Anteil der Herz-Karten unter den Bilder-Karten ist ebenso groß wie der Anteil der Herz-Karten an allen Karten). Offenbar ist und . ist das Ereignis „Es ist eine Herz-Bildkarte“. Da es davon drei gibt, ist . Und in der Tat stellt man fest, dass ist.

Ein weiteres Beispiel für sehr kleine und sehr große Wahrscheinlichkeiten findet sich in Infinite-Monkey-Theorem.

Maßtheoretische Sichtweise

[Bearbeiten | Quelltext bearbeiten]

Die klassische Wahrscheinlichkeitsrechnung betrachtet nur Wahrscheinlichkeiten auf diskreten Wahrscheinlichkeitsräumen und stetige Modelle mit Dichtefunktionen. Diese beiden Ansätze lassen sich durch die moderne Formulierung der Wahrscheinlichkeitstheorie, die auf den Konzepten und Ergebnissen der Maß- und Integrationstheorie beruht, vereinheitlichen und verallgemeinern.

Wahrscheinlichkeitsräume

[Bearbeiten | Quelltext bearbeiten]

In dieser Sichtweise ist ein Wahrscheinlichkeitsraum ein Maßraum mit einem Wahrscheinlichkeitsmaß . Das bedeutet, die Ergebnismenge ist eine beliebige Menge, der Ereignisraum ist eine σ-Algebra mit Grundmenge und ist ein Maß, das durch normiert ist.

Wichtige Standardfälle von Wahrscheinlichkeitsräumen sind:

  • ist eine abzählbare Menge und ist die Potenzmenge von . Dann ist jedes Wahrscheinlichkeitsmaß eindeutig festgelegt durch seine Werte auf den einelementigen Teilmengen von und für alle gilt
.
  • ist eine Teilmenge von und ist die Borelsche σ-Algebra auf . Ist das Wahrscheinlichkeitsmaß absolut stetig bezüglich des Lebesgue-Maßes, dann besitzt nach dem Satz von Radon-Nikodým eine Lebesgue-Dichte , d. h., für alle gilt
.
Umgekehrt wird für eine nichtnegative messbare Funktion , welche die Normierungsbedingung erfüllt, durch diese Formel ein Wahrscheinlichkeitsmaß auf definiert.
  • ist ein kartesisches Produkt und ist die Produkt-σ-Algebra von σ-Algebren auf . Sind Wahrscheinlichkeitsmaße auf gegeben, dann wird durch das Produktmaß ein Wahrscheinlichkeitsmaß auf definiert, das die unabhängige Hintereinanderausführung der Einzelexperimente modelliert.

Zufallsvariable

[Bearbeiten | Quelltext bearbeiten]

Eine Zufallsvariable ist das mathematische Konzept für eine Größe, deren Wert vom Zufall abhängig ist. Aus maßtheoretischer Sicht handelt es sich um eine messbare Funktion auf einem Wahrscheinlichkeitsraum in einen Messraum bestehend aus einer Menge und einer σ-Algebra auf . Messbarkeit bedeutet dabei, dass für alle das Urbild ein Element der σ-Algebra ist. Die Verteilung von ist dann nichts anderes als das Bildmaß

,

das von auf dem Messraum induziert wird und diesen zu einem Wahrscheinlichkeitsraum macht.

Der Erwartungswert einer reellwertigen Zufallsvariable mittelt die möglichen Ergebnisse. Er lässt sich abstrakt definieren als Integral von bezüglich des Wahrscheinlichkeitsmaßes :

.

Wahrscheinlichkeitstheorie und Statistik

[Bearbeiten | Quelltext bearbeiten]

Wahrscheinlichkeitstheorie und mathematische Statistik werden zusammenfassend auch als Stochastik bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:

  • Statistische Verteilungen werden regelmäßig unter der Annahme modelliert, dass sie das Resultat zufälliger Prozesse sind.
  • Statistische Verfahren können auf numerische Weise Anhaltspunkte für das Verhalten von Wahrscheinlichkeitsverteilungen liefern.

Anwendungsgebiete

[Bearbeiten | Quelltext bearbeiten]

Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen Glücksspielen. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.

Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der Statistik. Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie, um Umfrageergebnisse zu analysieren oder Wirtschaftsprognosen zu erstellen.

Große Bereiche der Physik wie die Thermodynamik und die Quantenmechanik nutzen die Wahrscheinlichkeitstheorie zur theoretischen Beschreibung ihrer Resultate.

Sie ist ferner die Grundlage für mathematische Disziplinen wie die Zuverlässigkeitstheorie, die Erneuerungstheorie und die Warteschlangentheorie und das Werkzeug zur Analyse in diesen Bereichen.

Auch in der Mustererkennung ist die Wahrscheinlichkeitstheorie von zentraler Bedeutung.

Wahrscheinlichkeitstheorie in der Schule

[Bearbeiten | Quelltext bearbeiten]

Aufgrund ihrer vielseitigen Anwendungsbereiche und des Alltagsbezugs bereits junger Schüler wird die Wahrscheinlichkeitstheorie ab der ersten Klasse in allen Schulformen im Rahmen des Mathematikunterrichts gelehrt. Geht es in der Grundschule noch darum, Grundbegriffe der Wahrscheinlichkeitsrechnung kennenzulernen und erste Zufallsexperimente hinsichtlich ihrer Gewinnchancen zu bewerten,[2] wird in der Sekundarstufe I zunehmend der Wahrscheinlichkeitsbegriff analytisch in seiner Vielseitigkeit betrachtet und es stehen zunehmend komplexere Zufallsexperimente im Zentrum des Interesses.[3][4][5] In der Sekundarstufe II werden die Vorkenntnisse um spezifische Aspekte wie Bernoulliketten, bedingte Wahrscheinlichkeit und Laplace-Experimente erweitert.[6]

Literatur (Auswahl)

[Bearbeiten | Quelltext bearbeiten]
Commons: Wahrscheinlichkeitstheorie – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. A. Kolmogoroff: Grundbegriffe der Wahrscheinlichkeitsrechnung. 1933, S. 2, 13.
  2. Bildungsstandards und Inhaltsfelder - Das neue Kerncurriculum für Hessen - Primarstufe. Hessisches Kultusministerium, abgerufen am 21. Januar 2025.
  3. Bildungsstandards und Inhaltsfelder - Das neue Kerncurriculum für Hessen - Sekundarstufe I – Hauptschule. Hessisches Kultusministerium, abgerufen am 21. Januar 2025.
  4. Bildungsstandards und Inhaltsfelder - Das neue Kerncurriculum für Hessen - Sekundarstufe I – Realschule. Hessisches Kultusministerium, abgerufen am 21. Januar 2025.
  5. Bildungsstandards und Inhaltsfelder - Das neue Kerncurriculum für Hessen - Sekundarstufe I – Gymnasium. Hessisches Kultusministerium, abgerufen am 21. Januar 2025.
  6. Kerncurriculum gymnasiale Oberstufe. Hessisches Ministerium für Kultus, Bildung und Chancen, abgerufen am 21. Januar 2025.