Zum Inhalt springen

Wahrscheinlichkeitstheorie

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 21. April 2005 um 17:12 Uhr durch Scherben (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die Wahrscheinlichkeitstheorie ist ein Teilgebiet der Mathematik. Gemeinsam mit der mathematischen Statistik bildet sie das weite Feld der Stochastik, die von Beschreibung zufälliger Ereignisse und ihrer Modellierung handelt.

Axiomatischer Aufbau

Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie mengentheoretisch formuliert und auf axiomatische Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind Ereignisse, die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.

Diese Definitionen geben keinen Hinweis, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was Zufall und was Wahrscheinlichkeit eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen. Siehe dazu die Artikel Wahrscheinlichkeit, Bayesscher Wahrscheinlichkeitsbegriff, Frequentistischer Wahrscheinlichkeitsbegriff, Quantenlogik.

Definitionen

Konzeptionell wird ausgegangen von einem Zufallsvorgang oder Zufallsexperiment. Alle möglichen Ergebnisse dieses Zufallsvorgang fasst man in der Ergebnismenge Ω zusammen. Wenn ein bestimmtes Ergebnis eintritt, spricht man von einem Ereignis. Das Ereignis ist als Teilmenge von Ω definiert. Umfasst das Ereignis nur ein Element der Ergebnismenge, handelt es sich um ein Elementarereignis. Zusammengesetzte Ereignisse beinhalten mehrere Ergebnisse. Das Ergebnis ist also ein Element der Ergebnismenge, das Ereignis jedoch eine Teilmenge, wobei diese Unterscheidung häufig vernachlässigt wird. Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen kann, werden sie in einem Mengensystem aufgeführt, der Ereignisalgebra oder dem Ereignisraum Σ, eine Menge von Teilmengen von Ω. Die Wahrscheinlichkeiten ergeben sich dann als Abbildung P des Ereignisraums auf das Intervall [0,1] als Wahrscheinlichkeitsmaß. Das Wahrscheinlichkeitsmaß ist ein Maß P: Σ →[0,1] im Sinne der Maßtheorie mit P(Ω)=1.

Beispiel: Zwei Glücksräder und ihre Wahrscheinlichkeitsräume

Das Tripel (Ω, Σ, P ) wird als Wahrscheinlichkeitsraum bezeichnet.

Bezüglich der Zuordnung der Wahrscheinlichkeiten zu den Ereignissen muss dabei zunächst zwischen einer abzählbaren und überabzählbaren Ergebnismenge unterschieden werden.

Bei einer abzählbaren Ergebnismenge kann einem Elementarereignis grundsätzlich eine positive Wahrscheinlichkeit zugewiesen werden. Wenn Ω abzählbar und endlich ist, kann man Σ als die Potenzmenge (die Menge aller Teilmengen) von Ω wählen. Damit auch der Fall einer abzählbar unendlichen Ergebnismenge abgedeckt ist, muss jedenfalls Σ eine σ-Algebra sein (eine bezüglich der abzählbaren Vereinigung abgeschlossene Menge von Teilmengen, die die Grundmenge und mit jeder Menge auch deren Komplement enthält). Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus Ω ist hier 1.
Bei einer überabzählbaren Ergebnismenge setzt man zweckmäßigerweise die Wahrscheinlichkeit für ein Elementarereignis gleich Null. Man kann diesem Ereignis gegebenenfalls eine Wahrscheinlichkeitsdichte zuschreiben, die aber keine Wahrscheinlichkeit darstellt, sondern lediglich die erste Ableitung der Verteilungsfunktion ist. Das Ereignissystem ist hier die Borelsche Algebra, ein Spezialfall der σ-Algebra, die Intervalle der reellen Zahlen als Elemente enthält.

Axiome von Kolmogorow

Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von Andrei Kolmogorow entwickelt. Ohne explizite Berufung auf die Axiome der Maßtheorie lässt sich ein Wahrscheinlichkeitsmaß mit den folgenden drei Kolmogorow-Axiomen einführen:

(1) Für jedes Ereignis A aus Ω ist die Wahrscheinlichkeit eine reelle Zahl zwischen 0 und 1: 0≤P(A)≤1.
(2) Das sichere Ereignis hat die Wahrscheinlichkeit 1: P(Ω)=1.
(3) Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse entspricht der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Inkompatible Ereignisse sind disjunkte Mengen A1, A2 ...; es muss gelten: . Diese Eigenschaft wird auch σ-Additivität genannt.

Beispiel: Die Ereignisse beim Werfen einer Münze mögen Zahl oder Adler lauten.

  • Dann ist die Ergebnismenge Ω={Zahl,Adler}.
  • Die Ereignismenge ist die Potenzmenge Π(Ω), also Σ={{},{Zahl},{Adler},Ω}.
  • Für das Wahrscheinlichkeitsmaß P steht aufgrund der Axiome fest:
    • ;
    • ;
    • .
Ergebnismenge und Teilmengen bei einem (nicht idealen) Münzwurf

Zusätzliches (außermathematisches) Wissen ist erforderlich, um anzusetzen. Dies kann ja durchaus von der Beschaffenheit der Münze abhängen.

Folgerungen

Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:

1. Aus der Additivität der Wahrscheinlichkeit disjunkter Ereignisse folgt, dass komplementäre Ereignisse komplementäre Wahrscheinlichkeiten haben: P(Ω\A) = 1-P(A).

Beweis: Es ist sowie . Folglich nach Axiom (3): und dann nach Axiom (2): . Umgestellt ergibt sich: , wie behauptet.

2. Daraus folgt unmittelbar, dass das unmögliche Ereignis, die leere Menge, die Wahrscheinlichkeit Null hat: P({})=0.

Beweis: Es ist und , also nach Axiom (3): , d.h. nach Axiom (2): . Hieraus folgt , wie behauptet.

3. Für die Vereinigung nicht notwendig disjunkter Ereignissen folgt: .

Beweis: Die für den Beweis erforderlichen Mengen sind im obigen Bild dargestellt. Die Menge kann danach als Vereinigung von drei disjunkten Mengen dargestellt werden:
Hieraus folgt nach (3): .
Andererseits ist nach (3) sowohl
als auch
.
Addition liefert:
.
Umstellen ergibt , wie behauptet.

Laplace-Experimente

Wenn man annimmt, dass die Elementarereignisse (Ereignisse mit genau einem Element) alle gleichberechtigt sind, d.h. mit der gleichen Wahrscheinlichkeit eintreten (wie zum Beispiel beim Werfen einer idealen Münze {Zahl} und {Adler} jeweils die Wahrscheinlichkeit 0,5 besitzen), so spricht man von einem Laplace-Experiment. Dann lassen sich Wahrscheinlichkeiten einfach berechnen: Wir nehmen eine endliche Ergebnismenge Ω an, die die Mächtigkeit |Ω| = n besitzt, d.h. sie hat n Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach .

Beweis: Wenn |Ω| = n ist, dann gibt es n Elementarereignisse E1 bis En. Es ist dann einerseits und andererseits sind je zwei Elementarereignisse disjunkt (inkompatibel: wenn das eine eintritt, kann das andere nicht eintreten). Also sind die Voraussetzungen für Axiom (3) erfüllt, und es gilt:
.
Da nun andererseits sein soll, ist und daher umgestellt: , wie behauptet.

Als Konsequenz folgt, dass für Ereignisse, die sich aus mehreren Elementarereignissen zusammensetzen, die entsprechend vielfache Wahrscheinlichkeit gilt. Ist A ein Ereignis der Mächtigkeit |A| = m, so ist A die Vereinigung von m Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit , also ist . Man erhält also den einfachen Zusammenhang:

.

Bei Laplace-Versuchen ist die Wahrscheinlichkeit eines Ereignisses gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse.

Das nachstehende Bild zeigt ein Beispiel beim Würfeln mit einem idealen Würfel (Laplace-Würfel).

Das Ereignis H = Hohe Augenzahl (5 oder 6) hat die Wahrscheinlichkeit 1/3.

Ein typischer Laplace-Versuch ist auch das Ziehen einer Karte aus einem Spiel mit n Karten oder das Ziehen einer Kugel aus einer Urne mit n Kugeln. Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit.

Unter einer bedingten Wahrscheinlichkeit versteht man die Wahrscheinlichkeit für das Eintreten eines Ereignisses A unter der Voraussetzung, dass das Eintreten eines anderen Ereignisses B bereits bekannt ist (B darf nicht das unmögliche Ereignis sein). Man schreibt P(A|B) für "Wahrscheinlichkeit von A unter der Voraussetzung B", kurz "P von A, vorausgesetzt B".

Beispiel: Die Wahrscheinlichkeit, aus einem Kartenspiel mit 32 Karten (Skatblatt) eine Herz-Karte zu ziehen (Ereignis A), beträgt 1/4, denn es gibt 32 Karten und darunter 8 Herz-Karten. Dann ist P("Herz") = 8/32 = 1/4.

Ergebnismenge beim Ziehen einer Karte aus einem Skatspiel

Wenn nun aber bereits das Ereignis B "Die Karte ist rot" eingetreten ist, man also nur noch die Auswahl unter den 16 roten Karten hat, dann ist P(A|B) = 8/16 = 1/2.

Diese Überlegung galt für einen Laplaceversuch. Für den allgemeinen Fall definiert man die bedingte Wahrscheinlichkeit von "A, vorausgesetzt B" als

Dass diese Definition sinnvoll ist, zeigt sich daran, dass die so definierte Wahrscheinlichkeit den Axiomen vom Kolmogorow genügt, wenn man sich auf B als neue Ergebnismenge beschränkt; d.h. dass gilt:

(1a) :
(2a) :
(3a) : Wenn bis paarweise disjunkt sind, so ist
Beweis: Zu (1a). ist Quotient zweier Wahrscheinlichkeiten, für welche nach Axiom (1) gilt und . Da B nicht das unmögliche Ereignis sein soll, ist sogar . Also gilt auch für den Quotienten . Ferner sind B und B\A disjunkt, und ihre Vereinigung ist B. Also ist nach Axiom (3): . Da ist, folgt und daher .
Zu (2a): Es ist .
Zu (3a): Es ist
.
Dies war zu zeigen.

Beispiel: Es sei wie oben A das Ereignis "Ziehen einer Karo-Karte" und B das Ereignis "Es ist eine rote Karte". Dann ist und . Folglich .

Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen:

Verbundwahrscheinlichkeit (Schnittmengen von Ereignissen)

Das gleichzeitige Eintreten zweier Ereignisse A und B entspricht mengentheoretisch dem Eintreten des Verbund-Ereignisses . Die Wahrscheinlichkeit hiervon berechnet sich zu

Beweis: Nach Definition der bedingten Wahrscheinlichkeit ist einerseits und andererseits auch . Umstellen nach liefert dann sofort die Behauptung.

Beispiel: Es wird eine aus 32 Karten gezogen. A sei das Ereignis: "Es ist ein König". B sei das Ereignis: "Es ist eine Herz-Karte". Dann ist das gleichzeitige Eintreten von A und B, also das Ereignis: "Die gezogene Karte ist Herz-König". Offenbar ist P(A) = 4/32 = 1/8. Ferner ist P(B|A) = 1/4, denn es gibt nur eine Herz-Karte unter den vier Königen. Und in der Tat ist dann die Wahrscheinlichkeit für den Herz-König.

Die bedingte Wahrscheinlichkeit von A, vorausgesetzt B, lässt sich durch die bedingte Wahrscheinlichkeit von B, vorausgesetzt A, wie folgt ausdrücken, wenn man die totalen Wahrscheinlichkeiten P(B) und P(A) hat:

Beweis: Aus der obigen Formel für die Verbundwahrscheinlichkeit erhält man . Umstellen nach liefert dann die Behauptung.

Beispiel: Es sind zwei Urnen "A" und "B" gegeben, in denen sich rote und weiße Kugeln befinden. In "A" sind sieben rote und drei weiße Kugeln, in "B" eine rote und neun weiße. Es wird nun eine beliebige Kugel aus einer beliebigen Urne gezogen. Die Kugel ist rot. Gesucht ist die Wahrscheinlichkeit dafür, dass diese Kugel aus Urne "A" stammt.

Datei:Stochastik urnen.PNG
Urnenversuch

Es sei A das Ereignis: Die Kugel stammt aus Urne "A". Es sei R das Ereignis "Die Kugel ist rot". Dann lässt sich unmittelbar berechnen: P(R) = 8/20 = 2/5, denn es sind insgesamt 20 Kugeln im Spiel , davon 8 rote. Ebenso folgt leicht P(R|A) = 7/10, denn in Urne A sind 10 Kugeln, davon 7 rote. Schließlich ist P(A) = 1/2, denn es wird eine von 2 Urnen willkürlich ausgewählt. Nun folgt . Die Wahrscheinlichkeit, dass eine gezogene rote Kugel aus Urne "A" stammt (A vorausgesetzt R), beträgt 7/8.

Abhängigkeit und Unabhängigkeit von Ereignissen

Ereignisse nennt man unabhängig voneinander, wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst. Im umgekehrten Fall nennt man sie abhängig. Man definiert:

Zwei Ereignisse A und B sind unabhängig, wenn gilt .
Ungenau, aber einprägsam formuliert: Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.

Dass dies dem Begriff "Unabhängigkeit" gerecht wird, erkennt man durch Umstellen nach P(A): . Das bedeutet: Die totale Wahrscheinlichkeit für A ist ebenso groß wie die Wahrscheinlichkeit für A, vorausgesetzt B; das Eintreten von B beeinflusst also die Wahrscheinlichkeit von A nicht.

Beispiel: Es wird eine aus 32 Karten gezogen. A sei das Ereignis "Es ist eine Herz-Karte". B sei das Ereignis "Es ist eine Bild-Karte". Diese Ereignisse sind unabhängig, denn das Wissen, dass man eine Herz-Karte zieht, beeinflusst nicht die Wahrscheinlichkeit, dass es eine Bild-Karte ist (Der Anteil der Bilder unter den Herz-Karten ist ebenso groß wie der Anteil der Bilder an allen Karten). Offenbar ist P(A) = 8/32 = 1/4 und P(B) = 12/32 = 3/8. ist das Ereignis "Es ist eine Herz-Bildkarte". Da es davon drei gibt, ist . Und in der Tat stellt man fest, dass ist.

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Induktive Statistik werden zusammenfassend auch als Stochastik bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:

  • Statistische Verteilungen werden regelmäßig unter der Annahme modelliert, dass sie das Resultat zufälliger Prozesse sind.
  • Umgekehrt liefern statistische Daten über eingetretene Ereignisse Anhaltspunkte (in frequentistischer Interpretation sogar die einzigen akzeptablen Anhaltspunkte) für die Wahrscheinlichkeit künftiger Ereignisse.

Anwendungsgebiete

Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen Glücksspielen. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.

Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der schließenden Statistik. Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie, etwa um Umfrageergebnisse zu interpretieren oder Wirtschaftsprognosen zu erstellen.

Daneben kommt sie außer in der Physik unter anderem auch in der Zuverlässigkeitstheorie zum Einsatz.

Stichworte

Folgende Stichworte müssen noch eingearbeitet werden: