Markow-Ungleichung (Stochastik)

Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 20. Oktober 2004 um 12:57 Uhr durch MRA (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

In der Wahrscheinlichkeitstheorie, gibt die Markow-Ungleichung (nach Andrei Andrejewitsch Markow) eine obere Schranke für die Wahrscheinlichkeit an, dass eine nicht-negative Funktion einer Zufallsvariable größer oder gleich einer positiven Konstante ist.

Die Markow-Ungleichung (wie ähnliche Ungleichungen) vergleicht Wahrscheinlichkeit und Erwartungswert und gibt eine in aller Regel schwache, aber nützliche Grenze für die Verteilungsfunktion einer Zufallsvariable an.

Satz

Sei   eine Zufallsvariable und   eine positive, reelwertige Konstante. Sei ferner   eine positive, reellwertige Funktion. Die allgemeine Markow-Ungleichung besagt dann:

 .

Beweis

Sei   der zu Grunde liegende Wahrscheinlichkeitsraum. Dann gilt nach der Definition des Erwartungswertes:

 
 

wobei die letzte Abschätzung auf Grund der ersten Bonferroni-Ungleichung gilt. Nach Division durch   folgt die Behauptung.

Alternativer Beweis

Sei   und bezeichne   die charakteristische Funktion der Menge  . Dann gilt:

 

Der Satz folgt, wenn man auf beiden Seiten den Erwartungswert nimmt und

 

berücksichtigt.

Beispiele

  • Betrachte die folgende Frage: Wie wahrscheinlich ist es, bei einem Würfelwurf wenigstens eine 4 zu würfeln? Es sei   das Ergebnis des Würfelwurfes mit  . Dann folgt mit   als identische Abbildung und mit   durch die Markow-Ungleichung:
 .
  • Setzt man  , so erhält man den bekannten Spezialfall der Markow-Ungleichung
 
  • Ist   und wendet man die Markow-Ungleichung auf eine Zufallsvariable   an, so erhält man eine Version der Tschebyschow-Ungleichung.

Literatur

  • Ulrich Krengel, Einführung in die Wahrscheinlichkeitstheorie und Statistik, 7. Auflage, Vieweg Verlag, 2003.