In der Wahrscheinlichkeitstheorie, gibt die Markow-Ungleichung (nach Andrei Andrejewitsch Markow) eine obere Schranke für die Wahrscheinlichkeit an, dass eine nicht-negative Funktion einer Zufallsvariable größer oder gleich einer positiven Konstante ist.
Die Markow-Ungleichung (wie ähnliche Ungleichungen) vergleicht Wahrscheinlichkeit und Erwartungswert und gibt eine in aller Regel schwache, aber nützliche Grenze für die Verteilungsfunktion einer Zufallsvariable an.
Satz
Sei eine Zufallsvariable und eine positive, reelwertige Konstante. Sei ferner eine positive, reellwertige Funktion. Die allgemeine Markow-Ungleichung besagt dann:
- .
Beweis
Sei der zu Grunde liegende Wahrscheinlichkeitsraum. Dann gilt nach der Definition des Erwartungswertes:
wobei die letzte Abschätzung auf Grund der ersten Bonferroni-Ungleichung gilt. Nach Division durch folgt die Behauptung.
Alternativer Beweis
Sei und bezeichne die charakteristische Funktion der Menge . Dann gilt:
Der Satz folgt, wenn man auf beiden Seiten den Erwartungswert nimmt und
berücksichtigt.
Beispiele
- Betrachte die folgende Frage: Wie wahrscheinlich ist es, bei einem Würfelwurf wenigstens eine 4 zu würfeln? Es sei das Ergebnis des Würfelwurfes mit . Dann folgt mit als identische Abbildung und mit durch die Markow-Ungleichung:
- .
- Setzt man , so erhält man den bekannten Spezialfall der Markow-Ungleichung
- Ist und wendet man die Markow-Ungleichung auf eine Zufallsvariable an, so erhält man eine Version der Tschebyschow-Ungleichung.
Literatur
- Ulrich Krengel, Einführung in die Wahrscheinlichkeitstheorie und Statistik, 7. Auflage, Vieweg Verlag, 2003.