Tschebyscheffsche Ungleichung

mathematischer Satz
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 3. Juli 2006 um 11:59 Uhr durch Ragdoll (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Als Tschebyschow-Ungleichung werden in der Mathematik zwei verschiedene Ungleichungen bezeichnet. Hier in diesem Artikel wird die statistische Tschebyschow-Ungleichung beschrieben. Die andere, arithmetische Tschebyschow-Ungleichung wird im Artikel über die Tschebyschow-Summenungleichung beschrieben.


In der Stochastik gibt die Tschebyschow-Ungleichung eine untere Grenze für die Wahrscheinlichkeit an, dass ein Wert einer Zufallsvariable mit endlicher Varianz innerhalb eines bestimmten Bereiches um den Erwartungswert der Variable liegt. Damit ist auch eine obere Grenze für die Wahrscheinlichkeit angegeben, dass die Werte außerhalb dieses Bereiches liegen. Der Satz lässt sich auch auf Verteilungen anwenden, die weder "glockenförmig" noch symmetrisch sind und setzt Grenzen dafür, wie viele der Daten "in der Mitte" liegen und wie viele nicht.

Die Tschebyschow-Ungleichung ist zu Ehren von Pafnuti Lwowitsch Tschebyschow benannt; in älteren Transkriptionen findet sich gelegentlich noch die Schreibweise Tschebyscheff oder Tschebyschev.

Die Tschebyschow-Ungleichung ist eng verwandt mit der Markow-Ungleichung.

Satz

Sei X eine Zufallsvariable mit Erwartungswert   und endlicher Varianz  . Dann gilt für alle reellen Zahlen  :

 

Durch Umstellen ergibt sich auch

 

Die von der Tschebyschow-Ungleichung angegebenen Grenzen können nicht nach oben verbessert werden. Man kann Zufallsvariablen konstruieren, für welche die Grenzen gleich den wirklichen Wahrscheinlichkeiten sind. Im Allgemeinen sind die Grenzen aber schwach. Eine quantitative Verbesserung liefert die Chernoff-Ungleichung.

Trotz der schwachen Grenzen kann der Satz nützlich sein, weil er ohne Verteilungsannahmen über die Zufallsvariablen auskommt, und somit wirklich für alle (insbesondere auch solche, die sich stark von der Normalverteilung unterscheiden) anwendbar ist. Außerdem sind die Schranken einfach zu berechnen.

Varianten

Abstand von Standardabweichung

Setzt man   mit   als ein Vielfaches der Standardabweichung   so erhält man eine oft zitierte Variante der Tschebyschow-Ungleichung:

 

Verallgemeinerung auf höhere Momente

Die Tschebyschow-Ungleichung lässt sich auf höhere Momente verallgemeinern Vorlage:Lit: Im Maßraum   gilt für eine messbare Funktion   und  

 .

Das folgt sehr einfach aus

 

Anwendungen

  • Der Satz wird beim Beweis des Gesetzes der großen Zahlen verwendet.
  • Die Verallgemeinerung auf höhere Momente kann benutzt werden, um zu zeigen, dass aus der  -Konvergenz von Funktionenfolgen die Konvergenz im Maß folgt.

Beispiele

Beispiel 1

Nehmen wir zum Beispiel an, dass Wikipedia-Artikel im Durchschnitt 1000 Zeichen lang sind mit einer Standardabweichung von 200 Zeichen. Aus der Tschebyschow-Ungleichung kann man dann ableiten, dass mindestens 75 % der Wikipedia-Artikel eine Länge zwischen 600 und 1400 Zeichen haben ( ).

Beispiel 2

Eine andere Folgerung aus dem Satz ist, dass für jede Wahrscheinlichkeitsverteilung mit Mittelwert   und endlicher Standardabweichung   mindestens die Hälfte der Werte im Intervall   liegen ( ).

Beispiel 3

Ein Zufallsereignis tritt bei einem Versuch mit Wahrscheinlichkeit   ein. Der Versuch wird   wiederholt; das Ereignis trete dabei   Mal auf.   ist dann binomialverteilt und hat Erwartungswert   und Varianz  ; die relative Häufigkeit   des Eintretens hat somit Erwartungswert   und Varianz  . Für die Abweichung der relativen Häufigkeit vom Erwartungswert liefert die Tschebyschow-Ungleichung

 ,

wobei für die zweite Abschätzung die unmittelbar aus der Ungleichung vom arithmetischen und geometrischen Mittel folgende Beziehung   verwendet wurde.

Bei dieser Formel handelt es sich um den Spezialfall eines schwachen Gesetzes der großen Zahlen, das die stochastische Konvergenz der relativen Häufigkeiten gegen den Erwartungswert zeigt.

Literatur

  • Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972. ISBN 0-12-065201-3
  • Ulrich Krengel, Einführung in die Wahrscheinlichkeitstheorie und Statistik, 7. Auflage, Vieweg Verlag, 2003. ISBN 3-528-67259-5


Wikibooks: Beschreibung mit Beispiel – Lern- und Lehrmaterialien