Zum Inhalt springen

Statistischer Test

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 10. April 2003 um 17:19 Uhr durch Kku (Diskussion | Beiträge) (mit etwas text). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Statistische Tests dienen zum Überprüfen einer statistischen Hypothese und ihrer Signifikanz. Man nennt sie deswegen auch Signifikanztests.

Generell geht man dabei in folgenden Schritten vor:

  1. Formulierung einer Nullhypothese H0 und ihrer Alternativhypothese H1
  2. Berechnung einer Testgröße oder Teststatistik T aus der Stichprobe
  3. Wahl des kritischen Bereiches K zu einem Signifikanzniveau α
  4. Entscheidung: Liegt T innerhalb von K, so lehnt man H0 zugunsten von H1ab

stub

TestsKurzbeschreibung
Verteilungsanpassungstests
χ2-Anpassungstest
Kolmogoroff-Smirnow TestTest einer Stichprobe auf eine hypothetische Normalverteilung
Parametrische Tests
t-Tests (einfach, doppelt, doppelt mit gepaarten Stichproben)
χ2-Test
F-Test
U-TestRangtest zum Vergleich zweier unabhängiger Verteilungen
Chi2-Test von BartlettVergleich von mehr als zwei Varianzen
Test von Cochran"
Test von Levene"
Verteilungsfreie (nichtparametrische) Tests
Mann-Whitney-Test
Wilcoxon-TestTest zweier verbundener Stichproben auf Gleichheit/ Ungleichheit der Mediane
Kruskal-WallisVergleich mehrerer Stichproben auf Gleichheit/ Ungleichheit der zugehörigen Verteilungen
Wichtige Verteilungen
Normalverteilung
Betaverteilung
Gammaverteilung
Binomialverteilung