Zum Inhalt springen

Statistischer Test

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 10. April 2003 um 16:00 Uhr durch Kku (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

Statistische Tests dienen zum Überprüfen einer statistischen Hypothese und ihrer Signifikanz. Man nennt sie deswegen auch Signifikanztests.

Generell geht man dabei in folgenden Schritten vor:

  1. Formulierung einer Nullhypothese H0 und ihrer Alternativhypothese H1
  2. Berechnung einer Testgröße oder Teststatistik T aus der Stichprobe
  3. Wahl des kritischen Bereiches K zu einem Signifikanzniveau α
  4. Entscheidung: Liegt T innerhalb von K, so lehnt man H0 zugunsten von H1ab

stub

TestsKurzbeschreibung
Verteilungsanpassungstests
χ2-Anpassungstest
Kolmogoroff-Smirnow TestTest einer Stichprobe auf eine hypothetische Normalverteilung
t-Tests (einfach, doppelt, doppelt mit gepaarten Stichproben)
χ2-Test
F-Test
U-TestRangtest zum Vergleich zweier unabhängiger Verteilungen
Mann-Whitney-Test
Wilcoxon-TestTest zweier verbundener Stichproben auf Gleichheit/ Ungleichheit der Mediane
Kruskal-WallisVergleich mehrerer Stichproben auf Gleichheit/ Ungleichheit der zugehörigen Verteilungen
Wichtige Verteilungen
Normalverteilung
Betaverteilung
Gammaverteilung
Binomialverteilung