Zum Inhalt springen

Kolmogorow-Smirnow-Test

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 12. August 2004 um 13:38 Uhr durch Ahoerstemeier (Diskussion | Beiträge) (typo). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Mit dem Kolmogoroff-Smirnov-Anpassungstest (nach Andrej Nikolajewitsch Kolmogorow und Wladimir Iwanowitsch Smirnow) wird in der Statistik getestet, ob zwei Wahrscheinlichkeitsverteilungen übereinstimmen. Das kann ein Vergleich der Verteilungen zweier statistischer Merkmale sein, aber auch der Test, ob ein statistisches Merkmal einer bestimmten Wahrscheinlichkeitsverteilung gehorcht. Speziell letzteres ist im Gegensatz zum χ2-Test vor allem für kleine Stichproben geeignet.

Konzeption

Die Konzeption soll anhand des Anpassungstests erläutert werden, wobei der Vergleich zweier Merkmale analog zu verstehen ist. Man betrachtet ein statistisches Merkmal x, dessen Wahrscheinlichkeiten in der Grundgesamtheit unbekannt sind. Es wird bezüglich der Wahrscheinlichkeiten von x eine Nullhypothese

Ho: Das Merkmal x hat die Wahrscheinlichkeitsverteilung Fo(x)

aufgestellt.

Vorgehensweise

Es liegen von einer Zufallsvariablen X n viele Beobachtungen xi (i = 1, ... , n) vor. Von diesen Beobachtungen wird die relative Summenfunktion oder Summenhäufigkeit S(xi) ermittelt. Diese empirische Verteilung wird nun mit der entsprechenden hypothetischen Verteilung der Grundgesamtheit verglichen: Es wird der Wert der Wahrscheinlichkeitsverteilung an der Stelle xi bestimmt: Fo(xi). Wenn X tatsächlich dieser Verteilung gehorcht, müssten die beobachtete Häufigkeit S(xi) und die erwartete Häufigkeit Fo(xi) in etwa gleich sein.

Es wird also für jedes i die absolute Differenz

und auch

berechnet. Es wird sodann die absolut größte Differenz dmax aus allen Differenzen ermittelt. Wenn dmax also einen kritischen Wert dα übersteigt, wird die Hypothese bei einem Signifikanzniveau α abgelehnt.

Bis n = 30 liegen die kritischen Werte tabelliert vor. Ab dann können sie näherungsweise mit Hilfe einer einfachen Formel bestimmt werden.

Bemerkungen

Die Vorteile des Kolmogorow-Smirnow-Tests liegen darin, dass er verteilungsfrei ist, im Gegensatz zu Tests wie dem Student-Test, die eine Normalverteilung voraussetzen.

Der Kolmogorow-Smirnow-Anpassungstest ist für stetig verteilte metrische Merkmale entwickelt worden; er kann aber auch für diskrete und sogar rangskalierte Merkmale verwendet werden.

Anwendungsbeispiel

Der Kolmogorow-Smirnow-Test kann zum Testen von Zufallszahlen genutzt werden, beispielsweise ob die Zufallszahlen einer Gleichverteilung folgen.

Zahlenbeispiel

Im einem Unternehmen, das hochwertige Parfüms herstellt, wurde im Rahmen der Qualitätssicherung an einer Abfüllanlage die abgefüllte Menge für n = 8 Flakons gemessen. Es ist das Merkmal x: Abgefüllte Menge im ml.

Es soll geprüft werden, ob noch die bekannten Parameter der Verteilung von x gelten.

Zunächst soll bei einem Signifikanzniveau α = 0,05 getestet werden, ob das Merkmal x in der Grundgesamt überhaupt normalverteilt mit den bekannten Parametern μ = 11 und σ = 1 ist, also

Ho: F(x) = Fo(x) = Φ(x|11;1)

mit Φ als Normalverteilungssymbol. Es ergab sich die Tabelle:

i xi S(xi) Fo(xi) S(xi-1)-Fo(xi) S(xi)-Fo(xi)
1 9,41 0,125 0,056 -0,056 0,069
2 9,92 0,250 0,140 -0,015 0,110
3 11,55 0,375 0,709 -0,459 -0,334
4 11,60 0,500 0,726 -0,351 -0,226
5 11,73 0,625 0,767 -0,267 -0,142
6 12,00 0,750 0,841 -0,216 -0,091
7 12,06 0,875 0,855 -0,105 0,020
8 13,02 1,000 0,978 -0,103 0,022

Hier bezeichnen xi die i-te Beobachtung, S(xi) den Wert der Summenfunktion der i-ten Beobachtung und Fo(xi) den Wert der Normalverteilungsfunktion an der Stelle xi mit den genannten Parametern. Die nächsten Spalten geben die oben angeführten Differenzen an. Der kritische Wert, der zur Ablehnung führt ist bei α = 0,05 der Betrag 0,454. Die größte absolute Abweichung in der Tabelle ist 0,459 in der 3. Zeile. Dieser Wert ist größer als der kritische Wert, daher wird die Hypothese gerade noch abgelehnt. Es ist also zu vermuten, dass die Verteilungshypothese falsch ist.