F-Test
Der F-Test ist ein Statistischer Test zur Überprüfung von Unterschieden zwischen zwei oder mehreren Stichproben. Der Test geht zurück auf einen der bekanntesten Mathematiker und Statistiker Ronald Aylmer Fisher (1890-1962). Als Prüfwert des F-Tests wird der F-Wert berechnet, welcher wiederum einer F-Verteilung (s. auch Chi-Quadrat-Verteilung) unterliegt. Damit ist der F-Wert nur in Abhängigkeit von den, in die Berechnung eingegangenen Messwerten, dem Freiheitsgrad der Verteilung zu interpretieren.
F-Test für zwei Stichproben
Bei dem F-Test für zwei Stichproben lautet die Null-Hypothese:
Formal berechnet sich der F-wert dann als der Quotient der geschätzen Varianzen der beiden Stichproben:
Wird die Untersuchung unter einer einseitigen Alternativhypothese betrachtet, schreibt man den größeren Varianzwert in den Zähler. Diese Schätzung wird durch die Varianz der Messwerte ersetzt.
Der F-Wert kann nun unter Berücksichtigung der Freiheitsgrade der Verteilung in einer F-Wert-Tabelle nachgeschlagen werden Uni-Bielefeld.
Beispiel: Ein Unternehmen will vor dem Kauf einer neuen Anwendung prüfen, welche von zwei konkurrierenden Anwendungen die bessere ist. Unter anderem wird die Zufriedenheit der Benutzer gemessen. Die Ergebnisse eines Zufriedenheits-Fragebogen zeigen bei den der 120 Benutzern der Anwendung A eine Varianz von 95. Die Werte der 100 Benutzer der Anwendung B haben eine Varianz von 80. Die Präferenz des Unternehmens geht eindeutig zur Anwendung A, aus diesem Grunde wird eine einseitige Überprüfung vorgeschlagen:
F-Test für mehrere Stichprobenvergleiche
Der einfaktoriellen Varianzanalyse liegt ebenfalls der F-Test zugrunde. Hier werden die Treatment- und Fehler-Varianzen gegeneinander verglichen.
F-Test für mehrerfaktorielle Testpläne
Auch bei der mehrfaktoriellen Varianzanalyse (d.h. die Unterschiede lassen sich auf verschiedene Treatment-Faktoren verteilen)
Literatur
Bortz, J., 1977, Statistik für Sozialwissenschaftler, Springer:Berlin.
--kai 12:05, 30. Jun 2004 (CEST)