Zum Inhalt springen

„Varianzanalyse“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[ungesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
K Tippfehler entfernt
 
(375 dazwischenliegende Versionen von mehr als 100 Benutzern, die nicht angezeigt werden)
Zeile 1: Zeile 1:
Als '''Varianzanalyse''', kurz '''VA''' ({{enS}} ''analysis of variance'', kurz ''ANOVA''), auch '''Streuungsanalyse''' oder '''Streuungszerlegung''' genannt, bezeichnet man eine große Gruppe [[Datenanalyse|datenanalytischer]] und [[Multivariate Verfahren#Strukturprüfende Verfahren|strukturprüfender]] [[Statistik|statistischer]] Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen.
<!--Bitte den Artikel allgemeinverständlich halten.-->
Als '''Varianzanalyse''' (eigentlich Varianzanalys''en'') bezeichnet man eine große Gruppe [[Datenanalyse|datenanalytischer]] und [[Mustererkennung|mustererkennender]] [[Statistik|statistischer]] Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen. Ihnen gemeinsam ist, dass sie die [[Varianz]] analysieren, um Aufschlüsse über die hinter den Daten steckenden Gesetzmäßigkeiten zu erlangen. Die Varianzanalyse wird in vielen Computerprogrammen auch als '''ANOVA''' für ''analysis of variance'' bezeichnet.


Ihnen gemeinsam ist, dass sie [[Varianz (Stochastik)|Varianzen]] und [[Prüfgröße]]n berechnen, um Aufschlüsse über die hinter den Daten steckenden Gesetzmäßigkeiten zu erlangen. Die Varianz einer oder mehrerer Zielvariablen wird dabei durch den Einfluss einer oder mehrerer Einflussvariablen (Faktoren) erklärt. Die einfachste Form der Varianzanalyse testet den Einfluss einer einzelnen [[Nominalskala|nominalskalierten]] auf eine [[Intervallskala|intervallskalierte]] Variable, indem sie die Mittelwerte der abhängigen Variable innerhalb der durch die Kategorien der unabhängigen Variable definierten Gruppen vergleicht. Somit stellt die Varianzanalyse in ihrer einfachsten Form eine Alternative zum [[t-Test|''t''-Test]] dar, die für Vergleiche zwischen mehr als zwei Gruppen geeignet ist. Varianzanalytische Modelle sind in der Regel spezielle [[Lineare Regression|lineare Regressionsmodelle]]. Das Verfahren der Varianzanalyse geht im Wesentlichen auf [[Ronald Aylmer Fisher]] zurück.
Nicht alle Verfahren, die mit der Varianz rechnen, werden als Varianzanalyse bezeichnet, sondern nur solche, die die [[Varianz]] einer [[Skalenniveau|metrisch]]en [[Zufallsvariable]] durch den Einfluss einer oder mehrerer Gruppenvariablen erklären. Stets wird eine Prüfgröße berechnet. Hinsichtlich der beteiligten Variablen lassen sich im wesentlichen vier Formen der Varianzanalyse unterscheiden:


== Überblick ==
* einfaktorielle univariate Varianzanalyse
=== Grundbegriffe ===
* mehrfaktorielle univariate Varianzanalysen
Die [[abhängige Variable]] heißt ''Zielvariable'':
* einfaktorielle multivariate Varianzanalysen
* Die [[Skalenniveau|metrische]] [[Zufallsvariable]], deren Wert durch die [[Kategoriale Variable|kategorialen Variablen]] erklärt werden soll. Die abhängige Variable enthält Messwerte.
* mehrfaktorielle multivariate Varianzanalysen


Die [[unabhängige Variable]] nennt man ''Einflussvariable'' oder ''Faktor'':
Beispiele für die Anwendung der Varianzanalyse sind die Untersuchung der Wirksamkeit von Medikamenten in der Medizin (siehe [[Doppelblindversuch]]) und die Untersuchung des Einflusses von Düngemitteln auf den Ertrag von Anbauflächen in der Landwirtschaft.
* Die kategoriale Variable (= Faktor), die die Gruppen vorgibt. Ihr Einfluss soll überprüft werden, sie ist [[Nominalskalierung|nominalskaliert]].
* Die Kategorien eines Faktors heißen dann ''Faktorstufen''. Diese Bezeichnung ist ''nicht'' identisch mit jener bei der [[Faktorenanalyse]].


==Grundidee der Varianzanalysen==
=== Anzahl der Zielvariablen ===
Je nachdem, ob eine oder mehrere Zielvariablen vorliegen, unterscheidet man zwei Formen der Varianzanalyse:


* die [[Univariat|univariate]] Varianzanalyse, nach der englischen Bezeichnung '''''an'''alysis '''o'''f '''va'''riance'' auch als '''''ANOVA''''' abgekürzt
Die Verfahren untersuchen, ob (und gegebenenfalls wie) sich die [[Erwartungswert]]e der metrischen Zufallsvariablen in verschiedenen Gruppen (auch ''Klassen'') unterscheiden. Mit den Prüfgrößen des Verfahrens wird getestet, ob die Varianz zwischen den Gruppen grösser ist als die [[Varianz]] innerhalb der Gruppen. Dadurch kann ermittelt werden, ob die Gruppeneinteilung sinnvoll ist oder nicht bzw. ob sich die Gruppen signifikant unterscheiden oder nicht.
* die multivariate Varianzanalyse, nach der englischen Bezeichnung '''''m'''ultivariate '''an'''alysis '''o'''f '''va'''riance'' auch als '''''MANOVA''''' abgekürzt


Je nachdem, ob ein oder mehrere Faktoren vorliegen, unterscheidet man zwischen '' einfacher'' (einfaktorieller) und ''mehrfacher'' bzw. multipler (mehrfaktorieller) Varianzanalyse.
''Wenn'' sie sich signifikant unterscheiden, kann angenommen werden, dass in den Gruppen unterschiedliche Gesetzmäßigkeiten wirken. So läßt sich beispielsweise klären, ob das "Verhalten" einer Kontrollgruppe mit dem einer Experimentalgruppe identisch ist. Ist beispielsweise die Varianz einer dieser beiden Gruppen bereits auf reale Ursachen (Varianzquellen) zurück geführt, kann bei Varianzgleichheit geschlossen werden, dass in der anderen Gruppe keine neue Wirkungsursache (z.B. durch die Experimentalbedingungen) hinzu kam.


=== Anzahl der Untersuchungseinheiten ===
''Siehe auch:'' [[Diskriminanzanalyse]], [[Nullhypothese]], [[Bestimmtheitsmaß]]
Im einfachsten Fall werden aus jeder Faktorstufe gleich viele Beobachtungen betrachtet. Man spricht in diesem Fall auch von einer ''orthogonalen Varianzanalyse'' oder von einem ''balancierten Modell''. Die Arbeit mit und Interpretation von Daten, deren Faktorstufen unterschiedlich viele Elemente enthalten (z.&nbsp;B. auch fehlende Werte), ist schwieriger (vgl. ''unbalanciertes Modell'').


=== Feste und zufällige Effekte ===
==Bedeutung der Varianzanalyse==
Eine gebräuchliche Modellunterscheidung der Varianzanalyse wird danach vorgenommen, ob die ''Faktoren mit festen Effekten'' ({{enS}} ''fixed factors'') oder ''Faktoren mit zufälligen Effekten'' ({{enS}} ''random factors'') vorliegen.<ref>Hans Friedrich Eckey: ''Multivariate Statistik: Grundlagen - Methoden - Beispiele''. Dr. Th. Gabler Verlag; Auflage: 2002 (12. September 2002), ISBN 978-3-409-11969-6. S. 94.</ref> Von festen Effekten spricht man, wenn die Einflussfaktoren in endlich vielen Faktorstufen vorkommen und man diese alle erfasst hat bzw. die in der Untersuchung interessierende Aussage sich nur auf diese Faktorstufen bezieht. Von Modellen mit zufälligen Effekten spricht man, wenn man nur eine Auswahl aller möglichen Faktorstufen erfassen kann (vgl. hierzu auch [[Lineare Paneldatenmodelle]]).


== Grundidee ==
Die Varianzanalyse spielt in der Wissenschaft eine wesentliche Rolle. Sie kann als die wissenschaftlich fundierte Form der [[Attribuierung]] (Ursachenzuschreibung) angesehen werden, welche Menschen in naiver Weise ständig im Alltag betreiben und dabei Häufigkeiten und Variabilität von Handlungen oder Vorgängen auf mutmassliche Gründe zurück führen. Alltagsvorgänge, die oft gemeinsam auftreten oder unter Umgebungsveränderungen in ähnlicher Weise ''varieren''/''kovariieren'', werden als miteinander im Zusammenhang stehend interpretiert. Man nimmt im Alltag an, Variationen gingen auf Abhängigkeiten zurück. So kann die [[Häufigkeit]] (Intensität, Art und Weise usw.), mit der eine Person ihre Hände wäscht, mit der Häufigkeit in Bezug gesetzt werden, mit der sie schmutzige Tätigkeiten ausführt. (Automechaniker) Im Alltag wird dann naiv der Schluss gezogen, dass eine Person, die gerade ihre Hände wäscht, zuvor eine Verschmutzung hatte, die als Grund für das Händewaschen angesehen wird. Diese Usachenzuschreibung ist jedoch nur im Regelfall korrekt, da es auch andere Gründe für Händewaschen gibt. Alltagsbeobachtungen können trügerisch sein.
[[Datei:ANOVA very good fit.jpg|mini|350px|Die Gesamtvarianz lässt sich gut in Gruppen zerlegen, wenn die Variabilität zwischen den Faktorstufen groß, die Variabilität innerhalb derselben aber gering ist.]]
Die Verfahren untersuchen, ob (und gegebenenfalls wie) sich die [[Erwartungswert]]e der metrischen Zufallsvariablen in verschiedenen Gruppen (auch ''Klassen'') unterscheiden. Mit den [[Teststatistik|Prüfgrößen]] des Verfahrens wird getestet, ob die ''[[Varianz (Stochastik)|Varianz]] zwischen den Gruppen'' größer ist als die ''Varianz innerhalb der Gruppen''. Dadurch kann ermittelt werden, ob die Gruppeneinteilung sinnvoll ist oder nicht bzw. ob sich die Gruppen signifikant unterscheiden oder nicht.


''Wenn'' sie sich signifikant unterscheiden, kann angenommen werden, dass in den Gruppen unterschiedliche Gesetzmäßigkeiten wirken. So lässt sich beispielsweise klären, ob das Verhalten einer Kontrollgruppe mit dem einer Experimentalgruppe identisch ist. Ist beispielsweise die Varianz einer dieser beiden Gruppen bereits auf Ursachen (Varianzquellen) zurückgeführt, kann bei Varianzgleichheit darauf geschlossen werden, dass in der anderen Gruppe keine neue Wirkungsursache (z.&nbsp;B. durch die Experimentalbedingungen) hinzukam.
Der statistischen Varianzanalyse kommt deshalb eine wesentliche Rolle zu, da sie das Alltagsdenken in ''konsequenter Form fortsetzt''. Viele andere multivariate Verfahren setzen das Alltagsdenken ''nicht'' fort, sondern basieren auf künstlich entwickelten Modellannahmen.


''Siehe auch:'' [[Diskriminanzanalyse]], [[Bestimmtheitsmaß]]
Die [[Statistische Signifikanz|Signifikanz]] einer ermittelten Gruppeneinteilung lässt sich anhand der [[F-Verteilung]] testen. Die Werte in dieser Verteilung sind die Prüfgrösse der Varianzanalyse.


== Voraussetzungen und Alternativen ==
<!-- ==Historische Entwicklung der Varianzanalysen== -->
Die Zuverlässigkeit der Signifikanztests im Rahmen der Varianzanalyse hängt davon ab, inwieweit ihre Voraussetzungen erfüllt sind. Diese Voraussetzungen sind je nach Anwendung etwas unterschiedlich, allgemein gelten folgende:


* [[Varianzhomogenität]] (Homoskedastizität): Die [[Messabweichung]] sollte über alle möglichen Werte der unabhängigen Variablen hinweg gleich verteilt sein.
== Voraussetzungen der Varianzanalysen ==
* [[Normalverteilung]] der Vorhersagefehler (Residuen): Die [[Störgröße und Residuum|Residuen]] sollten aus einer normalverteilten Grundgesamtheit stammen.
Die Anwendung jeder Form der Varianzanalyse ist an Voraussetzungen gebunden, deren Vorliegen vor jeder Berechnung geprüft werden muss. Erfüllen die Datensätze diese Voraussetzungen nicht, so sind die Ergebnisse unbrauchbar. Die Voraussetzungen sind je nach Anwendung etwas unterschiedlich, allgemein gelten folgende:


Die Überprüfung erfolgt mit anderen Tests außerhalb der Varianzanalyse, die allerdings heute standardmäßig in Statistik-Programmen als Option mitgeliefert werden. Die Normalverteilung der Residuen kann unter anderem mit dem [[Shapiro-Wilk-Test]] überprüft werden, Varianzhomogenität mit dem [[Levene-Test]].
* [[Varianzhomogenität]] der Stichprobenvariablen
* [[Normalverteilung]] der Stichprobenvariablen


Gegen Abweichungen von der Normalverteilungsannahme gelten Varianzanalysen als robust, vor allem bei größeren Stichprobenumfängen (siehe [[Zentraler Grenzwertsatz]]). Inhomogene Varianzen stellen bei ungleichen Gruppengrößen ein Problem dar. Im Falle einfacher Varianzanalysen kann in solch einem Fall gegebenenfalls der [[Brown-Forsythe-Test]] gerechnet werden. Ferner kommt gegebenenfalls eine Transformation der abhängigen Variable in Betracht, um die Varianzen der Gruppen anzugleichen, beispielsweise durch [[Logarithmus|Logarithmierung]]. Wenn die Voraussetzungen nicht ausreichend erfüllt sind, bieten sich zudem verteilungsfreie, nichtparametrische Verfahren an, die robust sind, aber geringere [[Teststärke]] besitzen und andere [[Parameter (Statistik)|Parameter]] testen als die Varianzanalyse, da sie auf Rängen basieren.
Die Überprüfung erfolgt mit anderen Test außerhalb der Varianzanalyse, die allerdings heute standardmäßig in Statistik-Programmen als Option mitgeliefert werden. Die Normalverteilung kann beispielsweise für jede Variable mit dem [[Kolmogorow-Smirnow-Test]] überprüft werden. Wenn diese Voraussetzungen nicht erfüllt sind, bieten sich Verteilungsfreie, non-parametrische Verfahren an, die robust sind, aber weniger genau rechnen.


* [[Parameterfreie Statistik|nichtparametrische Verfahren]]:
<!-- [[nominalskaliert]]e oder [[Ordinalskala|ordinalskalierte]] -->
** für zwei Stichproben ([[t-Test|''t''-Test]]-Alternativen):
*** gepaarte (abhängige) Prüfung: [[Wilcoxon-Vorzeichen-Rang-Test]]
*** ungepaarte (unabhängige) Prüfung: [[Mann-Whitney-U-Test]] auch Wilcoxon-Mann-Whitney-Test, U-Test, Mann-Whitney-Wilcoxon, (MWW)-Test oder [[Wilcoxon-Rangsummentest]] genannt.
** für drei oder mehr Stichproben:
*** gepaarte Daten: [[Friedman-Test (Statistik)|Friedman-Test]], [[Quade-Test]]
*** ungepaarte Daten: [[Kruskal-Wallis-Test]], [[Jonckheere-Terpstra-Test]], [[Umbrella-Test]], oder bei gleichzeitiger Verletzung von Normalverteilungsannahme und Varianzhomogenitätsannahme auch der [[Median-Test]]
*** zur mehrfaktoriellen Analyse: [[Scheirer-Ray-Hare-Test]]
*** [[PERMANOVA]]: ein [[Permutationstest]]


== Begriffe ==
== Einfache Varianzanalyse ==
Bei einer ''einfachen Varianzanalyse'', auch ''Einweg-Varianzanalyse'' ({{enS}} ''one-way analysis of variance'', kurz: ''one-way ANOVA''), oder ''einfaktorielle Varianzanalyse'' genannt, untersucht man den Einfluss einer unabhängigen Variable (Faktor) mit <math>k</math> verschiedenen Stufen (Gruppen) auf die Ausprägungen einer Zufallsvariablen. Dazu werden die <math>k</math> Mittelwerte der Ausprägungen für die Gruppen miteinander verglichen, und zwar vergleicht man die Varianz zwischen den Gruppen mit der Varianz innerhalb der Gruppen. Weil sich die totale Varianz aus den zwei genannten Komponenten zusammensetzt, spricht man von Varianzanalyse. Die einfache Varianzanalyse ist die Verallgemeinerung des ''t''-Tests im Falle mehr als zwei Gruppen. Für <math>k=2</math> ist sie äquivalent mit dem t-Test.
*'''Abhängige Variable aV''' (Zielvariable)
**Die metrische Variable, deren Wert durch die kategorialen Variablen erklärt werden soll. Diese variable enthält Messwerte.
* '''Unabhängige Variable uV''' (Einflussvariable, Faktoren)
**Die kategoriale Variable, die die Gruppen vorgibt. Ihr Einfluss soll überprüft werden.
**Auch Faktor genannt. Die Kategorien heißen dann Faktorstufen. Diese Bezeichnung ist ''nicht'' identisch mit jener bei der [[Faktorenanalyse]].

<!--==prinzipielles Vorgehen==-->

== Einfaktorielle Varianzanalyse ==

Bei einer einfaktoriellen Varianzanalyse untersucht man den Einfluß '''einer''' unabhängigen Variable (Faktor) mit p verschiedenen Ausprägungen auf eine abhängige Variable, welche die Messwerte enthält.


=== Voraussetzungen ===
=== Voraussetzungen ===
* Die Fehlerkomponenten müssen normalverteilt sein. Fehlerkomponenten bezeichnen die jeweiligen Varianzen (Gesamt-, Behandlungs- und Fehlervarianz). Die Gültigkeit dieser Voraussetzung setzt gleichzeitig eine Normalverteilung der Messwerte in der jeweiligen Grundgesamtheit voraus.

* Die Fehlervarianzen müssen zwischen den Gruppen (also den k Faktorstufen) gleich bzw. homogen sein ([[Homoskedastizität]]).
* Die Fehlerkomponenten müssen normalverteilt sein. Fehlerkomponenten bezeichnen die jeweiligen Varianzen (Gesamt-, Treatment- und Fehlervarianz). Die Gültigkeit dieser Voraussetzung setzt gleichzeitig eine Normalverteilung der Messwerte in der jeweiligen Grundgesamtheit voraus.
* Die Fehlervarianzen müssen zwischen den Gruppen (also den Faktorstufen) gleich bzw. homogen sein ([[Homoskedastizität]]).
* Die Messwerte bzw. Faktorstufen müssen unabhängig voneinander sein.
* Die Messwerte bzw. Faktorstufen müssen unabhängig voneinander sein.


=== Beispiel ===
=== Beispiel ===
Diese Form der Varianzanalyse ist angezeigt, wenn beispielsweise untersucht werden soll, ob Rauchen einen Einfluss auf die Aggressivität hat. Rauchen ist hier eine unabhängige Variable, welche in drei Ausprägungen (<math>k=3</math> Faktorstufen) unterteilt werden kann: ''Nichtraucher'', ''schwache Raucher'' und ''starke Raucher''. Die durch einen Fragebogen erfasste Aggressivität ist die abhängige Variable. Zur Durchführung der Untersuchung werden die Versuchspersonen den drei Gruppen zugeordnet. Danach wird der Fragebogen vorgelegt, mit dem die Aggressivität erfasst wird.

Diese Form der Varianzanalyse ist angezeigt, wenn untersucht werden soll, ob Rauchen einen Einfluss auf die Aggressivität hat. Rauchen ist hier eine unabhängige Variable, welche in drei Ausprägungen (Faktorstufen) unterteilt werden kann: ''Nichtraucher'', ''schwache Raucher'' und ''starke Raucher''. Die durch einen Fragebogen erfasste Aggressivität ist die abhängige Variable. Zur Durchführung der Untersuchung werden die Vpn den drei Gruppen zugeordnet. Danach wird der Fragebogen vorgelegt, mit dem die Aggressivität erfasst wird.


=== Hypothesen ===
=== Hypothesen ===
Es sei <math>\mu_i</math> der Erwartungswert der abhängigen Variable in der <math>i</math>. Gruppe.
Die [[Nullhypothese]] einer einfachen Varianzanalyse lautet:


:<math>
Die [[Nullhypothese]] einer einfaktoriellen Varianzanalyse lautet:
H_0\colon \mu_1 = \mu_2 = \ldots = \mu_k

<math>
H_0: \mu_1 = \mu_2 = ... = \mu_p
</math>
</math>


Die Alternativhypothese lautet:
Die Alternativhypothese lautet:


<math>
:<math>
H_1: \mu_i \neq \mu_j
H_1\colon \exists i,j:\ \mu_i \neq \mu_j
</math>
</math>


Die Nullhypothese besagt demnach, dass zwischen den Mittelwerten der Gruppen (die den Faktorausprägung bzw. Faktorstufen entsprechen) kein Unterschied besteht.
Die Nullhypothese besagt demnach, dass zwischen den Erwartungswerten der Gruppen (die den Faktorausprägungen bzw. Faktorstufen entsprechen) kein Unterschied besteht.
Die Alternativhypothese besagt, dass zwischen ''mindestens'' zwei Mittelwerten ein Unterschied besteht. Wenn wir beispielsweise fünf Faktorstufen haben, dann ist die Alternativhypothese bestätigt, wenn sich mindestens zwei der Gruppenmittelwerte unterscheiden. Es können sich aber auch drei Mittelwerte oder vier oder alle fünf deutlich voneinander unterscheiden.
Die Alternativhypothese besagt, dass zwischen ''mindestens'' zwei Erwartungswerten ein Unterschied besteht. Wenn wir beispielsweise fünf Faktorstufen haben, dann ist die Alternativhypothese bestätigt, wenn sich mindestens zwei der Gruppenmittelwerte unterscheiden. Es können sich aber auch drei Erwartungswerte oder vier oder alle fünf deutlich voneinander unterscheiden.


Wird die Nullhypothese verworfen, liefert die Varianzanalyse also weder Aufschluss darüber, zwischen wievielen noch zwischen welchen Faktorstufen ein Unterschied besteht. Wir wissen dann nur mit einer bestimmten Wahrscheinlichkeit (siehe [[Signifikanzniveau]], [[Fehler 1. Art]]), dass mindestens zwei Ausprägungen einen bedeutsamen Unterschied aufweisen.
Wird die Nullhypothese verworfen, liefert die Varianzanalyse also weder Aufschluss darüber, zwischen wie vielen noch zwischen welchen Faktorstufen ein Unterschied besteht. Wir wissen dann nur mit einer bestimmten Wahrscheinlichkeit (siehe [[Signifikanzniveau]]), dass mindestens zwei Ausprägungen einen bedeutsamen Unterschied aufweisen.


Man kann nun fragen, ob es zulässig wäre, mit verschiedenen [[t-Test]]s jeweils paarweise Einzelvergleiche zwischen den Mittelwerten durchzuführen. Vergleicht man mit der Varianzanalyse nur zwei Gruppen (also zwei Mittelwerte), dann führen t-Test und Varianzanalyse zum gleichen Ergebnis. Liegen jedoch mehr als zwei Gruppen vor, ist die Überprüfung der '''globalen Nullypothese''' der Varianzanalyse über paarweise t-Tests nicht zulässig - es kommt zur sogenannten [[Alphafehler-Kumulierung]].
Man kann nun fragen, ob es zulässig wäre, mit verschiedenen ''t''-Tests jeweils paarweise Einzelvergleiche zwischen den Mittelwerten durchzuführen. Vergleicht man mit der Varianzanalyse nur zwei Gruppen (also zwei Mittelwerte), dann führen t-Test und Varianzanalyse zum gleichen Ergebnis. Liegen jedoch mehr als zwei Gruppen vor, ist die Überprüfung der '''globalen Nullhypothese''' der Varianzanalyse über paarweise ''t''-Tests nicht zulässig es kommt zur sogenannten [[Alphafehler-Kumulierung]] bzw. Alphafehler-Inflation.
Mit Hilfe multipler [[Post-Hoc-Test|Vergleichstechniken]] kann nach einem signifikanten Varianzanalyse-Ergebnis überprüft werden, bei welchem Mittelwertspaar der oder die Unterschiede liegen. Beispiele solcher Vergleichstechniken sind der [[Post-Hoc-Test#Bonferroni-Test auf kleinsten signifikanten Unterschied|Bonferroni-Test auf kleinsten signifikanten Unterschied]] und der [[Post-Hoc-Test#Scheffé-Test|Scheffé-Test]] (vgl. auch [[Post-hoc-Test]]). Der Vorteil dieser Verfahren liegt darin, dass sie den Aspekt der Alphafehler-Inflation berücksichtigen.


=== Grundgedanken der Rechnung ===
=== Grundgedanken der Rechnung ===
* Bei der Berechnung der Varianzanalyse berechnet man zunächst die beobachtete Gesamtvarianz in allen Gruppen. Dazu fasst man alle Messwerte aus allen Gruppen zusammen, errechnet den Gesamtmittelwert und die Gesamtvarianz.


* Dann möchte man den Varianzanteil der Gesamtvarianz, der allein auf den Faktor zurückgeht, ermitteln. Wenn die gesamte beobachtete Varianz auf den Faktor zurückginge, dann müssten alle Messwerte in einer Faktorstufe gleich sein – in diesem Fall dürften nur Unterschiede zwischen den Gruppen bestehen. Da alle Messwerte innerhalb einer Gruppe dieselbe Faktorausprägung aufweisen, müssten sie folglich alle den gleichen Wert haben, da der Faktor die einzige varianzgenerierende Quelle wäre. In der Praxis werden sich aber auch Messwerte innerhalb einer Faktorstufe unterscheiden. Diese Unterschiede innerhalb der Gruppen müssen also von anderen Einflüssen stammen (entweder Zufall oder sogenannten [[Störvariable]]n).
*Bei der Berechnung der Varianzanalyse berechnet man zunächst die beobachtete Gesamtvarianz in allen Gruppen. Dazu fasst man alle Messwerte aus allen Gruppen zusammen, errechnet den Gesamtmittelwert und die Gesamtvarianz.


:Um nun auszurechnen, welche Varianz allein auf die Ausprägungen des Faktors zurückgeht, stellt man seine Daten für einen Moment gewissermaßen „ideal“ um: Man weist allen Messwerten innerhalb einer Faktorstufe den Mittelwert der jeweiligen Faktorstufe zu. Somit macht man alle Werte innerhalb einer Faktorstufe gleich, und der einzige Unterschied besteht nun noch zwischen den Faktorstufen. Nun errechnet man mit diesen „idealisierten“ Daten erneut die Varianz. Diese kennzeichnet die Varianz, die durch den Faktor zustande kommt („Varianz der Behandlungen“, ''Treatment-Varianz'').
*Dann möchte man den Varianzanteil der Gesamtvarianz, der allein auf den Faktor zurückgeht, ermitteln. Wenn die gesamte beobachtete Varianz auf den Faktor zurückginge, dann müssten alle Messwerte in einer Faktorstufe gleich sein - dann dürften nur Unterschiede zwischen den Gruppen bestehen. Da alle Messwerte innerhalb einer Gruppe dieselbe Faktorausprägung aufweisen, müssten sie folglich alle den gleichen Wert haben, da der Faktor die einzige varianzgenerierende Quelle wäre. In der Praxis werden sich aber auch Messwerte innerhalb einer Faktorstufe unterscheiden. Diese Unterschiede innerhalb der Gruppen müssen also von anderen Einflüssen stammen (entweder Zufall oder sogenannten [[Störvariable]]n).
:Um nun auszurechnen, welche Varianz allein auf die Ausprägungen des Faktors zurückgeht, stellt man seine Daten für einen Moment gewissermaßen `ideal´ um: Man weist allen Messwerten innerhalb einer Faktorstufe den Mittelwert der jeweiligen Faktorstufe zu. Somit macht man alle Werte innerhalb einer Faktorstufe gleich und der einzige Unterschied besteht nun noch zwischen den Faktorstufen. Nun errechnet man mit diesen `idealisierten´ Daten erneut die Varianz. Diese kennzeichnet die Varianz, die durch den Faktor zu Stande kommt ("Treatment-Varianz").
:Teilt man die Treatmentvarianz durch die Gesamtvarianz, erhält man den relativen Anteil, der auf den Faktor zurückzuführenden Varianz.


:Teilt man die Varianz der Behandlungen durch die Gesamtvarianz, erhält man den relativen Anteil der auf den Faktor zurückzuführenden Varianz.
*Zwischen der Gesamtvarianz und der Treatmentvarianz besteht in aller Regel eine Diskrepanz - die Gesamtvarianz ist größer als die Treatmentvarianz. Die Varianz, die nicht auf den Faktor (das "Treatment") zurückzuführen ist, bezeichnet man als Fehlervarianz. Diese beruht entweder auf Zufall oder anderen, nicht untersuchten Variablen (Störvariablen).
: Die Fehlervarianz lässt sich berechnen, indem man seine Daten erneut umstellt: Man errechnet für jeden einzelnen Messwert dessen Abweichung von jeweiligen Gruppenmittelwert seiner Faktorstufe. Daraus berechnet man erneut die gesamte Varianz. Diese kennzeichnet dann die Fehlervarianz.
: Eine wichtige Beziehung zwischen den Komponenten ist die Additivität der Quadratsummen. Als Quadratsummen bezeichnet man den Teil der [[Varianz]]formel, der im Zähler steht. Lässt man also bei der Berechnung der Treatmentvarianz den Nenner (die [[Freiheitsgrad]]e) weg, erhält man die Treatmentquadratsumme. Die '''Gesamtquadratsumme''' (also Gesamtvarianz ohne Nenner) ergibt sich aus der '''Summe von Treatment- und Fehlerquadratsumme'''.


* Zwischen der Gesamtvarianz und der Varianz der Behandlungen besteht in aller Regel eine Diskrepanz – die Gesamtvarianz ist größer als die Varianz der Behandlungen. Die Varianz, die nicht auf den Faktor (die Behandlung) zurückzuführen ist, bezeichnet man als Fehlervarianz. Diese beruht entweder auf Zufall oder anderen, nicht untersuchten Variablen (Störvariablen).
*Die letztendliche Signifikanzprüfung erfolgt über einen `gewöhnlichen´ [[F-Test]]. Man kann mathematisch zeigen, dass bei Gültigkeit der Nullhypothese der Varianzanalyse gleichzeitig gilt, dass Treatment- und Fehlervarianz gleich sein müssen. Mit einem F-Test kann man die Nullhypothese überprüfen, dass zwei Varianzen gleich sind, indem man den Quotienten aus ihnen bildet.

:Im Falle der Varianzanalyse bildet man den Quotienten aus Treatmentvarianz geteilt durch Fehlervarianz. Dieser Quotient ist F-verteilt mit (N-1) Zählerfreiheitsgraden und p×(n-1) Nennerfreiheitsgraden (N ist die Gesamtzahl aller Versuchspersonen, n ist die jeweilige Zahl der Versuchspersonen pro Faktorstufe).
:Die Fehlervarianz lässt sich berechnen, indem man seine Daten erneut umstellt: Man errechnet für jeden einzelnen Messwert dessen Abweichung vom jeweiligen Gruppenmittelwert seiner Faktorstufe. Daraus berechnet man erneut die gesamte Varianz. Diese kennzeichnet dann die Fehlervarianz.
:In Tabellen der F-Verteilung kann man dann den entsprechenden F-Wert mit entsprechenden Freiheitsgraden nachschlagen und liest ab, wieviel Prozent der F-Verteilungsdichte dieser Wert `abschneidet´. Einigen wir uns beispielsweise vor der Durchführung der Varianzanalyse auf ein Signifikanzniveau von 5&nbsp;%, dann müsste der F-Wert mindestens 95&nbsp;% der F-Verteilung auf der linken Seite abschneiden. Ist dies der Fall, dann haben wir ein signifikantes Ergebnis und können die Nullhypothese auf dem 5&nbsp;%-Niveau verwerfen.

:Eine wichtige Beziehung zwischen den Komponenten ist die Additivität der Quadratsummen. Als [[Summe der Abweichungsquadrate|Quadratsumme]] bezeichnet man den Teil der [[Empirische Varianz|Varianzformel]], der im Zähler steht. Lässt man also bei der Berechnung der Varianz der Behandlung den Nenner (die [[Anzahl der Freiheitsgrade (Statistik)|Anzahl der Freiheitsgrade]]) weg, erhält man die Quadratsumme der Behandlung. Die [[Gesamtquadratsumme]] (also Gesamtvarianz ohne Nenner) ergibt sich aus der Summe von Behandlungs- und Residuenquadratsumme.

* Die letztendliche Signifikanzprüfung erfolgt über einen „gewöhnlichen“ [[F-Test|''F-''Test]]. Man kann mathematisch zeigen, dass bei Gültigkeit der Nullhypothese der Varianzanalyse gleichzeitig gilt, dass Treatment- und Fehlervarianz gleich sein müssen. Mit einem ''F''-Test kann man die Nullhypothese überprüfen, dass zwei Varianzen gleich sind, indem man den Quotienten aus ihnen bildet.

:Im Falle der Varianzanalyse bildet man den Quotienten aus Varianz der Behandlungen geteilt durch die Fehlervarianz. Dieser Quotient ist ''F''-verteilt mit <math>(k-1)</math> Zählerfreiheitsgraden und <math>k(n-1)</math> bzw. <math>(N-k)</math> Nennerfreiheitsgraden (<math>k</math> ist die Anzahl der Gruppen, <math>N</math> ist die Gesamtzahl aller Versuchspersonen, <math>n</math> ist die jeweilige Zahl der Versuchspersonen pro Faktorstufe).

:In Tabellen der ''F''-Verteilung kann man dann den entsprechenden ''F''-Wert mit entsprechenden Freiheitsgraden nachschlagen und liest ab, wie viel Prozent der ''F''-Verteilungsdichte dieser Wert „abschneidet“. Einigen wir uns beispielsweise vor der Durchführung der Varianzanalyse auf ein Signifikanzniveau von 5 %, dann müsste der ''F''-Wert mindestens 95 % der ''F''-Verteilung auf der linken Seite abschneiden. Ist dies der Fall, dann haben wir ein signifikantes Ergebnis und können die Nullhypothese auf dem 5 %-Niveau verwerfen.


=== Mathematisches Modell ===
=== Mathematisches Modell ===
Die einfache Varianzanalyse betrachtet jeden Messwert als Summe einer „von der Faktorwirkung unabhängigen Komponente“ <math>\mu</math>, der „Faktorwirkung“ <math>\tau_{i}</math> und dem Versuchsfehler <math>\varepsilon_{ij}</math>. Jeder Messwert kann somit durch den folgenden ''datengenerierenden Prozess''


:<math>Y_{ij} =\mu_{i} + \varepsilon_{ij} = \mu + \tau_{i} + \varepsilon_{ij},\quad i=1,\dots,k,\ j=1,\dots,n_{i}</math>
Das Modell in Effektdarstellung lautet:
<math>
Y_{ij} = \mu + \alpha_{i} + \epsilon_{ij},\quad i=1,...I,\quad j=1,...n_{i}
</math>
Y<sub>ij</sub>: Zielvariable; annahmegemäß in den Gruppen [[normalverteilt]]
I: Anzahl der Faktorstufen des betrachteten Faktors
n<sub>i</sub>: Stichprobenumfänge für die einzelnen Faktorstufen
μ: Mittelwert der Gesamtstichprobe
α<sub>i</sub>: Effekt der i-ten Faktorstufe
ε<sub>ij</sub>: Störvariablen, unabhängig und normalverteilt mit Erwartungswert 0 und gleicher Varianz.


generiert werden. Die zweite Gleichheit resultiert daraus, dass sich der von der Faktorstufe abhängige feste Mittelwert (Mittelwert von <math>y</math> unter der Versuchsbedingung <math>i</math>) aufspalten lässt in eine Komponente <math>\mu</math>, die unabhängig von der Faktorwirkung ist und in die Faktorwirkung <math>\tau_i</math> selbst. Es gilt also<ref>Werner Timischl: ''Angewandte Statistik. Eine Einführung für Biologen und Mediziner.'' 2013, 3. Auflage, S.&nbsp;360.</ref>
=== Beispielrechnung einer einfachen Varianzanalyse ===


:<math>\mu_{i} = \mu + \tau_{i}</math>.
Bei dem folgenden Beispiel handelt es sich um eine einfache Varianzanalyse mit zwei Gruppen (auch ''Zwei-Stichproben F-Test''). In einem Versuch erhalten zwei Gruppen von Tieren (<math>k=2</math>) unterschiedliche Nahrung. Nach einer gewissen Zeit wird ihr Gewicht mit folgenden Werten gemessen:


Für den Versuchsfehler <math>\varepsilon_{ij}</math> nimmt man an, dass er auf jeder Faktorstufe <math>i</math> und für jede Wiederholung <math>j</math> normalverteilt ist mit einem [[Erwartungswert]] von Null und einer (von der Faktorstufe unabhängigen) [[Homoskedastizität|homoskedastischen]] unbekannten Fehlervarianz <math>\sigma^2</math>. Diese Annahme lässt sich so interpretieren, dass sich die Versuchsfehler im Mittel wieder ausgleichen und dass die Variabilität in allen Gruppen gleich ist.<ref>[[Ludwig Fahrmeir]], Rita Künstler, [[Iris Pigeot]], [[Gerhard Tutz]]: ''Statistik. Der Weg zur Datenanalyse.'' 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S.&nbsp;480.</ref> Des Weiteren nimmt man an, dass die Versuchsfehler zu verschiedenen Wiederholungen unabhängig sind. Zusammenfassend lässt sich für die Versuchsfehler schreiben: <math>\varepsilon_{ij}\; \stackrel{\mathrm{i.i.d}}{\sim} \;\mathcal{N}(0,\sigma^2)</math>. Ziel ist es, die Modellparameter <math>\mu</math>, <math>\mu_{i}</math> und <math>\tau_{i}</math> statistisch zu schätzen, also [[Punktschätzer]] <math>\hat \mu</math>, <math>\hat \mu_{i}</math> und <math>\hat \tau_{i}</math> zu finden. Mithilfe einer sogenannten ''Tafel der Varianzanalyse'' oder auch ''Tabelle der Varianzanalyse'' genannt, lässt sich das <math>i</math>-te Faktorstufenmittel
:'''Gruppe 1:''' 45, 23, 55, 32, 51, 91, 74, 53, 70, 84 (Anzahl der Tiere <math>n_1=10</math>)
:'''Gruppe 2:''' 64, 75, 95, 56, 44, 130, 106, 80, 87, 115 (Anzahl der Tiere <math>n_2=10</math>)


:<math>\overline{y}_{i\mathbf{.}} = \frac{1}{n_i}\sum_{j=1}^{n_i} y_{ij}</math>
Es soll untersucht werden, ob die unterschiedliche Nahrung einen signifikanten Einfluss auf das Gewicht hat. Der [[Mittelwert]] und die [[Varianz]] (hier "Schätzwert") der beiden Gruppen betragen


und die <math>i</math>-te Faktorstufenvarianz<ref>Werner Timischl: ''Angewandte Statistik. Eine Einführung für Biologen und Mediziner.'' 2013, 3. Auflage, S.&nbsp;361.</ref>
:<math>\bar{x}_1=57,8 \mbox{ und } var_1=479,7</math>
:<math>\bar{x}_2=85,2 \mbox{ und } var_2=728,6</math>


:<math>s^2_{i\mathbf{.}} = \frac{1}{n_{i}-1} \sum_{j=1}^{n_i} (y_{ij} - \overline{y}_{i\mathbf{.}})^2</math>
Das zugrunde liegende Wahrscheinlichkeitsmodell setzt voraus, dass die Gewichte der Tiere [[Normalverteilung|normalverteilt]] sind und pro Gruppe dieselbe Varianz aufweisen. Die zu testende [[Nullhypothese]] ist


berechnen. Das Gesamtmittel stellt das mit den Fallzahlen <math>n_i</math> gewichtete Mittel der Faktorstufenmittelwerte <math>\overline{y}_{i\mathbf{.}}</math> dar:
:<math>H_0</math>: "Die Mittelwerte der beiden Gruppen sind gleich"


:<math>\overline{y}_{\mathbf{..}} = \frac{1}{N}\sum_{i=1}^{k} \sum_{j=1}^{n_i} y_{ij} = \frac{1}{N}\sum_{i=1}^{k} n_{i} \overline{y}_{i\mathbf{.}}</math>,
Offensichtlich unterscheiden sich die Mittelwerte <math>\bar{x}_1</math> und <math>\bar{x}_2</math>. Diese Abweichung könnte jedoch auch im Bereich der natürlichen Schwankungen liegen. Um zu prüfen, ob die Unterscheidung signifikant ist, wird eine Testgröße <math>F</math> mit bekannter [[Wahrscheinlichkeitsverteilung]] berechnet. Dazu wird zunächst die gemeinsame Varianz <math>var_g</math> bestimmt:


wobei <math>N = \sum_{i=1}^{k} n_{i}</math> den gesamten Umfang der Stichproben auf allen Faktorstufen darstellt. Der ''globale Erwartungswert'' bzw. das ''globale Mittel'' ({{enS}} ''grand mean'') <math>\mu</math> wird gleich dem Mittel der Stufenmittelwerte <math>\mu_{i}</math> gesetzt:
:<math>var_g=\frac{n_1 var_1 + n_2 var_2}{n_1+n_2}=604,18</math>


:<math>\mu = \frac{1}{N}\sum_{i=1}^{k} n_i \mu_{i}</math>.
Anmerkung: Manchmal wird bei dieser Berechnung auch die um eins verringerte Größe der Stichproben verwendet, also <math>n_i-1</math> statt <math>n_i</math> ("Schätzwert"). Mit Hilfe der gemeinsamen Varianz berechnet sich die Testgröße <math>F</math> als:


Eine Zusatzbedingung an die Modellparameter, um die [[Identifizierbarkeit]] des Regressionsmodells sicherzustellen, ist die sogenannte ''Reparametrisierungsbedingung'', bei der eine neue Parametrisierung vorgenommen wird. In der einfachen Varianzanalyse lautet sie
:<math>F = \frac{n_1 n_2 (\bar{x}_1-\bar{x}_2)^2}{(n_1+n_2) var_g} = \frac{n_1 n_2 (\bar{x}_1-\bar{x}_2)^2}{n_1 var_1 + n_2 var_2} \approx 6,21</math>


:<math>\sum_{i=1}^k n_i\tau_i =\sum_{i=1}^k n_i (\mu_{i}-\mu) = 0</math>.
Die Größe <math>F</math> ist nach dem zugrunde liegenden Modell eine [[Zufallsvariable]] mit einer <math>F_{k-1,n-k}</math>-Verteilung, wobei <math>k</math> die Anzahl der Gruppen und <math>n</math> die Anzahl der Messwerte sind. Die Indizes werden als ''Freiheitsgrade'' bezeichnet. Der Wert der [[F-Verteilung]] für gegebene Freiheitsgrade (F-[[Quantil]]) kann in einer Fisher-Tafel nachgeschlagen werden. Dabei muss noch ein gewünschtes Signifikanzniveau (die Irrtumswahrscheinlichkeit) angegeben werden. Im vorliegenden Fall ist <math>F_{1,18} \approx 4,41 </math> das F-Quantil zur Irrtumswahrscheinlichkeit 5&nbsp;%. Das heißt, dass bei allen Werten der Testgröße <math>F</math> bis 4,41 die Nullhypothese angenommen werden kann. Da <math>6,21 > 4,41</math>, muss die Nullhypothese bei den vorliegenden Werten jedoch verworfen werden.


D.&nbsp;h. die mit den Fallzahlen <math>n_i</math> [[gewichtete Summe]] der Faktorwirkung ergibt Null. In diesem Fall spricht man von einer Effektkodierung. Durch die Reparametrisierungsbedingung können die Effekte <math>\tau_i</math> ''eindeutig'' geschätzt werden. Der globale Mittelwert <math>\mu</math> wird durch das Gesamtmittel <math>\overline{y}_{\mathbf{..}}</math> geschätzt, der Parameter <math>\mu_{i\mathbf{.}}</math> wird durch das Faktorstufenmittel <math>\overline{y}_{i\mathbf{.}}</math> geschätzt und die Faktorwirkung <math>\tau</math> wird durch die Abweichung <math>(\overline{y}_{i\mathbf{.}} - \overline{y}_{\mathbf{..}})</math> geschätzt. Die jeweilige Abweichung zwischen Messwert und Schätzwert ([[Störgröße und Residuum|Residuum]]) ist durch
Es kann also mit einer Wahrscheinlichkeit von 95&nbsp;% davon ausgegangen werden, dass die Tiere in den beiden Gruppen im Mittel wirklich ein unterschiedliches Gewicht aufweisen.


:<math>\hat{\varepsilon}_{ij} = y_{ij}-(\hat{\mu} +\hat{\tau}_{i}) = y_{ij} - (\overline{y}_{\mathbf{..}} + \overline{y}_{i\mathbf{.}} - \overline{y}_{\mathbf{..}}) = y_{ij} - \overline{y}_{i\mathbf{.}}</math>
''Siehe auch:'' [[Chi-Quadrat-Test]], [[t-Verteilung]]


gegeben. Das Residuum <math>\hat{\varepsilon}_{ij}</math> ist gegeben durch die Abweichung des Messwertes <math>y_{ij}</math> vom <math>i</math>-Stufenmittel und ist Ausdruck der zufälligen Variation der Variablen <math>Y</math> auf der <math>i</math>-ten Faktorstufe. Sie kann als eine Realisierung des Versuchsfehlers bei der <math>j</math>-ten Wiederholung auf der <math>i</math>-ten Faktorstufe betrachtet werden.<ref>Werner Timischl: ''Angewandte Statistik. Eine Einführung für Biologen und Mediziner.'' 2013, 3. Auflage, S.&nbsp;362.</ref> Jede [[Realisierung (Stochastik)|Realisierung]] der Zielgröße setzt sich additiv zusammen aus dem Gesamtmittel <math>\overline{y}_{\mathbf{..}} = \hat{\mu}</math>, der Faktorwirkung <math>\overline{y}_{i\mathbf{.}} - \overline{y}_{\mathbf{..}} = \hat{\tau}_{i}</math> und Residuum <math>\hat{\varepsilon}_{ij} = (y_{ij}-\overline{y}_{i\mathbf{.}})</math>:
== Zweifaktorielle Varianzanalyse ==


:<math>y_{ij} = \overline{y}_{\mathbf{..}} + (\overline{y}_{i\mathbf{.}}-\overline{y}_{\mathbf{..}}) + \underbrace{(y_{ij}-\overline{y}_{i\mathbf{.}})}_{\hat{\varepsilon}_{ij}} = \hat \mu + \hat \tau_{i} + \hat{\varepsilon}_{ij}</math>.
Die zweifaktorielle Varianzanalyse berücksichtigt zur Erklärung der Zielvariablen zwei Faktoren (Faktor A und Faktor B).


=== Beispiel ===
=== Quadratsummen ===
{{Hauptartikel|Totale Quadratsumme#Zerlegung der totalen Quadratsumme}}
Die „gesamte Quadratsumme“ bzw. „[[totale Quadratsumme]]“, kurz '''''SQT''''' ('''''S'''umme der '''Q'''uadrate der '''T'''otalen Abweichungen''), lässt sich in zwei Teile zerlegen. Ein Teil bezieht sich auf die Gruppenzugehörigkeit, und der andere Teil, der Rest, wird dem Zufall zugeschrieben. Der erste Teil, d.&nbsp;h. die „Quadratsumme bedingt durch Faktor A“, kurz '''''SQA''''', lässt sich ausdrücken als die Summe der Abweichungsquadrate der Mittelwerte vom Gesamtmittelwert der Gruppen. Die durch die Regression „nicht erklärte Quadratsumme“ bzw. die [[Residuenquadratsumme]], kurz '''''SQR''''' ('''''S'''umme der '''Q'''uadrate der '''R'''estabweichungen (oder: „Residuen“))'', die die Unterschiede innerhalb der Gruppen betrifft, wird ausgedrückt als die gesamte Abweichung von den Mittelwerten in den Gruppen. Es gilt also:


:<math>SQT = SQA + SQR</math>.
Diese Form der Varianzanalyse ist angezeigt, wenn untersucht werden soll, ob Rauchen und Kaffetrinken bei Rauchern einen Einfluss auf die Nervosität hat. Rauchen ist hier der Faktor A, welcher in zwei Ausprägungen (Faktorstufen) unterteilt werden kann: ''raucht gerade'' und ''raucht gerade nicht''. Der Faktor B kann der Kaffegenuss in einer bestimmten Situation sein. Die durch eine peripherphysiologische Messung erfasste Nervosität ist die abhängige Variable. Zur Durchführung der Untersuchung werden die Raucher in zwei Gruppen geordnet, wobei eine der Gruppen Kaffe getrunken hat. Jede dieser beiden Gruppen wird ihrerseits in zwei Hälften geteilt, von denen eine zu rauchen bekommt. Dabei wird die Messung der Nervosität durchgeführt, die metrische Daten liefert.


Hierbei ist:
=== Grundgedanken der Rechnung ===


:<math>SQT = \sum_{i=1}^k \sum_{j=1}^{n_i} (y_{ij}-\overline{y}_{\mathbf{..}})^2</math>,

:<math>SQA = \sum_{i=1}^k n_i(\overline{y}_{i\mathbf{.}} - \overline{y}_{\mathbf{..}})^2 = \sum_{i=1}^k n_i \hat \tau^2_{i}</math>,

und<ref>[[Werner Timischl]]: ''Angewandte Statistik. Eine Einführung für Biologen und Mediziner.'' 2013, 3. Auflage, S.&nbsp;362.</ref>

:<math>SQR = \sum_{i=1}^k \sum_{j=1}^{n_i} \hat{\varepsilon}_{ij}^2 = \sum_{i=1}^k \left(\sum_{j=1}^{n_i}(y_{ij}-\overline{y}_{i\mathbf{.}})^2 \right) = \sum_{i=1}^k (n_{i}-1) \frac{1}{n_{i}-1} \sum_{j=1}^{n_i}(y_{ij}-\overline{y}_{i\mathbf{.}})^2 = \sum_{i=1}^k (n_i -1) s^2_{i\mathbf{.}}</math>.

Die zwei Quadratsummen <math>SQA</math> und <math>SQR</math> sind stochastisch unabhängig. Im Fall von <math>k</math> Gruppen mit gleichem Umfang <math>N/k</math> kann man zeigen, dass unter der [[Nullhypothese]] folgendes gilt:

:<math>SQA/\sigma^2\; \sim\; \chi^2_{(k-1)}</math>, d.&nbsp;h. die Quadratsumme <math>SQA</math> folgt einer [[Chi-Quadrat-Verteilung]] mit <math>(k-1)</math> Freiheitsgraden,

und

:<math>SQR/\sigma^2\; \sim \;\chi^2_{(N - k)}</math>, d.&nbsp;h. die Quadratsumme <math>SQR</math> folgt einer Chi-Quadrat-Verteilung mit <math>(N - k)</math> Freiheitsgraden.

=== Prüfgröße ===
Man definiert meistens auch noch die [[Summe der Abweichungsquadrate#Mittleres Abweichungsquadrat|„mittleren Abweichungsquadrate“]] (oft fälschlicherweise ''mittlere Quadratsummen'' genannt):
:<math>MQA = \frac 1{k-1}SQA</math>,

und
:<math>MQR = \frac 1{N-k}SQR</math>.

Damit lässt sich die Prüfgröße bzw. die [[F-Statistik|''F''-Statistik]] wie folgt definieren:
:<math>F \equiv \frac{MQA}{MQR} =\frac{\sum_{i=1}^k n_i(\overline{y}_{i\mathbf{.}} - \overline{y}_{\mathbf{..}})^2/(k-1)}{\sum_{i=1}^k (n_i -1) s^2_{i}/(N-k)}</math>.

Im Falle von Gruppen gleicher Größe ist <math>F</math> unter der Nullhypothese also [[F-Verteilung|''F''-verteilt]] mit <math>(k-1)</math> Freiheitsgraden im Zähler und <math>(N-k)</math> Freiheitsgraden im Nenner.

Wenn die Prüfgröße signifikant wird, unterscheiden sich mindestens zwei Gruppen voneinander. In [[Post-hoc-Test]]s kann dann berechnet werden, zwischen welchen einzelnen Gruppen der Unterschied liegt.

=== Beispielrechnung ===
Bei dem folgenden Beispiel handelt es sich um eine einfache Varianzanalyse mit zwei Gruppen (auch ''Zwei-Stichproben-[[F-Test]]''). In einem Versuch erhalten zwei Gruppen (<math>k=2</math>) von jeweils <math>10</math> (<math>n_1=n_2=10</math>) Tieren unterschiedliche Nahrung. Nach einer gewissen Zeit wird ihre Gewichtszunahme mit folgenden Werten gemessen:

{| class="wikitable zebra left" style="text-align:center"
|-
| align="right" |Gruppe 1
| align="right" |<math>45</math>
| align="right" |<math>23</math>
| align="right" |<math>55</math>
| align="right" |<math>32</math>
| align="right" |<math>51</math>
| align="right" |<math>91</math>
| align="right" |<math>74</math>
| align="right" |<math>53</math>
| align="right" |<math>70</math>
| align="right" |<math>84</math>
|----
| align="right" |Gruppe 2
| align="right" |<math>64</math>
| align="right" |<math>75</math>
| align="right" |<math>95</math>
| align="right" |<math>56</math>
| align="right" |<math>44</math>
| align="right" |<math>130</math>
| align="right" |<math>106</math>
| align="right" |<math>80</math>
| align="right" |<math>87</math>
| align="right" |<math>115</math>
|----
|}

[[Datei:Histogramm der Beispieldaten.png|mini]]

Es soll untersucht werden, ob die unterschiedliche Nahrung einen signifikanten Einfluss auf das Gewicht hat. Der [[Mittelwert]] und die [[Varianz (Stochastik)|Varianz]] (hier „Schätzwert“, [[empirische Varianz]]) der beiden Gruppen betragen

:<math>\overline{y}_{1\mathbf{.}} = \frac{1}{n_1}\sum_{j=1}^{n_1} y_{1j} = 57{,}8\quad</math> und <math>s^2_{1\mathbf{.}} = \frac{1}{n_{1}-1} \sum_{j=1}^{n_1} (y_{1j} - \overline{y}_{1\mathbf{.}})^2 = 479{,}7</math>
:<math>\overline{y}_{2\mathbf{.}} = \frac{1}{n_2}\sum_{j=1}^{n_2} y_{2j} = 85{,}2 \quad</math> und <math>s^2_{2\mathbf{.}} = \frac{1}{n_{2}-1} \sum_{j=1}^{n_2} (y_{2j} - \overline{y}_{2\mathbf{.}})^2 = 728{,}6</math>

Weil <math>n_1=n_2=10</math>, lässt sich daraus berechnen:

:<math>MQA=n_1(\overline{y}_{1\mathbf{.}}-\overline{y}_{\mathbf{..}})^2 + n_2(\overline{y}_{2\mathbf{.}}-\overline{y}_{\mathbf{..}})^2=10\frac{(\overline{y}_{1\mathbf{.}}-\overline{y}_{2\mathbf{.}})^2}2=5(\overline{y}_{1\mathbf{.}}-\overline{y}_{2\mathbf{.}})^2 = 3753{,}8</math>

und

:<math>MQR = \frac{(n_1-1) s^2_{1\mathbf{.}} + (n_2-1) s^2_{2\mathbf{.}}}{n_1 + n_2 - 2} = 604{,}18</math>

Das zugrunde liegende Wahrscheinlichkeitsmodell setzt voraus, dass die Gewichte der Tiere [[Normalverteilung|normalverteilt]] sind und pro Gruppe dieselbe Varianz aufweisen. Die zu testende [[Nullhypothese]] ist

:<math>H_0</math>: „Die Mittelwerte der beiden Gruppen sind gleich“

Offensichtlich unterscheiden sich die Mittelwerte <math>\overline{y}_{1\mathbf{.}}</math> und <math>\overline{y}_2</math>. Diese Abweichung könnte jedoch auch im Bereich der natürlichen Schwankungen liegen. Um zu prüfen, ob die Unterscheidung signifikant ist, wird die Testgröße <math>F</math> berechnet.

:<math>F \equiv \frac{MQA}{MQR}=\frac{3753{,}8}{604{,}15} \approx 6{,}21</math>

Die Größe <math>F</math> ist nach dem zugrunde liegenden Modell eine [[Zufallsvariable]] mit einer <math>F_{k-1,n-k}</math>-Verteilung, wobei <math>k</math> die Anzahl der Gruppen (Faktorstufen) und <math>n</math> die Anzahl der Messwerte sind. Die Indizes werden als ''Freiheitsgrade'' bezeichnet. Der Wert der [[F-Verteilung|''F''-Verteilung]] für gegebene Freiheitsgrade (''F''-[[Quantil (Wahrscheinlichkeitstheorie)|Quantil]]) kann in einer Fisher-Tafel nachgeschlagen werden. Dabei muss noch ein gewünschtes [[Signifikanzniveau]] (die Irrtumswahrscheinlichkeit) angegeben werden. Im vorliegenden Fall ist <math>F_{1,18} \approx 4{,}41 </math> das ''F''-Quantil zum [[Fehler 1. und 2. Art#Fehler 1. Art|Fehler 1. Art]] von 5 %. Das heißt, dass bei allen Werten der Testgröße <math>F</math> bis 4,41 die Nullhypothese nicht abgelehnt werden kann. Da <math>6{,}21 > 4{,}41</math>, wird die Nullhypothese bei den vorliegenden Werten abgelehnt.

Es kann also davon ausgegangen werden, dass die Tiere in den beiden Gruppen im Mittel wirklich ein unterschiedliches Gewicht aufweisen. Die Wahrscheinlichkeit, einen Unterschied anzunehmen, obwohl dieser nicht vorliegt, liegt bei unter 5 %.

== Zweifache Varianzanalyse ==
Die zweifache Varianzanalyse, auch ''Zweiweg-Varianzanalyse'' ({{enS}} ''two-way analysis of variance'', kurz: ''two-way ANOVA''), oder ''zweifaktorielle Varianzanalyse'' genannt, berücksichtigt zur Erklärung der Zielvariablen zwei Faktoren (Faktor A und Faktor B).

=== Beispiel ===
Diese Form der Varianzanalyse ist z. B. bei Untersuchungen angezeigt, welche den Einfluss von Rauchen und Kaffeetrinken auf die Nervosität darstellen wollen. Rauchen ist hier der Faktor A, welcher in z.&nbsp;B. drei Ausprägungen (Faktorstufen) unterteilt werden kann: ''Nicht-Raucher'', ''leichter Raucher'' und ''Kettenraucher''. Der Faktor B kann die täglich genutzte Menge Kaffee sein mit den Stufen: 0 Tassen, 1–3 Tassen, 4–8 Tassen, mehr als 8 Tassen. Die Nervosität ist die abhängige Variable. Zur Durchführung der Untersuchung werden Versuchspersonen über 12 Gruppen verteilt entsprechend der Kombinationen der Faktorstufen. Dabei wird die Messung der Nervosität durchgeführt, die metrische Daten liefert.

=== Grundgedanken der Rechnung ===
Das Modell (für den Fall mit festen Effekten) in Effektdarstellung lautet:
Das Modell (für den Fall mit festen Effekten) in Effektdarstellung lautet:
:<math>Y_{ijk} = \mu + \alpha_{i} + \beta_{j}+ (\alpha\beta)_{ij} + \varepsilon_{ijk}, \quad \varepsilon_{ijk} \sim \mathcal{N}(0,\sigma^2), \quad i = 1, \dots, I, \quad j = 1, \dots, J, \quad k = 1, \dots, K</math>
<math>
Y_{ijk} = \mu + \alpha_{i} + \beta_{j}+ (\alpha\beta)_{ij} + \epsilon_{ijk}, \quad \epsilon_{ijk}~N(0,\sigma^2), \quad i=1,...,I, \quad j=1,...,J, \quad k=1,...,K
</math>
Y<sub>ijk</sub>: Zielvariable; annahmegemäß in den Gruppen normalverteilt
I: Anzahl der Faktorstufen des ersten Faktors (A)
J: Anzahl der Faktorstufen des zweiten Faktors (B)
K: Anzahl der Beobachtungen pro Faktorstufe (hier für alle Kombinationen von Faktorstufen gleich)
α<sub>i</sub>: Effekt der i-ten Faktorstufe des Faktors A
β<sub>j</sub>: Effekt der j-ten Faktorstufe des Faktors B
(αβ)<sub>ij</sub>: Interaktion (Wechselwirkung) der Faktoren auf der Faktorstufenkombination (i,j).
Die Interaktion beschreibt einen besonderen Effekt, der nur auftritt, wenn die Faktorstufenkombination (i,j)
vorliegt.
ε<sub>ijk</sub>: Störvariablen, unabhängig und normalverteilt mit Erwartungswert 0 und gleichen Varianzen.


Darin sind:
== ...mehr als zwei Faktoren==
:<math>Y_{ijk}</math>: Zielvariable; annahmegemäß in den Gruppen normalverteilt
:<math>I</math>: Anzahl der Faktorstufen des ersten Faktors (A)
:<math>J</math>: Anzahl der Faktorstufen des zweiten Faktors (B)
:<math>K</math>: Anzahl der Beobachtungen pro Faktorstufe (hier für alle Kombinationen von Faktorstufen gleich)
:<math>\alpha_i</math>: Effekt der <math>i</math>-ten Faktorstufe des Faktors A
:<math>\beta_j</math>: Effekt der <math>j</math>-ten Faktorstufe des Faktors B
:<math>(\alpha\beta)_{ij}</math>: Interaktion (Wechselwirkung) der Faktoren auf der Faktorstufenkombination <math>(i,j)</math>.
Die Interaktion beschreibt einen besonderen Effekt, der nur auftritt, wenn die Faktorstufenkombination <math>(i,j)</math> vorliegt.
:<math>\varepsilon_{ijk}</math>: Störvariablen, unabhängig und normalverteilt mit Erwartungswert <math>0</math> und gleichen Varianzen.


Die Gesamtquadratsumme <math>SQT</math> wird hier zerlegt in vier unabhängige Quadratsummen (Quadratsummenzerlegung):
Auch mehrere Faktoren sind möglich. Allerdings steigt der Datenbedarf für eine Schätzung der Modellparameter mit der Anzahl der Faktoren stark an. Auch die Darstellungen des Modells (z.B. in Tabellen) werden mit zunehmender Anzahl der Faktoren unübersichtlicher. Mehr als drei Faktoren können nur noch schwer dargestellt werden.
:<math>SQT = SQA + SQB + SQAB + SQR</math>

Darin sind:

:<math>SQT = \sum(y_{ijk} - \overline{y}_{\mathbf{...}})^2</math> die Gesamtquadratsumme,
:<math>SQR = \sum({y}_{ijk} - \overline{y}_{ij\mathbf{.}})^2</math> die Residuenquadratsumme,
:<math>SQAB = \sum(\overline{y}_{ij}. - \overline{y}_{i\mathbf{..}}-\overline{y}_{\mathbf{.}j\mathbf{.}}+ \overline{y}_\mathbf{...})^2</math> die Quadratsumme bedingt durch die Interaktion von A und B,
:<math>SQA = \sum(\overline{y}_{i\mathbf{..}} - \overline{y}_{\mathbf{...}})^2</math> die durch Faktor A bedingte Quadratsumme
:<math>SQB = \sum(\overline{y}_{\mathbf{.}j\mathbf{.}} - \overline{y}_{\mathbf{...}})^2</math> die durch Faktor B bedingte Quadratsumme.

Die Erwartungswerte der Quadratsummen sind:

:<math>\operatorname{E}(SQR) = IJ(K-1)\sigma^2</math>
:<math>\operatorname{E}(SQAB) = K\sum\limits_{i,j}((\alpha\beta)_{i,j})^2+(I-1)(J-1)\sigma^2</math>
:<math>\operatorname{E}(SQA) = JK\sum_i \alpha_i^2+(I-1)\sigma^2</math>
:<math>\operatorname{E}(SQB) = IK\sum_j \beta_j^2+(J-1)\sigma^2.</math>

Die Quadratsummen dividiert durch <math>\sigma^2</math> sind unter geeigneten Annahmen Chi-Quadrat-verteilt, und zwar:
:<math>SQR/\sigma^2</math> mit <math>IJ(K-1)</math> Freiheitsgraden
:<math>SQAB/\sigma^2</math> mit <math>(I-1)(J-1)</math> Freiheitsgraden, wenn <math>(\alpha\beta)_{i,j} \equiv 0</math>
:<math>SQA/\sigma^2</math> mit <math>I-1</math> Freiheitsgraden, wenn <math>\alpha_{i}\equiv 0</math>
:<math>SQB/\sigma^2</math> mit <math>J-1</math> Freiheitsgraden, wenn <math>\beta_{j}\equiv 0</math>

Die mittleren Abweichungsquadrate ergeben sich bei Division der Quadratsummen durch ihre Freiheitsgrade:
:<math>MQR = \frac{SQR}{IJ(K-1)}</math>

:<math>MQAB = \frac{SQAB}{(I-1)(J-1)}</math>

:<math>MQA = \frac{SQA}{I-1}</math>

:<math>MQB = \frac{SQB}{J-1}</math>

Die zutreffende Prüfgrößen berechnen sich wie die Quotienten der mittleren Abweichungsquadrate, mit <math>MQR</math> als Nenner.

Man berechnet nun die Varianzen für die einzelnen Faktoren und die Varianz für die Wechselwirkung von <math>A</math> und <math>B</math>. Die Hypothese <math>H_0</math> lautet: Es gibt keine Wechselwirkung. Wieder wird die Hypothese mit der Prüfstatistik <math>F</math> berechnet. Diese setzt sich nun zusammen als der Quotient der durch die Wechselwirkung von <math>A</math> und <math>B</math> entstand und die Fehlervarianz. Man vergleicht nun mit den ''F''-Quantilen nach Angabe eines gewünschten Signifikanzniveaus. Ist die Prüfgröße <math>F</math> größer als das Quantil (letzteres ist in einschlägigen Tabellen ablesbar), dann wird <math>H_0</math> verworfen, es gibt also eine Wechselwirkung zwischen den Faktoren <math>A</math> und <math>B</math>.

=== Tafel der Varianzanalyse ===
In einer praktischen Analyse werden die Ergebnisse in der Tafel der Varianzanalyse zusammengefasst:

:{| class="wikitable" style="text-align: center;"
|-
! Variationsquelle !! Abweichungsquadratsumme (''SQ'') !! Anzahl der Freiheitsgrade (''FG'')!! [[Mittleres Abweichungsquadrat]] (''MQ'')!! ''F''-Statistik (''F'')
|- h_align="centre"
| Faktor A || <math>SQA</math> || <math>I - 1</math> || <math>MQA=SQA/(I-1)</math> || <math>MQA/MQR</math>
|-
| align="centre"| Faktor B || <math>SQB</math> || <math>J-1</math> || <math>MQB=SQB/(J-1)</math> || <math>MQB/MQR</math>
|-
| Interaktion || <math>SQAB</math> || <math>(I-1)(J-1)</math>|| <math>MQAB=SQAB/((I-1)(J-1))</math>|| <math>MQAB/MQR</math>
|-
| Residual || <math>SQR</math> || <math>IJ(K-1)</math> || <math>MQR=SQR/(IJ(K-1))</math> ||
|-
| Total || <math>SQT</math> || <math>IJK-1</math>|| ||
|}

== Mehrfache Varianzanalyse (mehr als zwei Faktoren) ==
Auch mehrere Faktoren sind möglich. Diese Art der Varianzanalyse wird als ''mehrfache Varianzanalyse'' oder als ''mehrfaktorielle Varianzanalyse'' bezeichnet. Allerdings steigt der Datenbedarf für eine Schätzung der Modellparameter mit der Anzahl der Faktoren stark an. Auch die Darstellungen des Modells (z.&nbsp;B. in Tabellen) werden mit zunehmender Anzahl der Faktoren unübersichtlicher. Mehr als drei Faktoren können nur noch schwer dargestellt werden.

== Siehe auch ==
* [[Kovarianzanalyse (Statistik)|Kovarianzanalyse]]


== Literatur ==
== Literatur ==
* Fahrmeir u.A. (Hrsg): ''Multivariate statistische Verfahren''. Walter de Gruyter, 1996. ISBN 3110138069
* [[Ludwig Fahrmeir]] u. a. (Hrsg.): ''Multivariate statistische Verfahren.'' 2. überarbeitete Auflage. Walter de Gruyter, Berlin u. a. 1996, ISBN 3-11-013806-9.
* Fahrmeir u.A.: ''Statistik - Der Weg zur Datenanalyse''. Springer, 1999
* [[Ludwig Fahrmeir]], Rita Künstler, [[Iris Pigeot]], [[Gerhard Tutz]]: ''Statistik. Der Weg zur Datenanalyse.'' 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3 (''Springer-Lehrbuch'').
* [[Joachim Hartung]], Bärbel Elpelt: ''Multivariate Statistik. Lehr- und Handbuch der angewandten Statistik.'' 6. unwesentlich veränderte Auflage. Oldenbourg, München u. a. 1999, ISBN 3-486-25287-9.
* [[Klaus Backhaus]] u. a.: ''Multivariate Analysemethoden. Eine anwendungsorientierte Einführung.'' 11. überarbeitete Auflage. Springer, Berlin u. a. 2006, ISBN 3-540-27870-2 (''Springer-Lehrbuch'').

== Einzelnachweise ==
<references/>



[[Kategorie:Statistik]]
[[Kategorie:Multivariates Verfahren]]


[[Kategorie:Parametrischer Test]]
[[en:Analysis of variance]]
[[Kategorie:Multivariate Statistik]]
[[es:Análisis de varianza]]
[[Kategorie:Regressionsanalyse]]
[[fr:Analyse de la variance]]
[[Kategorie:Statistischer Grundbegriff]]
[[gl:Análise da varianza]]
[[it:Analisi della varianza]]
[[ja:分散分析]]
[[nl:Variantie-analyse]]
[[pl:Analiza wariancji]]
[[sl:Analiza variance]]
[[su:Analisis varian]]

Aktuelle Version vom 22. Mai 2025, 15:52 Uhr

Als Varianzanalyse, kurz VA (englisch analysis of variance, kurz ANOVA), auch Streuungsanalyse oder Streuungszerlegung genannt, bezeichnet man eine große Gruppe datenanalytischer und strukturprüfender statistischer Verfahren, die zahlreiche unterschiedliche Anwendungen zulassen.

Ihnen gemeinsam ist, dass sie Varianzen und Prüfgrößen berechnen, um Aufschlüsse über die hinter den Daten steckenden Gesetzmäßigkeiten zu erlangen. Die Varianz einer oder mehrerer Zielvariablen wird dabei durch den Einfluss einer oder mehrerer Einflussvariablen (Faktoren) erklärt. Die einfachste Form der Varianzanalyse testet den Einfluss einer einzelnen nominalskalierten auf eine intervallskalierte Variable, indem sie die Mittelwerte der abhängigen Variable innerhalb der durch die Kategorien der unabhängigen Variable definierten Gruppen vergleicht. Somit stellt die Varianzanalyse in ihrer einfachsten Form eine Alternative zum t-Test dar, die für Vergleiche zwischen mehr als zwei Gruppen geeignet ist. Varianzanalytische Modelle sind in der Regel spezielle lineare Regressionsmodelle. Das Verfahren der Varianzanalyse geht im Wesentlichen auf Ronald Aylmer Fisher zurück.

Die abhängige Variable heißt Zielvariable:

Die unabhängige Variable nennt man Einflussvariable oder Faktor:

  • Die kategoriale Variable (= Faktor), die die Gruppen vorgibt. Ihr Einfluss soll überprüft werden, sie ist nominalskaliert.
  • Die Kategorien eines Faktors heißen dann Faktorstufen. Diese Bezeichnung ist nicht identisch mit jener bei der Faktorenanalyse.

Anzahl der Zielvariablen

[Bearbeiten | Quelltext bearbeiten]

Je nachdem, ob eine oder mehrere Zielvariablen vorliegen, unterscheidet man zwei Formen der Varianzanalyse:

  • die univariate Varianzanalyse, nach der englischen Bezeichnung analysis of variance auch als ANOVA abgekürzt
  • die multivariate Varianzanalyse, nach der englischen Bezeichnung multivariate analysis of variance auch als MANOVA abgekürzt

Je nachdem, ob ein oder mehrere Faktoren vorliegen, unterscheidet man zwischen einfacher (einfaktorieller) und mehrfacher bzw. multipler (mehrfaktorieller) Varianzanalyse.

Anzahl der Untersuchungseinheiten

[Bearbeiten | Quelltext bearbeiten]

Im einfachsten Fall werden aus jeder Faktorstufe gleich viele Beobachtungen betrachtet. Man spricht in diesem Fall auch von einer orthogonalen Varianzanalyse oder von einem balancierten Modell. Die Arbeit mit und Interpretation von Daten, deren Faktorstufen unterschiedlich viele Elemente enthalten (z. B. auch fehlende Werte), ist schwieriger (vgl. unbalanciertes Modell).

Feste und zufällige Effekte

[Bearbeiten | Quelltext bearbeiten]

Eine gebräuchliche Modellunterscheidung der Varianzanalyse wird danach vorgenommen, ob die Faktoren mit festen Effekten (englisch fixed factors) oder Faktoren mit zufälligen Effekten (englisch random factors) vorliegen.[1] Von festen Effekten spricht man, wenn die Einflussfaktoren in endlich vielen Faktorstufen vorkommen und man diese alle erfasst hat bzw. die in der Untersuchung interessierende Aussage sich nur auf diese Faktorstufen bezieht. Von Modellen mit zufälligen Effekten spricht man, wenn man nur eine Auswahl aller möglichen Faktorstufen erfassen kann (vgl. hierzu auch Lineare Paneldatenmodelle).

Die Gesamtvarianz lässt sich gut in Gruppen zerlegen, wenn die Variabilität zwischen den Faktorstufen groß, die Variabilität innerhalb derselben aber gering ist.

Die Verfahren untersuchen, ob (und gegebenenfalls wie) sich die Erwartungswerte der metrischen Zufallsvariablen in verschiedenen Gruppen (auch Klassen) unterscheiden. Mit den Prüfgrößen des Verfahrens wird getestet, ob die Varianz zwischen den Gruppen größer ist als die Varianz innerhalb der Gruppen. Dadurch kann ermittelt werden, ob die Gruppeneinteilung sinnvoll ist oder nicht bzw. ob sich die Gruppen signifikant unterscheiden oder nicht.

Wenn sie sich signifikant unterscheiden, kann angenommen werden, dass in den Gruppen unterschiedliche Gesetzmäßigkeiten wirken. So lässt sich beispielsweise klären, ob das Verhalten einer Kontrollgruppe mit dem einer Experimentalgruppe identisch ist. Ist beispielsweise die Varianz einer dieser beiden Gruppen bereits auf Ursachen (Varianzquellen) zurückgeführt, kann bei Varianzgleichheit darauf geschlossen werden, dass in der anderen Gruppe keine neue Wirkungsursache (z. B. durch die Experimentalbedingungen) hinzukam.

Siehe auch: Diskriminanzanalyse, Bestimmtheitsmaß

Voraussetzungen und Alternativen

[Bearbeiten | Quelltext bearbeiten]

Die Zuverlässigkeit der Signifikanztests im Rahmen der Varianzanalyse hängt davon ab, inwieweit ihre Voraussetzungen erfüllt sind. Diese Voraussetzungen sind je nach Anwendung etwas unterschiedlich, allgemein gelten folgende:

Die Überprüfung erfolgt mit anderen Tests außerhalb der Varianzanalyse, die allerdings heute standardmäßig in Statistik-Programmen als Option mitgeliefert werden. Die Normalverteilung der Residuen kann unter anderem mit dem Shapiro-Wilk-Test überprüft werden, Varianzhomogenität mit dem Levene-Test.

Gegen Abweichungen von der Normalverteilungsannahme gelten Varianzanalysen als robust, vor allem bei größeren Stichprobenumfängen (siehe Zentraler Grenzwertsatz). Inhomogene Varianzen stellen bei ungleichen Gruppengrößen ein Problem dar. Im Falle einfacher Varianzanalysen kann in solch einem Fall gegebenenfalls der Brown-Forsythe-Test gerechnet werden. Ferner kommt gegebenenfalls eine Transformation der abhängigen Variable in Betracht, um die Varianzen der Gruppen anzugleichen, beispielsweise durch Logarithmierung. Wenn die Voraussetzungen nicht ausreichend erfüllt sind, bieten sich zudem verteilungsfreie, nichtparametrische Verfahren an, die robust sind, aber geringere Teststärke besitzen und andere Parameter testen als die Varianzanalyse, da sie auf Rängen basieren.

Einfache Varianzanalyse

[Bearbeiten | Quelltext bearbeiten]

Bei einer einfachen Varianzanalyse, auch Einweg-Varianzanalyse (englisch one-way analysis of variance, kurz: one-way ANOVA), oder einfaktorielle Varianzanalyse genannt, untersucht man den Einfluss einer unabhängigen Variable (Faktor) mit verschiedenen Stufen (Gruppen) auf die Ausprägungen einer Zufallsvariablen. Dazu werden die Mittelwerte der Ausprägungen für die Gruppen miteinander verglichen, und zwar vergleicht man die Varianz zwischen den Gruppen mit der Varianz innerhalb der Gruppen. Weil sich die totale Varianz aus den zwei genannten Komponenten zusammensetzt, spricht man von Varianzanalyse. Die einfache Varianzanalyse ist die Verallgemeinerung des t-Tests im Falle mehr als zwei Gruppen. Für ist sie äquivalent mit dem t-Test.

Voraussetzungen

[Bearbeiten | Quelltext bearbeiten]
  • Die Fehlerkomponenten müssen normalverteilt sein. Fehlerkomponenten bezeichnen die jeweiligen Varianzen (Gesamt-, Behandlungs- und Fehlervarianz). Die Gültigkeit dieser Voraussetzung setzt gleichzeitig eine Normalverteilung der Messwerte in der jeweiligen Grundgesamtheit voraus.
  • Die Fehlervarianzen müssen zwischen den Gruppen (also den k Faktorstufen) gleich bzw. homogen sein (Homoskedastizität).
  • Die Messwerte bzw. Faktorstufen müssen unabhängig voneinander sein.

Diese Form der Varianzanalyse ist angezeigt, wenn beispielsweise untersucht werden soll, ob Rauchen einen Einfluss auf die Aggressivität hat. Rauchen ist hier eine unabhängige Variable, welche in drei Ausprägungen ( Faktorstufen) unterteilt werden kann: Nichtraucher, schwache Raucher und starke Raucher. Die durch einen Fragebogen erfasste Aggressivität ist die abhängige Variable. Zur Durchführung der Untersuchung werden die Versuchspersonen den drei Gruppen zugeordnet. Danach wird der Fragebogen vorgelegt, mit dem die Aggressivität erfasst wird.

Es sei der Erwartungswert der abhängigen Variable in der . Gruppe. Die Nullhypothese einer einfachen Varianzanalyse lautet:

Die Alternativhypothese lautet:

Die Nullhypothese besagt demnach, dass zwischen den Erwartungswerten der Gruppen (die den Faktorausprägungen bzw. Faktorstufen entsprechen) kein Unterschied besteht. Die Alternativhypothese besagt, dass zwischen mindestens zwei Erwartungswerten ein Unterschied besteht. Wenn wir beispielsweise fünf Faktorstufen haben, dann ist die Alternativhypothese bestätigt, wenn sich mindestens zwei der Gruppenmittelwerte unterscheiden. Es können sich aber auch drei Erwartungswerte oder vier oder alle fünf deutlich voneinander unterscheiden.

Wird die Nullhypothese verworfen, liefert die Varianzanalyse also weder Aufschluss darüber, zwischen wie vielen noch zwischen welchen Faktorstufen ein Unterschied besteht. Wir wissen dann nur mit einer bestimmten Wahrscheinlichkeit (siehe Signifikanzniveau), dass mindestens zwei Ausprägungen einen bedeutsamen Unterschied aufweisen.

Man kann nun fragen, ob es zulässig wäre, mit verschiedenen t-Tests jeweils paarweise Einzelvergleiche zwischen den Mittelwerten durchzuführen. Vergleicht man mit der Varianzanalyse nur zwei Gruppen (also zwei Mittelwerte), dann führen t-Test und Varianzanalyse zum gleichen Ergebnis. Liegen jedoch mehr als zwei Gruppen vor, ist die Überprüfung der globalen Nullhypothese der Varianzanalyse über paarweise t-Tests nicht zulässig – es kommt zur sogenannten Alphafehler-Kumulierung bzw. Alphafehler-Inflation. Mit Hilfe multipler Vergleichstechniken kann nach einem signifikanten Varianzanalyse-Ergebnis überprüft werden, bei welchem Mittelwertspaar der oder die Unterschiede liegen. Beispiele solcher Vergleichstechniken sind der Bonferroni-Test auf kleinsten signifikanten Unterschied und der Scheffé-Test (vgl. auch Post-hoc-Test). Der Vorteil dieser Verfahren liegt darin, dass sie den Aspekt der Alphafehler-Inflation berücksichtigen.

Grundgedanken der Rechnung

[Bearbeiten | Quelltext bearbeiten]
  • Bei der Berechnung der Varianzanalyse berechnet man zunächst die beobachtete Gesamtvarianz in allen Gruppen. Dazu fasst man alle Messwerte aus allen Gruppen zusammen, errechnet den Gesamtmittelwert und die Gesamtvarianz.
  • Dann möchte man den Varianzanteil der Gesamtvarianz, der allein auf den Faktor zurückgeht, ermitteln. Wenn die gesamte beobachtete Varianz auf den Faktor zurückginge, dann müssten alle Messwerte in einer Faktorstufe gleich sein – in diesem Fall dürften nur Unterschiede zwischen den Gruppen bestehen. Da alle Messwerte innerhalb einer Gruppe dieselbe Faktorausprägung aufweisen, müssten sie folglich alle den gleichen Wert haben, da der Faktor die einzige varianzgenerierende Quelle wäre. In der Praxis werden sich aber auch Messwerte innerhalb einer Faktorstufe unterscheiden. Diese Unterschiede innerhalb der Gruppen müssen also von anderen Einflüssen stammen (entweder Zufall oder sogenannten Störvariablen).
Um nun auszurechnen, welche Varianz allein auf die Ausprägungen des Faktors zurückgeht, stellt man seine Daten für einen Moment gewissermaßen „ideal“ um: Man weist allen Messwerten innerhalb einer Faktorstufe den Mittelwert der jeweiligen Faktorstufe zu. Somit macht man alle Werte innerhalb einer Faktorstufe gleich, und der einzige Unterschied besteht nun noch zwischen den Faktorstufen. Nun errechnet man mit diesen „idealisierten“ Daten erneut die Varianz. Diese kennzeichnet die Varianz, die durch den Faktor zustande kommt („Varianz der Behandlungen“, Treatment-Varianz).
Teilt man die Varianz der Behandlungen durch die Gesamtvarianz, erhält man den relativen Anteil der auf den Faktor zurückzuführenden Varianz.
  • Zwischen der Gesamtvarianz und der Varianz der Behandlungen besteht in aller Regel eine Diskrepanz – die Gesamtvarianz ist größer als die Varianz der Behandlungen. Die Varianz, die nicht auf den Faktor (die Behandlung) zurückzuführen ist, bezeichnet man als Fehlervarianz. Diese beruht entweder auf Zufall oder anderen, nicht untersuchten Variablen (Störvariablen).
Die Fehlervarianz lässt sich berechnen, indem man seine Daten erneut umstellt: Man errechnet für jeden einzelnen Messwert dessen Abweichung vom jeweiligen Gruppenmittelwert seiner Faktorstufe. Daraus berechnet man erneut die gesamte Varianz. Diese kennzeichnet dann die Fehlervarianz.
Eine wichtige Beziehung zwischen den Komponenten ist die Additivität der Quadratsummen. Als Quadratsumme bezeichnet man den Teil der Varianzformel, der im Zähler steht. Lässt man also bei der Berechnung der Varianz der Behandlung den Nenner (die Anzahl der Freiheitsgrade) weg, erhält man die Quadratsumme der Behandlung. Die Gesamtquadratsumme (also Gesamtvarianz ohne Nenner) ergibt sich aus der Summe von Behandlungs- und Residuenquadratsumme.
  • Die letztendliche Signifikanzprüfung erfolgt über einen „gewöhnlichen“ F-Test. Man kann mathematisch zeigen, dass bei Gültigkeit der Nullhypothese der Varianzanalyse gleichzeitig gilt, dass Treatment- und Fehlervarianz gleich sein müssen. Mit einem F-Test kann man die Nullhypothese überprüfen, dass zwei Varianzen gleich sind, indem man den Quotienten aus ihnen bildet.
Im Falle der Varianzanalyse bildet man den Quotienten aus Varianz der Behandlungen geteilt durch die Fehlervarianz. Dieser Quotient ist F-verteilt mit Zählerfreiheitsgraden und bzw. Nennerfreiheitsgraden ( ist die Anzahl der Gruppen, ist die Gesamtzahl aller Versuchspersonen, ist die jeweilige Zahl der Versuchspersonen pro Faktorstufe).
In Tabellen der F-Verteilung kann man dann den entsprechenden F-Wert mit entsprechenden Freiheitsgraden nachschlagen und liest ab, wie viel Prozent der F-Verteilungsdichte dieser Wert „abschneidet“. Einigen wir uns beispielsweise vor der Durchführung der Varianzanalyse auf ein Signifikanzniveau von 5 %, dann müsste der F-Wert mindestens 95 % der F-Verteilung auf der linken Seite abschneiden. Ist dies der Fall, dann haben wir ein signifikantes Ergebnis und können die Nullhypothese auf dem 5 %-Niveau verwerfen.

Mathematisches Modell

[Bearbeiten | Quelltext bearbeiten]

Die einfache Varianzanalyse betrachtet jeden Messwert als Summe einer „von der Faktorwirkung unabhängigen Komponente“ , der „Faktorwirkung“ und dem Versuchsfehler . Jeder Messwert kann somit durch den folgenden datengenerierenden Prozess

generiert werden. Die zweite Gleichheit resultiert daraus, dass sich der von der Faktorstufe abhängige feste Mittelwert (Mittelwert von unter der Versuchsbedingung ) aufspalten lässt in eine Komponente , die unabhängig von der Faktorwirkung ist und in die Faktorwirkung selbst. Es gilt also[2]

.

Für den Versuchsfehler nimmt man an, dass er auf jeder Faktorstufe und für jede Wiederholung normalverteilt ist mit einem Erwartungswert von Null und einer (von der Faktorstufe unabhängigen) homoskedastischen unbekannten Fehlervarianz . Diese Annahme lässt sich so interpretieren, dass sich die Versuchsfehler im Mittel wieder ausgleichen und dass die Variabilität in allen Gruppen gleich ist.[3] Des Weiteren nimmt man an, dass die Versuchsfehler zu verschiedenen Wiederholungen unabhängig sind. Zusammenfassend lässt sich für die Versuchsfehler schreiben: . Ziel ist es, die Modellparameter , und statistisch zu schätzen, also Punktschätzer , und zu finden. Mithilfe einer sogenannten Tafel der Varianzanalyse oder auch Tabelle der Varianzanalyse genannt, lässt sich das -te Faktorstufenmittel

und die -te Faktorstufenvarianz[4]

berechnen. Das Gesamtmittel stellt das mit den Fallzahlen gewichtete Mittel der Faktorstufenmittelwerte dar:

,

wobei den gesamten Umfang der Stichproben auf allen Faktorstufen darstellt. Der globale Erwartungswert bzw. das globale Mittel (englisch grand mean) wird gleich dem Mittel der Stufenmittelwerte gesetzt:

.

Eine Zusatzbedingung an die Modellparameter, um die Identifizierbarkeit des Regressionsmodells sicherzustellen, ist die sogenannte Reparametrisierungsbedingung, bei der eine neue Parametrisierung vorgenommen wird. In der einfachen Varianzanalyse lautet sie

.

D. h. die mit den Fallzahlen gewichtete Summe der Faktorwirkung ergibt Null. In diesem Fall spricht man von einer Effektkodierung. Durch die Reparametrisierungsbedingung können die Effekte eindeutig geschätzt werden. Der globale Mittelwert wird durch das Gesamtmittel geschätzt, der Parameter wird durch das Faktorstufenmittel geschätzt und die Faktorwirkung wird durch die Abweichung geschätzt. Die jeweilige Abweichung zwischen Messwert und Schätzwert (Residuum) ist durch

gegeben. Das Residuum ist gegeben durch die Abweichung des Messwertes vom -Stufenmittel und ist Ausdruck der zufälligen Variation der Variablen auf der -ten Faktorstufe. Sie kann als eine Realisierung des Versuchsfehlers bei der -ten Wiederholung auf der -ten Faktorstufe betrachtet werden.[5] Jede Realisierung der Zielgröße setzt sich additiv zusammen aus dem Gesamtmittel , der Faktorwirkung und Residuum :

.

Die „gesamte Quadratsumme“ bzw. „totale Quadratsumme“, kurz SQT (Summe der Quadrate der Totalen Abweichungen), lässt sich in zwei Teile zerlegen. Ein Teil bezieht sich auf die Gruppenzugehörigkeit, und der andere Teil, der Rest, wird dem Zufall zugeschrieben. Der erste Teil, d. h. die „Quadratsumme bedingt durch Faktor A“, kurz SQA, lässt sich ausdrücken als die Summe der Abweichungsquadrate der Mittelwerte vom Gesamtmittelwert der Gruppen. Die durch die Regression „nicht erklärte Quadratsumme“ bzw. die Residuenquadratsumme, kurz SQR (Summe der Quadrate der Restabweichungen (oder: „Residuen“)), die die Unterschiede innerhalb der Gruppen betrifft, wird ausgedrückt als die gesamte Abweichung von den Mittelwerten in den Gruppen. Es gilt also:

.

Hierbei ist:

,
,

und[6]

.

Die zwei Quadratsummen und sind stochastisch unabhängig. Im Fall von Gruppen mit gleichem Umfang kann man zeigen, dass unter der Nullhypothese folgendes gilt:

, d. h. die Quadratsumme folgt einer Chi-Quadrat-Verteilung mit Freiheitsgraden,

und

, d. h. die Quadratsumme folgt einer Chi-Quadrat-Verteilung mit Freiheitsgraden.

Man definiert meistens auch noch die „mittleren Abweichungsquadrate“ (oft fälschlicherweise mittlere Quadratsummen genannt):

,

und

.

Damit lässt sich die Prüfgröße bzw. die F-Statistik wie folgt definieren:

.

Im Falle von Gruppen gleicher Größe ist unter der Nullhypothese also F-verteilt mit Freiheitsgraden im Zähler und Freiheitsgraden im Nenner.

Wenn die Prüfgröße signifikant wird, unterscheiden sich mindestens zwei Gruppen voneinander. In Post-hoc-Tests kann dann berechnet werden, zwischen welchen einzelnen Gruppen der Unterschied liegt.

Beispielrechnung

[Bearbeiten | Quelltext bearbeiten]

Bei dem folgenden Beispiel handelt es sich um eine einfache Varianzanalyse mit zwei Gruppen (auch Zwei-Stichproben-F-Test). In einem Versuch erhalten zwei Gruppen () von jeweils () Tieren unterschiedliche Nahrung. Nach einer gewissen Zeit wird ihre Gewichtszunahme mit folgenden Werten gemessen:

Gruppe 1
Gruppe 2

Es soll untersucht werden, ob die unterschiedliche Nahrung einen signifikanten Einfluss auf das Gewicht hat. Der Mittelwert und die Varianz (hier „Schätzwert“, empirische Varianz) der beiden Gruppen betragen

und
und

Weil , lässt sich daraus berechnen:

und

Das zugrunde liegende Wahrscheinlichkeitsmodell setzt voraus, dass die Gewichte der Tiere normalverteilt sind und pro Gruppe dieselbe Varianz aufweisen. Die zu testende Nullhypothese ist

: „Die Mittelwerte der beiden Gruppen sind gleich“

Offensichtlich unterscheiden sich die Mittelwerte und . Diese Abweichung könnte jedoch auch im Bereich der natürlichen Schwankungen liegen. Um zu prüfen, ob die Unterscheidung signifikant ist, wird die Testgröße berechnet.

Die Größe ist nach dem zugrunde liegenden Modell eine Zufallsvariable mit einer -Verteilung, wobei die Anzahl der Gruppen (Faktorstufen) und die Anzahl der Messwerte sind. Die Indizes werden als Freiheitsgrade bezeichnet. Der Wert der F-Verteilung für gegebene Freiheitsgrade (F-Quantil) kann in einer Fisher-Tafel nachgeschlagen werden. Dabei muss noch ein gewünschtes Signifikanzniveau (die Irrtumswahrscheinlichkeit) angegeben werden. Im vorliegenden Fall ist das F-Quantil zum Fehler 1. Art von 5 %. Das heißt, dass bei allen Werten der Testgröße bis 4,41 die Nullhypothese nicht abgelehnt werden kann. Da , wird die Nullhypothese bei den vorliegenden Werten abgelehnt.

Es kann also davon ausgegangen werden, dass die Tiere in den beiden Gruppen im Mittel wirklich ein unterschiedliches Gewicht aufweisen. Die Wahrscheinlichkeit, einen Unterschied anzunehmen, obwohl dieser nicht vorliegt, liegt bei unter 5 %.

Zweifache Varianzanalyse

[Bearbeiten | Quelltext bearbeiten]

Die zweifache Varianzanalyse, auch Zweiweg-Varianzanalyse (englisch two-way analysis of variance, kurz: two-way ANOVA), oder zweifaktorielle Varianzanalyse genannt, berücksichtigt zur Erklärung der Zielvariablen zwei Faktoren (Faktor A und Faktor B).

Diese Form der Varianzanalyse ist z. B. bei Untersuchungen angezeigt, welche den Einfluss von Rauchen und Kaffeetrinken auf die Nervosität darstellen wollen. Rauchen ist hier der Faktor A, welcher in z. B. drei Ausprägungen (Faktorstufen) unterteilt werden kann: Nicht-Raucher, leichter Raucher und Kettenraucher. Der Faktor B kann die täglich genutzte Menge Kaffee sein mit den Stufen: 0 Tassen, 1–3 Tassen, 4–8 Tassen, mehr als 8 Tassen. Die Nervosität ist die abhängige Variable. Zur Durchführung der Untersuchung werden Versuchspersonen über 12 Gruppen verteilt entsprechend der Kombinationen der Faktorstufen. Dabei wird die Messung der Nervosität durchgeführt, die metrische Daten liefert.

Grundgedanken der Rechnung

[Bearbeiten | Quelltext bearbeiten]

Das Modell (für den Fall mit festen Effekten) in Effektdarstellung lautet:

Darin sind:

: Zielvariable; annahmegemäß in den Gruppen normalverteilt
: Anzahl der Faktorstufen des ersten Faktors (A)
: Anzahl der Faktorstufen des zweiten Faktors (B)
: Anzahl der Beobachtungen pro Faktorstufe (hier für alle Kombinationen von Faktorstufen gleich)
: Effekt der -ten Faktorstufe des Faktors A
: Effekt der -ten Faktorstufe des Faktors B
: Interaktion (Wechselwirkung) der Faktoren auf der Faktorstufenkombination .

Die Interaktion beschreibt einen besonderen Effekt, der nur auftritt, wenn die Faktorstufenkombination vorliegt.

: Störvariablen, unabhängig und normalverteilt mit Erwartungswert und gleichen Varianzen.

Die Gesamtquadratsumme wird hier zerlegt in vier unabhängige Quadratsummen (Quadratsummenzerlegung):

Darin sind:

die Gesamtquadratsumme,
die Residuenquadratsumme,
die Quadratsumme bedingt durch die Interaktion von A und B,
die durch Faktor A bedingte Quadratsumme
die durch Faktor B bedingte Quadratsumme.

Die Erwartungswerte der Quadratsummen sind:

Die Quadratsummen dividiert durch sind unter geeigneten Annahmen Chi-Quadrat-verteilt, und zwar:

mit Freiheitsgraden
mit Freiheitsgraden, wenn
mit Freiheitsgraden, wenn
mit Freiheitsgraden, wenn

Die mittleren Abweichungsquadrate ergeben sich bei Division der Quadratsummen durch ihre Freiheitsgrade:

Die zutreffende Prüfgrößen berechnen sich wie die Quotienten der mittleren Abweichungsquadrate, mit als Nenner.

Man berechnet nun die Varianzen für die einzelnen Faktoren und die Varianz für die Wechselwirkung von und . Die Hypothese lautet: Es gibt keine Wechselwirkung. Wieder wird die Hypothese mit der Prüfstatistik berechnet. Diese setzt sich nun zusammen als der Quotient der durch die Wechselwirkung von und entstand und die Fehlervarianz. Man vergleicht nun mit den F-Quantilen nach Angabe eines gewünschten Signifikanzniveaus. Ist die Prüfgröße größer als das Quantil (letzteres ist in einschlägigen Tabellen ablesbar), dann wird verworfen, es gibt also eine Wechselwirkung zwischen den Faktoren und .

Tafel der Varianzanalyse

[Bearbeiten | Quelltext bearbeiten]

In einer praktischen Analyse werden die Ergebnisse in der Tafel der Varianzanalyse zusammengefasst:

Variationsquelle Abweichungsquadratsumme (SQ) Anzahl der Freiheitsgrade (FG) Mittleres Abweichungsquadrat (MQ) F-Statistik (F)
Faktor A
Faktor B
Interaktion
Residual
Total

Mehrfache Varianzanalyse (mehr als zwei Faktoren)

[Bearbeiten | Quelltext bearbeiten]

Auch mehrere Faktoren sind möglich. Diese Art der Varianzanalyse wird als mehrfache Varianzanalyse oder als mehrfaktorielle Varianzanalyse bezeichnet. Allerdings steigt der Datenbedarf für eine Schätzung der Modellparameter mit der Anzahl der Faktoren stark an. Auch die Darstellungen des Modells (z. B. in Tabellen) werden mit zunehmender Anzahl der Faktoren unübersichtlicher. Mehr als drei Faktoren können nur noch schwer dargestellt werden.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Hans Friedrich Eckey: Multivariate Statistik: Grundlagen - Methoden - Beispiele. Dr. Th. Gabler Verlag; Auflage: 2002 (12. September 2002), ISBN 978-3-409-11969-6. S. 94.
  2. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 360.
  3. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/ Heidelberg 2016, ISBN 978-3-662-50371-3, S. 480.
  4. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 361.
  5. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 362.
  6. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 362.