Korrelationskoeffizient nach Bravais-Pearson
Der Korrelationskoeffizient (von Pearson) ist ein dimensionsloses Maß für den Grad des linearen Zusammenhangs (Zusammenhangsmaße) zwischen zwei intervallskalierten Merkmalen. Er kann lediglich Werte zwischen -1 und 1 annehmen. Bei einem Wert von +1 (bzw. -1) besteht ein vollständig positiver (bzw. negativer) linearer Zusammenhang zwischen den betrachteten Merkmalen. Wenn der Korrelationskoeffizient den Wert 0 aufweist, hängen die beiden Merkmale überhaupt nicht linear voneinander ab. Allerdings können diese ungeachtet dessen in nicht-linearer Weise voneinander abhängen. Damit ist der Korrelationskoeffizient kein geeignetes Maß für die (reine) statistische Abhängigkeit von Merkmalen.
Je nachdem ob der lineare Zusammenhang zwischen zeitgleichen Messwerten zweier verschiedener Merkmale oder derjenige zwischen zeitlich verschiedenen Messwerten eines einzigen Merkmals betrachtet wird, spricht man entweder von der Kreuzkorrelation oder von der Autokorrelation (siehe Zeitreihenanalyse).
Berechnung
Der Korrelationskoeffizient (Pearsonscher Maßkorrelationskoeffizient) wird nach folgender Formel berechnet:
wobei x1 , x2 , ..., xn und y1 , y2 , ..., yn die Messwerte der beiden Merkmale sind. Ferner stellen
und
die arithmetischen Mittelwerte der beiden Merkmale dar.
Voraussetzungen für den Korrelationskoeffizienten
Der Korrelationskoeffizient nach Pearson erlaubt Aussagen über statistische Zusammenhänge unter folgenden Bedingungen:
Skalierung
Der Pearsonsche Korrelationskoeffizient liefert korrekte Ergebnisse bei intervallskalierten und bei dichotomen Daten. Für niedrigere Skalierungen existieren andere Korrelationskonzepte.
Linearitätsbedingung
Zwischen den Variablen x und y wird ein linearer Zusammenhang vorausgesetzt. Diese Bedingung wird in der Praxis nicht selten ignoriert; daraus erklären sich mitunter enttäuschend niedrige Korrelationen, obwohl der Zusammenhang zwischen x und y bisweilen trotzdem hoch ist. Ein einfaches Beispiel für einen hohen Zusammenhang bei niedrigem Korrelationskoeffizienten ist die Fibonacci-Reihe. Alle Zahlen der Fibonacci-Reihe sind durch ihre Position in der Reihe durch eine mathematische Formel exakt determiniert. Der Zusammenhang zwischen der Positionsnummer einer Fibonacci-Zahl und der Größe der Zahl ist vollkommen. Dennoch beträgt der Korrelationskoeffizient zwischen den Ordnungsnummern der ersten 360 Fibonacci-Zahlen und den betreffenden Zahlen nur 0,20; das bedeutet, daß nur 4% ( )der Varianz durch den Korrelationskoeffizienten erklärt werden. Der Grund ist die Vernachlässigung der Linearitätsbedingung, denn die Fibonacci-Zahlen wachsen progressiv an.
Signifikanzbedingung
Ein Korrelationskoeffizient > 0 bei positiver Korrelation bzw. < 0 bei negativer Korrelation zwischen x und y berechtigt nicht a priori zur Aussage, es bestehe ein statistischer Zusammenhang zwischen x und y. Eine solche Aussage ist nur gültig, wenn der ermittelte Korrelationskoeffizient signifikant ist. Je höher Anzahl der Wertepaare (x,y) und Signifikanzniveau sind, umso niedriger darf der Absolutbetrag eines Korrelationskoeffizienten sein, um zur Aussage zu berechtigen, zwischen x und y gebe es einen linearen Zusammenhang. Zur Bestimmung der Signifikanz eines Korrelationskoeffizienten dient ein Test auf Basis der t-Verteilung.
Bildliche Darstellung und Interpretation
Sind zwei Merkmale vollständig miteinander korreliert (d.h. |r| = 1), so liegen alle Messwerte in einem 2-dimensionalen Koordinatensystem auf einer Geraden. Bei einer perfekten positiven Korrelation (r = +1) steigt die Gerade; wenn die Merkmale perfekt negativ miteinander korreliert sind (r = -1), sinkt die Gerade. Besteht zwischen 2 Merkmalen eine sehr hohe Korrelation, sagt man oft auch, sie erklären dasselbe.
Je kleiner der Betrag von r, desto kleiner der lineare Zusammenhang. Für r = 0 kann der statistische Zusammenhang zwischen den Messwerten nicht mehr durch eine eindeutig steigende oder sinkende Gerade dargestellt werden. Dies ist z.B. der Fall, wenn die Messwerte rotationssymmetrisch um den Mittelpunkt verteilt sind. Dennoch kann dann ein nicht-linearer statistischer Zusammenhang zwischen den Merkmalen gegeben sein. Umgekehrt gilt jedoch: Wenn die Merkmale statistisch unabhängig sind, nimmt der Korrelationskoeffizient stets den Wert 0 an.
Der Korrelationskoeffizient ist kein Indiz eines ursächlichen Zusammenhangs zwischen den beiden Merkmalen: Die Besiedlung durch Störche im Süd-Burgenland korreliert zwar positiv mit der dortigen Geburtenzahl, doch das bedeutet noch lange keinen kausalen Zusammenhang. Trotzdem ist ein statistischer Zusammenhang gegeben. Dieser leitet sich aber aus einem dritten, vierten etc. Faktor ab, wie in unserem Beispiel der Industrialisierung, der Wohlstandssteigerung, die einerseits den Lebensraum der Störche einschränkten und andererseits zu einer Verringerung der Geburtenzahlen führten.
Der Korrelationskoeffizient kann schon gar kein Indiz über die Richtung eines Zusammenhanges sein: Steigen die Niederschläge durch die höhere Verdunstung oder steigt die Verdunstung an, weil die Niederschläge mehr Wasser liefern ? Bedingt das eine das andere möglicherweise in beiderlei Richtung ?
Ob ein gemessener Korrelationskoeffizient groß oder klein ist, hängt stark von der Art der untersuchten Daten ab. Bei psychologischen Fragebogendaten werden z.B. Werte bis ca. 0,3 häufig als klein angesehen, während man ab ca. 0,8 von einer sehr hohen Korrelation spricht. Das Quadrat des Korrelationskoeffizienten nennt man Bestimmungsmaß. Es gibt in erster Näherung an, wieviel % der Varianz durch die untersuchte Beziehung erklärt werden. Beispiel: Bei r = 0,3 bzw. 0,8 werden 9% bzw. 64% der gesamten auftretenden Varianz im Hinblick auf einen statistischen Zusammenhang erklärt.
Siehe auch
Bestimmtheitsmaß, Transinformation, Kontingenztafel, Rangkorrelationskoeffizient, Streudiagramm
Weblinks
- http://mathworld.wolfram.com/CorrelationCoefficient.html - Darstellung des Korrelationskoeffizienten als Kleinste-Quadrate-Schätzer
- http://www.sgipt.org/wisms/statm/kor/partkor.htm - kritisch zur Bedeutung des Korrelationskoeffzienten dargelegt am Phänomen partieller Korrelationen
- http://www.zotteljedi.de/projects/kkf/index.html - Demonstration der Kreuzkorrelation, wie sie in der digitalen Signalverarbeitung Anwendung findet, um verrauschte Signale zu finden.