Bestimmtheitsmaß

Kennzahl zur Beurteilung der Anpassungsgüte einer Regression
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 11. Dezember 2008 um 09:53 Uhr durch Ingeniero (Diskussion | Beiträge) (Konstruktion). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Das Bestimmtheitsmaß (abk. oder , auch Determinationskoeffizient) ist ein Maß der Statistik für den erklärten Anteil der Variabilität (Varianz) einer abhängigen Variablen durch ein statistisches Modell. Indirekt wird damit auch der Zusammenhang zwischen der abhängigen und der/den unabhängigen Variablen gemessen (siehe Fehlerreduktionsmaße) [1][2].

Nur im Fall eines linearen Regressionsmodells, d.h. , gibt es eine eindeutige Definition: das Quadrat des multiplen Korrelationskoeffizienten. Ansonsten existieren meist mehrere unterschiedliche Definitionen (siehe Pseudo-Bestimmtheitsmaß).

Das Bestimmtheitsmaß

Interpretation

Die Maßzahl   ist der Prozentanteil der Variation von   (oder auch der Varianz von  , da gilt  ) von der durch die lineare Regression erklärt wird und liegt daher zwischen

0 (oder 0 %): kein linearer Zusammenhang und
1 (oder 100%): perfekter linearer Zusammenhang.

Ist  , dann besteht das "beste" lineare Regressionsmodell nur aus der Konstanten  , alle anderen Koeffizienten   sind Null. Ist  , dann lässt sich die Variable   vollständig durch das lineare Regressionmodell erklären.

Ist das Regressionsmodell nicht linear kann   auch kleiner Null oder größer als Eins werden.

Konstruktion

Die Variation von   wird zerlegt in die Variation der Residuen (durch das Modell nicht erklärte Variation) und die Variation der Regresswerte (durch das Modell erklärte Variation):

 

mit   der Mittelwert der  's,   die geschätzten Regresswerte aus dem Regressionsmodell ( ).

Damit wird das Bestimmtheitsmaß   definiert als:

 

In der Literatur findet man auch folgende Notation für die

  • Variation von  :   (total sum of squares),
  • Variation der Residuen:   (sum of squared residual) und
  • Variation der Regresswerte:   (estimated sum of squares).

Zusammenhang mit Korrelationskoeffizienten

Bei einer einfachen Regression (nur eine unabhängige Variable) entspricht   dem Quadrat des Pearson'schen Korrelationskoeffizienten   und lässt sich aus der Kovarianz   und den Einzelvarianzen   und   berechnen:

 

Bei einer multiplen Regression (mehr als eine unabhängige Variable) entspricht   dem Quadrat des multiplen Korrelationskoeffizienten, also der Korrelation zwischen   und  .

Grenzen und Kritik

 
Beispiele für Daten mit einem hohen und einem niedrigen Bestimmtheitsmaß.
  • Das Bestimmtheitsmaß zeigt zwar die Qualität der linearen Approximation, jedoch nicht, ob das Modell richtig spezifiziert wurde. Modelle, die mittels kleinster Quadrate geschätzt wurden, werden daher die höchsten   erhalten. Übliche Mißverständnisse sind:
    • Ein hohes   erlaubt eine gute Vorhersage. Die rote Daten in der Grafik rechts legen nahe, dass sich die Richtung der Daten für höherere Wert von   ändert.
    • Ein hohes   gibt an, dass die geschätzte Regressionslinie eine gute Approximation an die Daten darstellt; die rote Daten legen auch hier etwas anderes nahe.
    • Ein   nahe bei Null, zeigt an, dass es keinen Zusammenhang zwischen der abhängigen und den unabhängigen Variablen gibt. Die blauen Daten in der Grafik rechts zeigen einen deutlichen, allerdings nicht-linearen, Zusammenhang, obwohl   Null ist.
  • Es sagt nichts darüber aus, ob die unabhängigen Variablen   wirklich der Grund für die Änderungen in   sind. Z.B. gibt es tatsächlich einen Zusammenhang zwischen der Anzahl der Störche und der Anzahl der neugeborenen Kinder in einem Gebiet. Der Grund für den Zusammenhang ist jedoch, dass in einem mehr ländlichen Gebiet sowohl die Zahl der Störche als auch die Zahl der neugeborenen Kinder grösser ist als in einem mehr städtisch geprägten Gebiet. Korrekterweise müsste man statt einer Regression   eine Regression   durchführen.
  • Außerdem sagt es nichts über die statistische Signifikanz des ermittelten Zusammenhangs und der einzelnen Regressoren aus. Dazu muss zusätzlich ein Signifikanztest durchgeführt werden.
  • Es macht keine Aussage über Multikollinearität der unabhängigen Variablen  .
  • Es macht keine Aussage, ob eine Transformation der Daten die Erklärungskraft der Regression verbessert.
  • Ein weiterer Nachteil liegt in der Empfindlichkeit gegenüber Trends: Sofern sich eine exogene Variable parallel zu einer erklärenden entwickelt, werden unabhängig von der wahren Erklärungskraft des Modells hohe   ausgewiesen.

Das korrigierte Bestimmtheitsmaß

Definition

Das Bestimmtheitsmaß   hat die Eigenschaft, dass es umso größer wird je größer die Zahl der unabhängigen Variablen ist. Und zwar unabhängig davon, ob weitere unabhängige Variablen wirklich einen Beitrag zur Erklärungskraft liefern. Daher ist es ratsam, das korrigierte Bestimmtheitsmaß (auch bereinigtes, adjustiertes oder angepasstes Bestimmtheitsmaß genannt) zu Rate zu ziehen. Es berechnet sich wie folgt

 

Hierbei wird die Erklärungskraft des Modells, repräsentiert durch  , ausbalanciert mit der Komplexität des Modells, repräsentiert durch  , die Anzahl der unabhängigen Variablen. Je komplexer das Modell ist, desto mehr "bestraft"   jede neu hinzugenommene unabhängige Variable.

Das angepasste Bestimmtheitsmaß   steigt nur, wenn   ausreichend steigt, um den gegenläufigen Effekt des Quotienten   auszugleichen und kann auch sinken. Auf diese Weise lässt sich   als Entscheidungskriterium bei der Auswahl zwischen zwei alternativen Modellspezifikationen (etwa einem restringierten und einem unrestringierten Modell) verwenden.

Das korrigierte Bestimmtheitsmaß   kann auch negative Werte annehmen und ist kleiner als das unbereinigte, außer falls  , dann ist auch  .

Konstruktion

Aus der obigen Definition von   folgt, dass

 

Wir wissen jedoch, dass   und   keine unverzerrten Schätzer für die Varianzen sind. Setzt man oben und unten unverzerrte Schätzer ein, so erhält man das korrigierte Bestimmtheitsmaß:

 .

Pseudo-Bestimmtheitsmaß

Bei einem nominalen oder ordinalen Skalenniveau von   kann man weder ein lineares Regressionsmodell aufstellen noch eine Variation oder Varianz und damit ein   berechnen. Mit Hilfe der Maximum-Likelihood-Schätzung lassen sich jedoch allgemeinere Regressionsmodelle schätzen. In solchen Modellen wird das sogenannte Pseudo-Bestimmtheitsmaß verwendet. Unter diesem Begriff wurden verschiedene Maße vorgeschlagen, darunter das unter Ökonomen am häufigsten verwendete von McFadden[3] (mit   aus dem Modell mit lediglich einer Konstanten):

 

Dabei ist   der Wert der Likelihoodfunktion unter Kenntnis des Zusammenhanges zwischen   und   (volles Regressionsmodell) und   der Wert der Likelihoodfunktion ohne Kenntnis des Zusammenhanges zwischen   und   (Nullmodell ohne  ). Dieser Ansatz nutzt die Interpretation von   als proportionales Fehlerreduktionsmaß aus. Weitere Maße sind die Maße von Cox und Snell[4]

 

bzw., da gilt  , die Erweiterung von Nagelkerke[5]

 

Nagelkerke gab auch eine allgemeine Bedingungen für ein Pseudo-Bestimmtheitsmaß an:

  1. Ein Pseudo-Bestimmtheitsmaß sollte mit dem Bestimmtheitsmaß   übereinstimmen, wenn beide berechnet werden können.
  2. Es soll ebenfalls maximiert werden mit der Maximum-Likelihood-Schätzung des Modells.
  3. Es soll, zumindest asymptotisch, unabhängig vom Stichprobenumfang sein.
  4. Die Interpretation sollte die durch das Modell erklärte Variabilität von   sein.
  5. Es soll zwischen Null und Eins liegen. Bei einem Wert von Null sollte es keine Aussage über die Variabilität von   machen; bei einem Wert von Eins, sollte es die Variabilität von   mvollständig erklären.
  6. Es sollte keine Maßeinheit besitzen.

Literatur

  • Neter, J., Kutner, M.H., Nachtsheim, C.J., Wasserman, W. (1996), Applied linear statistical models (Fourth edition), McGraw-Hill

Einzelnachweise

  1. Yule, G.U. (1897), On the theory of correlation, Journal of the Royal Statistical Society, 62, S. 249-295
  2. Pearson, K., Lee, A. (1897), On the Distribution of Frequency (Variation and Correlation) of the Barometric Height at Divers Stations, Philosophical Transactions of the Royal Society of London. Series A, Vol. 190, S. 423-469
  3. McFadden, D. (1974), Conditional logit analysis of qualitative choice behaviour, in: P. Zarembka (ed.), Frontiers in Econometrics, Academic Press, New York, S. 105-142.
  4. Cox, D.R., Snell, E.J. (1989), The Analysis of Binary Data (2. Auflage), Chapman and Hall, London.
  5. Nagelkerke, N.J.D. (1991), A Note on a General Definition of the Coefficient of Determination, Biometrika 78(3), S. 691–692.