Die Regressionsanalyse ist ein statistisches Verfahren zur Analyse von Daten und geht von der Aufgabenstellung aus, sogenannte einseitige statistische Abhängigkeiten (d. h. statistische Ursache-Wirkung-Beziehungen) durch so genannte Regressionsfunktionen zu beschreiben, und ist damit ein wichtiges Werkzeug der Systemidentifikation. Dazu verwendet man oft lineare Funktionen, aber auch quadratische Funktionen und Exponentialfunktionen.
Erklärung der Regressionsanalyse
Es wird eine metrische Variable y betrachtet, die von einer oder mehreren metrischen unabhängigen Variablen bestimmt wird. Ein Beispiel wäre die Abhängigkeit der Arbeitslosenzahl von den Exporten und dem Inlandskonsum. Mit Hilfe der Regressionsanalyse wird die Struktur der Abhängigkeit zwischen y und den unabhängigen Variablen untersucht. Die interessierende Variable y wird Kriterium, abhängige Variable oder Zielvariable und die erklärenden Variablen x werden unabhängige Variablen oder Regressoren genannt. Es werden allerdings auch immer häufiger die Bezeichnungen Response-Variable für y und Prädiktor-Variablen für x verwendet. Verbreitet ist auch die Bezeichnung endogene Variable (y) und exogene Variable (x).
Ein spezielles Verfahren der Regressionsanalyse ist die lineare Regression, bei der angenommen wird, dass ein interessierendes Merkmal y gut durch eine lineare Kombination anderer Merkmale x erklärt werden kann. Die Gewichtung der Einflüsse der erklärenden Merkmale wird dabei aus Daten geschätzt.
Betrachtet man den Fall mit nur einer unabhängigen Variablen, so spricht man von linearer Einfachregression, den Fall mit 2 oder mehr unabhängigen Variablen bezeichnet man als multiple lineare Regression und X ist dann als Vektor aufzufassen.
Dies kann erweitert werden zu dem Fall mit mehreren unabhängigen Variablen, die von mehreren abhängigen Variablen erklärt werden, wobei abhängige Variablen der einen Gleichung als unabhängige Variablen in einer anderen Gleichung erscheinen können. y und x sind dann Vektoren (Ökonometrisches Modell).
Bezüglich der theoretischen Fundierung unterscheidet man in der Statistik zwischen
- Deskriptiver Regression. Hier werden die Einflüsse nur analytisch berechnet, auf Rückschlüsse auf die zu Grunde liegende Grundgesamtheit wird verzichtet.
- Wahrscheinlichkeitstheoretisch basierter Regression. Hier werden Schätzungen eines statistischen Regressionsmodells mit Schätz- und Testverfahren analysiert.
Deskriptive Regression
Es wird bei der deskriptiven Statistik vor allem auf den numerischen Aspekt der Regression Wert gelegt. Es gibt verschiedene Verfahren, die Abhängigkeitsstruktur zwischen den x-Werten und y zu ermitteln. Häufig verwendet wird die Methode der kleinsten Quadrate. Speziell für die Einfachregression gibt es aber auch Ausreißer-resistente Verfahren wie etwa das Drei-Gruppen-Verfahren.
Ein lineares Regressionsmodell hat den Vorteil, dass es exakt berechnet werden kann, nichtlineare Systeme müssen dagegen meist näherungsweise gelöst werden. Häufig können diese Regressionsmodelle dann nicht mehr wahrscheinlichkeitstheoretisch analysiert werden.
Der wahrscheinlichkeitstheoretisch basierten Regressionsanalyse liegen aber immer die numerischen Verfahren der deskriptiven Regression zu Grunde. Es soll in diesem Artikel vor allem auf die wahrscheinlichkeitstheoretisch basierte lineare Regression, das so genannte Klassische lineare Regressionsmodell, eingegangen werden.
Einfaches lineares Regressionsmodell mit Beispiel einer Preis-Absatz-Funktion
Als Einführung in das statistische Modell wird die lineare Einfachregression anhand eines Beispiels dargestellt. Die eigentliche wahrscheinlichkeitstheoretische Betrachtung folgt im Abschnitt Multiple Regression.
Eine renommierte Sektkellerei möchte einen hochwertigen Rieslingsekt auf den Markt bringen. Für die Festlegung des Abgabepreises soll zunächst eine Preis-Absatz-Funktion ermittelt werden. Dazu wurde in n = 6 Geschäften ein Testverkauf durchgeführt. Man erhielt sechs Wertepaare mit dem Ladenpreis x (in Euro) einer Flasche und die verkaufte Menge y an Flaschen:
Laden | i | 1 | 2 | 3 | 4 | 5 | 6 |
Preis einer Flasche | xi | 20 | 16 | 15 | 16 | 13 | 10 |
verkaufte Menge | yi | 0 | 3 | 7 | 4 | 6 | 10 |
Berechnung der Regressionsgeraden
Man geht von folgendem statistischen Modell aus:
Man betrachtet zwei Variablen, die vermutlich ungefähr in einem linearen Zusammenhang
stehen. Dabei sind x als unabhängige und y als abhängige Variable definiert. Es existieren von x und y je n Beobachtungen xi und yi (i = 1, ... , n). Der funktionale Zusammenhang y = f(x) zwischen x und y kann nicht exakt festgestellt werden, da α + βx von einer Störgröße ε überlagert wird. Diese Störgröße ist als Zufallsvariable (der Grundgesamtheit) konzipiert, die nichterfassbare Einflüsse (menschliches Verhalten, Messungenauigkeiten usw.) darstellt. Es ergibt sich also das Modell
- bzw.
Da α und βx nicht bekannt sind, kann auch y nicht in die Komponenten α + βx und ε zerlegt werden.
Es soll eine mathematische Schätzung für die Parameter α und β durch zwei Konstanten a und b gefunden werden, und zwar so, dass sich ergibt
- mit dem Residuum der Stichprobe (entspricht der Störgröße der Grundgesamtheit)
Es gibt verschiedene Möglichkeiten, die Gerade zu schätzen. Man könnte eine Gerade so durch den Punkteschwarm legen, dass die Quadratsumme der Residuen, also der senkrechten Abweichungen ei der Punkte von dieser Ausgleichsgeraden minimiert wird.
Diese herkömmliche Methode ist die Minimum-Quadrat-Methode oder Methode der kleinsten Quadrate. Man minimiert die summierten Quadrate der Residuen,
bezüglich a und b. Durch partielles Differenzieren und Nullsetzen der Ableitungen erster Ordnung erhält man ein System von Normalgleichungen.
Die gesuchten Regressionskoeffizienten sind die Lösungen
- oder, nach Erweiterung des Bruchs durch 1/n,
und
mit als arithmetischem Mittel der x-Werte, entsprechend, und sxy als empirischer Kovarianz zwischen den xi und yi und sx2 als empirischer Varianz der xi. Man nennt diese Schätzungen auch Kleinste-Quadrate-Schätzer (KQ) oder Ordinary Least Squares-Schätzer (OLS).
Preis einer Flasche |
verkaufte Menge |
xi- |
yi- |
|
|
|
|
xi |
yi |
x* |
y* |
x*y* |
x*x* |
y*y* |
|
20 |
0 |
5 |
-5 |
-25 |
25 |
25 |
0,09 |
16 |
3 |
1 |
-2 |
-2 |
1 |
4 |
4,02 |
15 |
7 |
0 |
2 |
0 |
0 |
4 |
5,00 |
16 |
4 |
1 |
-1 |
-1 |
1 |
1 |
4,02 |
13 |
6 |
-2 |
1 |
-2 |
4 |
1 |
6,96 |
10 |
10 |
-5 |
5 |
-25 |
25 |
25 |
9,91 |
90 |
30 |
0 |
0 |
-55 |
56 |
60 |
30,00 |
Es ergibt sich in dem Beispiel
- und .
Die geschätzte Regressionsgerade lautet , so dass man vermuten kann, dass bei jedem Euro mehr der Absatz im Durchschnitt um ca. 1 Flasche sinkt.
Bestimmtheitsmaß
Es soll nun noch ein Maß für die Güte des gewählten Regressionsansatzes angegeben werden, das Bestimmtheitsmaß (Determinationskoeffizient, Bestimmtheitskoeffizient) r2 als das Quadrat des Korrelationskoeffizienten zwischen x und y. Man kann es interpretieren als Anteil der Information von y, die durch x erklärt wird, an der gesamten Information von y. Je größer r2 ist, desto höher ist der Anteil der durch x erklärten Streuung von y. Daher liegt auch r2 zwischen 0 und 1, wobei r2 = 0 bedeutet, dass x und y unkorreliert sind, und r2 = 1, dass x und y eine Gerade bilden.
Das klassische lineare Regressionsmodell (KLR)
Multiple Regression
Die Prinzipien der wahrscheinlichkeitstheoretischen Regressionsanalyse werden für den Fall mit mehreren unabhängigen Variablen, der sogenannten multiplen Regression, erläutert, denn die formalen Zusammenhänge können so eleganter dargestellt werden.
Es existiert eine Variable y, die linear von mehreren fest vorgegebenen Variablen x abhängt in der Form
wobei ε wieder die Störgröße repräsentiert. ε ist eine Zufallsvariable und daher ist y als lineare Transformation von ε ebenfalls eine Zufallsvariable. Es liegen für die xj (j = 1, ... ,p) und y je n viele Beobachtungen vor, so dass sich für die Beobachtungen i (i = 1, ..., n) das Gleichungssystem
ergibt. Als stichprobentheoretischer Ansatz wird jedes Stichprobenelement εi als eine eigene Zufallsvariable i interpretiert und ebenso so jedes yi.
Da es sich hier um ein lineares Gleichungssystem handelt, können die Elemente des Systems in Matrix-Schreibweise zusammengefasst werden. Man erhält die (n×1)-Spaltenvektoren der abhängigen Variablen y und der Störgröße ε als Zufallsvektoren und den ((p+1)×1)-Spaltenvektor der Regressionskoeffizienten βj
- und
die (n×(p+1))-Datenmatrix .
Die Einsen in der ersten Spalte dienen als Platzhalter für das Absolutglied β0. Man nennt eine derartige „Variable“ Dummyvariable.
Der Zufallsvektor ε ist verteilt mit dem Erwartungswertvektor Eε und der Kovarianzmatrix Σε. y ist dann verteilt mit dem Erwartungswertvektor α + βx + Eε und der Kovarianzmatrix Σε.
Das Gleichungssystem lässt sich nun erheblich einfacher so darstellen:
Annahmen des Klassischen linearen Regressionsmodells
Damit die Regressionsschätzungen inferentiell analysiert werden können, müssen für das klassische lineare Regressionsmodell bestimmte Annahmen erfüllt sein:
- Bezüglich der Störgröße εi
- Der Zufallsvektor ε ist verteilt mit dem Erwartungswertvektor 0 und der Kovarianzmatrix Σε = σε2I.
- Die Zufallsvariablen εi sind stochastisch unabhängig voneinander.
- Die Datenmatrix X ist fest vorgegeben
- Die Datenmatrix X hat den Rang (p+1).
- In der ersten Annahme haben also alle εi die gleiche Varianz (Homoskedastie) und sie sind sämtlich paarweise unkorreliert. Man könnte das so auffassen, dass die Störgröße keinerlei Information enthalten darf und nur zufällig streut. Deshalb kann auch y nur durch Informationen aus X erklärt werden.
- Die zweite Annahme hält X konstant.
- Die dritte Annahme ist für eine eindeutige Lösung des Regressionsproblems erforderlich.
Schätzung der Regressionskoeffizienten
Auch im multiplen linearen Regressionsmodell wird die Quadratsumme der Residuen nach der Methode der kleinsten Quadrate minimiert. Man erhält als Lösung (Satz von Gauß-Markow) den Vektor der geschätzten Regressionskoeffizienten
- .
Dieser Schätzer ist BLUE (Best Linear Unbiased Estimator), also der beste (erwartungstreu mit kleinster Varianz) lineare unverzerrte Schätzer. Für die Eigenschaften der Schätzfunktion b muss also keine Verteilungsinformation der Störgröße vorliegen.
Man erhält mit Hilfe des Minimum-Quadrat-Schätzers b das geschätzte Gleichungssystem
wobei e der Vektor der Residuen ist.
Das Interesse der Analyse liegt vor allem in der Schätzung oder auch Prognose der abhängigen Variablen y für ein gegebenes Tupel von x0. Die berechnet sich als
- .
Ausgewählte Schätzfunktionen des KLR
Die Schätzwerte der yi berechnen sich als
wobei man kürzer
setzen kann. Die (n×n)-Matrix M ist übrigens idempotent und maximal vom Rang p+1. Sie wird auch Hat-Matrix genannt, weil sie y den „Hut“ aufsetzt.
Die Residuen werden ermittelt als
- ,
wobei I-M mit M vergleichbare Eigenschaften hat.
Die Prognose wird ermittelt als
- .
Da X fest vorgegeben ist, kann man alle diese Variablen als lineare Transformation von y und damit von ε darstellen, und deshalb können auch ihr Erwartungswertvektor und ihre Kovarianzmatrix unproblematisch ermittelt werden.
Die Varianz der Störgröße wird mit Hilfe der Residuen geschätzt, und zwar als mittlere Quadratsumme der Residuen
Die Quadratsumme RSS (von engl. „residual sum of squares“) der Residuen ergibt in Matrix-Notation
.
Schätzen und Testen im KLR
Für die inferentielle Regression (Schätzen und Testen) wird noch die Information über die Verteilung der Störgröße gefordert. Man hat hier eingeführt als zusätzliche Annahme
- 4. Die Störgröße εi ist normalverteilt.
Zusammen mit Annahme 1 erhält man für die Verteilung des Vektors der Störgröße:
- .
Hier sind unkorrelierte Zufallsvariablen auch stochastisch unabhängig.
Da die interessierenden Schätzer zum größten Teil lineare Transformationen von ε sind, sind sie ebenfalls normalverteilt mit den entsprechenden Parametern.
Die Quadratsumme der Residuen ist als nichtlineare Transformation χ2-verteilt mit n-(p+1) Freiheitsgraden.
Es folgen Verfahren für ausgewählte Schätzer.
Güte des Regressionsmodells
Hat man eine Regression ermittelt, wird man sich wohl als Erstes für die Güte der Regression interessieren. Häufig verwendet wird als Maß für die Güte das Bestimmtheitsmaß r2. Ist das Bestimmtheitsmaß klein, kann man seine Signifikanz durch die Hypothese H0: r2 = 0 mit der Prüfgröße
testen. f ist F-verteilt mit p+1 und n-(p+1) Freiheitsgraden. Überschreitet die Prüfgröße bei einem Signifikanzniveau α den kritischen Wert F(1-α; p+1; n-(p+1)), das (1-α)-Quantil der F-Verteilung mit p+1 und n-(p+1) Freiheitsgraden, wird H0 abgelehnt. r2 ist dann ausreichend groß, X trägt also vermutlich genügend viel Information zur Erklärung von y bei. Die Residualanalyse (Auftragung der Residuen RSS über den unabhängigen Variablen) gibt Aufschluss über
- die Richtigkeit des angenommenen linearen Zusammenhangs,
- mögliche Ausreißer,
- Homoskedastie, Heteroskedastie.
Beitrag der einzelnen Regressoren zur Erklärung von y
Man testet hier die Nullhypothese H0: βj = 0. Der Zufallsvektor b ist als lineare Transformation von ε verteilt wie
- .
Wenn man die Varianz der Störgröße schätzt, erhält man für die geschätzte Kovarianzmatrix
- .
Die geschätzte Varianz sj2 eines Regressionskoeffizienten bj steht als j-tes Diagonalelement in der geschätzten Kovarianzmatrix. Es ergibt sich also als Prüfgröße
- ,
die t-verteilt ist mit n-(p+1) Freiheitsgraden. Ist |t| größer als der kritische Wert t(1-α/2; n-(p+1)), dem (1-α/2)-Quantil der t-Verteilung mit n-(p+1) Freiheitsgraden, wird die Hypothese abgelehnt, die Steigung bj ist also ausreichend hoch, der Beitrag des Regressors xj zur Erklärung von y ist signifikant groß.
Prognose
Ermittelt man einen Prognosewert, möchte man möglicherweise wissen, in welchem Intervall sich die prognostizierten Werte mit einer festgelegten Wahrscheinlichkeit bewegen. Man wird also ein Konfidenzintervall für den durchschnittlichen Prognosewert Ey0 ermitteln. Es ergibt sich als Varianz der Prognose
- .
Man erhält dann als (1-α)-Konfidenzintervall für den durchschnittlichen Prognosewert mit geschätzter Varianz
.
Speziell für den Fall der linearen Einfachregression ergibt das
Speziell aus dieser Form des Konfidenzintervalls erkennt man sofort, dass das Konfidenzintervall breiter wird, wenn die exogene Prognosevariable x0 sich vom "Zentrum" der Daten entfernt. Schätzungen der endogenen Variablen sollten also im Beobachtungsraum der Daten liegen, sonst werden sie sehr unzuverlässig. So kann die Schätzung der Arbeitslosenzahl im nächsten Jahr durchaus eingegrenzt werden, aber eine Schätzung in 20 Jahren wäre sinnlos.
Beispiel zur multiplen Regression
Zur Illustration der multiplen Regression wird im folgenden Beispiel untersucht, wie die abhängige Variable y: Bruttowertschöpfung (in Preisen von 95; bereinigt, Mrd. Euro) von den unabhängigen Variablen „Bruttowertschöpfung nach Wirtschaftsbereichen Deutschland (in jeweiligen Preisen; Mrd. EUR)“ abhängt. Die Daten sind im Artikel Regressionsanalyse/Datensatz angegeben.
Variable | Beschreibung der Variablen |
---|---|
BWSb95 | Bruttowertschöpfung in Preisen von 95 (bereinigt) |
BBLandFF | Bruttowertschöpfung von Land- und Forstwirtschaft, Fischerei |
BBProdG | Bruttowertschöpfung des produzierenden Gewerbes ohne Baugewerbe |
BBBau | Bruttowertschöpfung im Baugewerbe |
BBHandGV | Bruttowertschöpfung von Handel, Gastgewerbe und Verkehr |
BBFinVerm | Bruttowertschöpfung durch Finanzierung, Vermietung und Unternehmensdienstleister |
BBDienstÖP | Bruttowertschöpfung von öffentlichen und privaten Dienstleistern |
Das Streudiagramm zeigt, dass die gesamte Wertschöpfung offensichtlich mit den Wertschöpfungen der wirtschaftlichen Bereiche positiv korreliert ist. Auffällig ist, dass die Wertschöpfung im Baugewerbe negativ mit den anderen Sektoren korreliert.
Der Test auf Güte des gesamten Regressionsmodells ergibt eine Prüfgröße von f = 162,911. Die Anpassung ist also bei einem Signifikanzniveau von 0,05 signifikant gut.
Die Analyse der einzelnen Beiträge der Variablen (Tabelle Coefficients) des Regressionsmodells ergibt bei einem Signifikanzniveau von 0,05 und einem kritischen Wert der Prüfgröße von 2,2, dass die Variablen BBLandFF und BBFinVerm offensichtlich die Variable BWSB95 nur unzureichend erklären können. Die Variablen BBHandGV und BBDienstÖP sind gerade noch signifikant. Besonders stark korreliert ist y mit den Variablen BBProdG und BBBau. Man könnte also die insignifikanten Variablen aus dem Modell entfernen. Es wäre auch denkbar, die beiden Variablen BBHandGV und BBDienstÖP auf ihren Erklärungswert hin zu überprüfen.
Es wurde beispielsweise für den letzten Datensatz (2. Quartal 2004) eine Prognose gerechnet. Für die x-Werte 5,95, 126,25, 21,2, 92,18, 155,47 und 105,56 ergab sich eine geschätzte Bruttowertschöpfung von y = 461,69 bei einem tatsächlich gemessenen von 461,15. Es ergab sich ein 95%-Konfidenzintervall von [459,58012; 463,80044] mit einer Breite von 4,22.
Spezielle Anwendungen der Regressionsanalyse
Für quantitative Wirtschaftsanalysen im Rahmen der Regressionsanalyse, beispielsweise der Ökonometrie, sind besonders geeignet:
- Wachstumsfunktionen, wie zum Beispiel das Gesetz des organischen Wachstums oder die Zinseszinsrechnung,
- Abschwingfunktionen, wie zum Beispiel die hyperbolische Verteilungsfunktion oder die Korachsche Preisfunktion,
- Schwanenhalsfunktionen, wie zum Beispiel die logistische Funktion, die Johnson-Funktion oder die Potenzexponentialfunktion,
- degressive Saturationsfunktionen, wie zum Beispiel die Gompertz-Funktion oder die Törnquist-Funktion.
Siehe auch
Literatur
- Draper, Norman R. und Smith Harry: Applied Regression Analysis, 1998, New York: Wiley
- Opfer, Gerhard: Numerische Mathematik für Anfänger, 2. Auflage, 1994, Vieweg Verlag
- Oppitz, Volker/Nollau, Volker: Taschenbuch Wirtschaftlichkeitsrechnung, Carl Hanser Verlag 2003, 400 S., ISBN 3446224637
- Oppitz, Volker Gabler Lexikon Wirtschaftlichkeitsberechnung, Gabler-Verlag 1995, 629 S., ISBN 3409199519
- Schönfeld, Peter: Methoden der Ökonometrie, Berlin, Frankfurt, 1969
- Urban, Dieter/ Mayerl, Jochen: Regressionsanalyse: Theorie, Technik und Anwendung, 2. überarb. Auflage, 2006, Wiesbaden: VS Verlag, ISBN 3531337394
- Zeidler E. (Hrsg.): Taschenbuch der Mathematik (bekannt als Bronstein und Semendjajew), Stuttgart, Leipzig, Wiesbaden 2003