Kernregression
| Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen.
Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion! (Artikel eintragen) |
Unter Kernel-Regression versteht man eine Reihe nichtparametrischer statistischer Methoden, bei denen die Abhängigkeit einer zufälligen Größe von Ausgangsdaten mittels Kerndichteschätzung geschätzt werden. Die Art der Abhängigkeit, dargestellt durch die Regressionskurve, wird im Gegensatz zur linearen Regression nicht als linear festgelegt. Der Vorteil ist eine bessere Anpassung an die Daten im Falle nichtlinearer Zusammenhänge. Abhängig davon, ob die Ausgangsdaten selbst zufällig sind oder nicht, unterscheidet man zwischen Random-Design- und Fixed-Design-Ansätzen. Das grundlegende Verfahren wurde 1964 unabhängig voneinander von Geoffrey Watson und Elizbar Nadaraya vorgeschlagen.
Univariate Kernel-Regression
Kerndichteschätzer

Ein Kerndichteschätzer zur Bandweite ist eine Schätzung der unbekannten Dichtefunktion einer Variablen. Ist eine Stichprobe, ein Kern, so ist die Kerndichteschätzung definiert als:
- .
Wie die Grafik rechts zeigt, ist die Wahl der Bandbreite ist entscheidend für die Qualität der Approximation.
| Typische Kerne mit | |||
|---|---|---|---|
| unbeschränktem Träger | Träger | ||
| Kern | Kern | ||
| Gauß | Uniform | ||
| Cauchy | Dreieck | ||
| Picard | Kosinus | ||
Epanechnikov (p=1) Quartic (p=2) Triweight (p=3) |
|||
Nadaraya-Watson-Schätzer

Der Nadaraya-Watson-Schätzer schätzt eine unbekannte Regressionsfunktion aus den Beobachtungsdaten als [1][2]
mit und einem Kern und einer Bandweite . Die Funktion ist dabei eine Funktion, die Beobachtungen nahe ein großes Gewicht und Beobachtungen weit entfernt von ein kleines Gewicht zuordnet. Die Bandweite legt fest, in welchem Bereich um die Beobachtungen ein großes Gewicht haben.
Während die Wahl des Kerns meist recht frei erfolgen kann, hat die Wahl der Bandweite einen großen Einfluß auf die Glattheit des Schätzers. Die Grafik rechts zeigt, dass eine große Bandweite (grün) zur einer glatteren Schätzung führt als die Wahl einer kleinen Bandweite (blau).
Ableitung
Die Idee des Nadaraya-Watson-Schätzers beruht darauf, dass die unbekannte Regressionsfunktion
mit Hilfe des bedingten Erwartungswertes durch die gemeinsame Dichte und die Randdichte dargestellt wird.
Die unbekannten Dichten und werden mit Hilfe einer Kerndichteschätzung geschätzt. Zur Berechnung der gemeinsamen Dichte aus den Beobachtungen wird ein bivariater Kerndichteschätzer mit Produktkern und Bandweiten und genutzt:
- .
Es folgt
und mittels Kerndichteschätzung für der Nadaraya-Watson-Schätzer.
Eigenschaften

1. Wie im Fall der linearen Regression kann der Nadaraya-Watson-Schätzer auch als Linearkombination der mit Gewichtsfunktionen geschrieben werden:
- .
Damit ist der Nadaraya-Watson-Schätzer das (lokal) gewichtete Mittel der Beobachtungswerte , es gilt
- .
Die Grafik rechts zeigt die Gewichte für verschiedene Werte von (blau: , grün: , rot: ). Der Dotplot unterhalb von Null zeigt die Daten der erklärenden Variable. Je größer die Bandweite ist (durchgezogene Linie vs. gestrichelte Linie) desto mehr Beobachtungen um haben ein Gewicht ungleich Null. Je weniger Daten zu Verfügung stehen (rechts), desto stärker müssen die verfügbaren Beobachtungen gewichtet werden.
2. Der mittlere quadratische Abweichung ergibt sich approximativ als
mit und unabhängig von und . Damit ist die Konvergenz langsamer als bei der linearen Regression, d.h. mit der gleichen Zahl von Beobachtungen kann der Vorhersagewert in der linearen Regression präziser geschätzt werden als beim Nadaraya-Watson-Schätzer.
Dabei ist die Verzerrung des Nadaraya-Watson-Schätzers
mit und die erste bzw. zweite Ableitung der unbekannten Regressionfunktion, die erste Ableitung der Dichte und .
Und die Varianz des Schätzers
mit und .
Gasser-Müller-Schätzer
Im Fixed-Design-Fall mit ist die Dichte bekannt, muss also nicht geschätzt werden. Dies vereinfacht sowohl die Berechnungen als auch die mathematische Behandlung des Schätzers. Für diesen Fall wurde der Gasser-Müller-Schätzer definiert als[3]
mit
und , und .
Eigenschaften
Einzelnachweise
- ↑ Elizbar A. Nadaraya: On estimating regression. In: Theory of Probability and its Applications. Band 9, Nr. 1, 1964, S. 141–142, doi:10.1137/1109020.
- ↑ Geoffrey S. Watson: Smooth Regression Analysis. In: Sankhyā: The Indian Journal of Statistics, Series A. Band 26, Nr. 4, Dezember 1964, S. 359–372.
- ↑ Theo Gasser, Hans-Georg Müller: Estimating Regression Functions and Their Derivatives by the Kernel Method. In: Scandinavian Journal of Statistics. Band 11, Nr. 3, 1984, S. 171–185.
Literatur
- Wolfgang Härdle, Marlene Müller, Stefan Sperlich, Axel Werwatz: Nonparametric and Semiparametric Models. Springer Verlag, Berlin, Heidelberg 2004 (hu-berlin.de).