Zum Inhalt springen

„Deming-Regression“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
Quotienten der Fehlervarianzen sigma -> sigma_epsilon im Zähler
Zeile 8: Zeile 8:


== Rechenweg ==
== Rechenweg ==
Die gemessenen Werte <math>x_i</math> und <math>y_i</math> werden als Summen der „[[Wahrer Wert|wahren Werte]]“ <math>x_i^{*}</math> bzw. <math>y_i^{*}</math> und der „Fehler“ <math>\eta_i</math> bzw. <math>\varepsilon_i</math> aufgefasst, d.&nbsp;h. <math>(x_i, y_i) = (x_i^{*} + \eta_i, y_i^{*} + \varepsilon_i)</math> Die Datenpaare (<math>x_i^{*}, y_i^{*}</math>) liegen auf der zu berechnenden Geraden. <math>\eta_i</math> und <math>\varepsilon_i</math> seien unabhängig mit bekanntem Quotienten der [[Erwartungstreue Schätzung der Varianz der Störgrößen|Fehlervarianzen]] <math>\delta = \frac{\sigma^2}{\sigma_{\eta}^2}</math>.
Die gemessenen Werte <math>x_i</math> und <math>y_i</math> werden als Summen der „[[Wahrer Wert|wahren Werte]]“ <math>x_i^{*}</math> bzw. <math>y_i^{*}</math> und der „Fehler“ <math>\eta_i</math> bzw. <math>\varepsilon_i</math> aufgefasst, d.&nbsp;h. <math>(x_i, y_i) = (x_i^{*} + \eta_i, y_i^{*} + \varepsilon_i)</math> Die Datenpaare (<math>x_i^{*}, y_i^{*}</math>) liegen auf der zu berechnenden Geraden. <math>\eta_i</math> und <math>\varepsilon_i</math> seien unabhängig mit bekanntem Quotienten der [[Erwartungstreue Schätzung der Varianz der Störgrößen|Fehlervarianzen]] <math>\delta = \frac{\sigma_{\varepsilon}^2}{\sigma_{\eta}^2}</math>.


Es wird eine Gerade
Es wird eine Gerade

Version vom 17. Juni 2020, 17:41 Uhr

In der Statistik wird mit der Deming-Regression eine Ausgleichsgerade für eine endliche Menge metrisch skalierter Datenpaare () nach der Methode der kleinsten Quadrate bestimmt. Es handelt sich um eine Variante der linearen Regression. Bei der Deming-Regression werden die Residuen (Messfehler) sowohl für die - als auch für die -Werte in das Modell einbezogen.

Die Deming-Regression ist somit ein Spezialfall der Regressionsanalyse; sie beruht auf einer Maximum-Likelihood-Schätzung der Regressionsparameter, bei der die Residuen beider Variablen als unabhängig und normalverteilt angenommen werden und der Quotient ihrer Varianzen als bekannt unterstellt wird.

Die Deming-Regression geht auf eine Arbeit von C.H. Kummell (1879) zurück;[1] 1937 wurde die Methode von T.C. Koopmans wieder aufgegriffen[2] und in allgemeinerem Rahmen 1943 von W. E. Deming für technische und ökonomische Anwendungen bekannt gemacht.[3]

Die orthogonale Regression ist ein wichtiger Spezialfall der Deming-Regression; sie behandelt den Fall . Die Deming-Regression wiederum ist ein Spezialfall der York-Regression.

Rechenweg

Die gemessenen Werte und werden als Summen der „wahren Werte bzw. und der „Fehler“ bzw. aufgefasst, d. h. Die Datenpaare () liegen auf der zu berechnenden Geraden. und seien unabhängig mit bekanntem Quotienten der Fehlervarianzen .

Es wird eine Gerade

gesucht, die die gewichtete Residuenquadratsumme minimiert:

Für die weitere Rechnung werden die folgenden Hilfswerte benötigt:

    (arithmetisches Mittel der )
    (arithmetisches Mittel der )
    (Stichprobenvarianz der )
    (Stichprobenvarianz der )
    (Stichprobenkovarianz der ).

Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:[4]

.

Die -Koordinaten berechnet man mit

.

Einzelnachweise

  1. C. H. Kummell: Reduction of observation equations which contain more than one observed quantity. In: The Analyst. 6. Jahrgang, Nr. 4. Annals of Mathematics, 1879, S. 97–105, doi:10.2307/2635646.
  2. T. C. Koopmans: Linear regression analysis of economic time series. DeErven F. Bohn, Haarlem, Netherlands, 1937.
  3. W. E. Deming: Statistical adjustment of data. Wiley, NY (Dover Publications edition, 1985), 1943, ISBN 0-486-64685-8.
  4. P. Glaister: Least squares revisited. The Mathematical Gazette. Vol. 85 (2001), S. 104–107, JSTOR:3620485.