Deming-Regression

Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 9. November 2016 um 16:29 Uhr durch Manfred Boergens (Diskussion | Beiträge) (Kleinere Einfügungen.). Sie kann sich erheblich von der aktuellen Version unterscheiden.

In der Statistik wird mit der Deming-Regression eine Ausgleichsgerade für eine endliche Menge metrisch skalierter Datenpaare (xi, yi) nach der Methode der kleinsten Quadrate bestimmt. Im Unterschied zur linearen Regression werden Residuen (Messfehler) sowohl für die x- als auch für die y-Werte in das Modell einbezogen.

Die Deming-Regression ist ein Spezialfall der Regressionsanalyse und beruht auf einer Maximum-Likelihood-Schätzung der Regressionsparameter, bei der die Residuen beider Variablen als unabhängig und normalverteilt angenommen werden und der Quotient δ ihrer Varianzen als bekannt unterstellt wird.

Die Deming-Regression geht auf eine Arbeit von C.H. Kummell (1879) zurück;[1] 1937 wurde die Methode von T.C. Koopmans wieder aufgegriffen[2] und in allgemeinerem Rahmen 1943 von W. E. Deming für technische und ökonomische Anwendungen bekannt gemacht.[3]

Die orthogonale Regression ist ein wichtiger Spezialfall der Deming-Regression; sie behandelt den Fall δ = 1.

Rechenweg

Die gemessenen Werte xi und yi werden als Summen der "wahren" Werte xi* bzw. yi* und der "Fehler" ηi bzw. εi aufgefasst, d.h. (xi, yi) = (xi* + ηi , yi* + εi). Die Datenpaare (xi*, yi*) liegen auf der zu berechnenden Geraden. ηi und εi seien unabhängig mit bekanntem Quotienten der Fehlervarianzen δ = σε2η2.

Es wird eine Gerade

y = β0 + β1x

gesucht, die die gewichtete Summe der quadrierten Residuen minimiert:

 

Für die weitere Rechnung werden die folgenden Hilfswerte benötigt:

      (arithmetisches Mittel der xi)
      (arithmetisches Mittel der yi)
      (Stichprobenvarianz der xi)
      (Stichprobenvarianz der yi)
      (Stichprobenkovarianz der (xi, yi))

Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:[4]

 
 

Die x*-Koordinaten berechnet man mit

 

Einzelnachweise

  1. C. H. Kummell: Reduction of observation equations which contain more than one observed quantity. In: The Analyst. 6. Jahrgang, Nr. 4. Annals of Mathematics, 1879, S. 97–105, doi:10.2307/2635646.
  2. T. C. Koopmans: Linear regression analysis of economic time series. DeErven F. Bohn, Haarlem, Netherlands, 1937.
  3. W. E. Deming: Statistical adjustment of data. Wiley, NY (Dover Publications edition, 1985), 1943, ISBN 0-486-64685-8.
  4. P. Glaister: Least squares revisited. The Mathematical Gazette. Vol. 85 (2001), S. 104–107.