Zum Inhalt springen

„Deming-Regression“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[gesichtete Version][gesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
ergänzt + korrigiert
Zeile 4: Zeile 4:
Die Deming-Regression ist somit ein Spezialfall der [[Regressionsanalyse]]; sie beruht auf einer [[Maximum-Likelihood-Methode|Maximum-Likelihood-Schätzung]] der [[Regressionsparameter]], bei der die Residuen beider Variablen als unabhängig und [[Normalverteilung|normalverteilt]] angenommen werden und der Quotient <math>\delta</math> ihrer [[Varianz (Stochastik)|Varianzen]] als bekannt unterstellt wird.
Die Deming-Regression ist somit ein Spezialfall der [[Regressionsanalyse]]; sie beruht auf einer [[Maximum-Likelihood-Methode|Maximum-Likelihood-Schätzung]] der [[Regressionsparameter]], bei der die Residuen beider Variablen als unabhängig und [[Normalverteilung|normalverteilt]] angenommen werden und der Quotient <math>\delta</math> ihrer [[Varianz (Stochastik)|Varianzen]] als bekannt unterstellt wird.


Die Deming-Regression geht auf eine Arbeit von [[C.H. Kummell]] (1879) zurück;<ref>{{cite journal|last=Kummell|first=C. H.|year=1879|title=Reduction of observation equations which contain more than one observed quantity|journal=The Analyst|volume=6|issue=4|pages=97–105|publisher=Annals of Mathematics|doi=10.2307/2635646}}</ref> 1937 wurde die Methode von [[T.C. Koopmans]] wieder aufgegriffen<ref>{{cite book|last=Koopmans|first=T. C.|year=1937|title=Linear regression analysis of economic time series|publisher=DeErven F. Bohn, Haarlem, Netherlands}}</ref> und in allgemeinerem Rahmen 1943 von [[William Edwards Deming|W. E. Deming]] für technische und ökonomische Anwendungen bekannt gemacht.<ref>{{cite book|last=Deming|first=W. E.|authorlink=W. Edwards Deming|year=1943|title=Statistical adjustment of data|publisher=Wiley, NY (Dover Publications edition, 1985)|isbn=0-486-64685-8}}</ref>
Die Deming-Regression geht auf eine Arbeit von [[C.H. Kummell]] (1879) zurück;<ref>Charles H. Kummell: ''Reduction of observation equations which contain more than one observed quantity.'' In: ''[[The Analyst]].'' Band 6, Nummer 4, 1879, S. 97–105, {{JSTOR|2635646}}.</ref> 1937 wurde die Methode von [[T.C. Koopmans]] wieder aufgegriffen<ref>[[Tjalling C. Koopmans|Tjalling Koopmans]]: ''Linear regression analysis of economic time series'' (= ''Publications of the Netherland Economic Institute.'' 20). De Erven F. Bohn, Haarlem 1937.</ref> und in allgemeinerem Rahmen 1943 von [[William Edwards Deming|W. E. Deming]] für technische und ökonomische Anwendungen bekannt gemacht.<ref>[[William Edwards Deming|W. Edwards Deming]]: ''Statistical adjustment of data.'' Wiley u. a., New York NY 1943, (Unabriged and corrected republication. Dover Publications, New York NY 1985, ISBN 0-486-64685-8).</ref>


Die [[orthogonale Regression]] ist ein wichtiger Spezialfall der Deming-Regression; sie behandelt den Fall <math>\delta = 1</math>. Die Deming-Regression wiederum ist ein Spezialfall der [[York-Regression]].
Die [[orthogonale Regression]] ist ein wichtiger Spezialfall der Deming-Regression; sie behandelt den Fall <math>\delta = 1</math>. Die Deming-Regression wiederum ist ein Spezialfall der [[York-Regression]].
Zeile 31: Zeile 31:
:<math>s_{xy} = \tfrac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})(y_i-\overline{y})</math> &nbsp;&nbsp;&nbsp;&nbsp;([[Stichprobenkovarianz]] der <math>(x_i, y_i)</math>).
:<math>s_{xy} = \tfrac{1}{n-1}\sum_{i=1}^n (x_i-\overline{x})(y_i-\overline{y})</math> &nbsp;&nbsp;&nbsp;&nbsp;([[Stichprobenkovarianz]] der <math>(x_i, y_i)</math>).


Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:<ref>P. Glaister: '' Least squares revisited''. '' The Mathematical Gazette''. Vol. 85 (2001), S. 104–107, {{JSTOR|3620485}}.</ref>
Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:<ref>Paul Glaister: ''Least squares revisited.'' In: ''[[The Mathematical Gazette]].'' Band 85, Nummer 502, 2001, S. 104–107, {{JSTOR|3620485}}.</ref>


:<math>\beta_1 = \frac{s_y^2 - \delta s_x^2 + \sqrt{(s_y^2 - \delta s_x^2)^2 + 4 \delta s_{xy}^2}}{2s_{xy}}</math>
:<math>\beta_1 = \frac{s_y^2 - \delta s_x^2 + \sqrt{(s_y^2 - \delta s_x^2)^2 + 4 \delta s_{xy}^2}}{2s_{xy}}</math>
Zeile 42: Zeile 42:


== Erweiterung York-Regression ==
== Erweiterung York-Regression ==
York-Regression erweitert die Deming-Regression, da es korrelierte x- und y-Fehler erlaubt<ref>York, D., Evensen, N. M., Martınez, M. L., and Delgado, J. D. B.: Unified equations for the slope, intercept, and standard errors of the best straight line, Am. J. Phys., 72, 367–375, 2004, {{DOI|10.1119/1.1632486}}.</ref>.
York-Regression erweitert die Deming-Regression, da es korrelierte x- und y-Fehler erlaubt<ref>Derek York, Norman M. Evensen, Margarita López Martı́nez, Jonás De Basabe Delgado: ''Unified equations for the slope, intercept, and standard errors of the best straight line.'' In: ''[[American Journal of Physics]].'' Band 72, 2004, S. 367–375, {{DOI|10.1119/1.1632486}}.</ref>.


== Einzelnachweise ==
== Einzelnachweise ==

Version vom 19. Februar 2024, 16:35 Uhr

Deming-Regression

In der Statistik wird mit der Deming-Regression eine Ausgleichsgerade für eine endliche Menge metrisch skalierter Datenpaare () nach der Methode der kleinsten Quadrate bestimmt. Es handelt sich um eine Variante der linearen Regression. Bei der Deming-Regression werden die Residuen (Messfehler) sowohl für die - als auch für die -Werte in das Modell einbezogen.

Die Deming-Regression ist somit ein Spezialfall der Regressionsanalyse; sie beruht auf einer Maximum-Likelihood-Schätzung der Regressionsparameter, bei der die Residuen beider Variablen als unabhängig und normalverteilt angenommen werden und der Quotient ihrer Varianzen als bekannt unterstellt wird.

Die Deming-Regression geht auf eine Arbeit von C.H. Kummell (1879) zurück;[1] 1937 wurde die Methode von T.C. Koopmans wieder aufgegriffen[2] und in allgemeinerem Rahmen 1943 von W. E. Deming für technische und ökonomische Anwendungen bekannt gemacht.[3]

Die orthogonale Regression ist ein wichtiger Spezialfall der Deming-Regression; sie behandelt den Fall . Die Deming-Regression wiederum ist ein Spezialfall der York-Regression.

Rechenweg

Die gemessenen Werte und werden als Summen der „wahren Werte bzw. und der „Fehler“ bzw. aufgefasst, d. h. Die Datenpaare () liegen auf der zu berechnenden Geraden. und seien unabhängig mit und . Bekannt sei zumindest der Quotient der Fehlervarianzen .

Es wird eine Gerade

gesucht, die die gewichtete Residuenquadratsumme minimiert:

Für die weitere Rechnung werden die folgenden Hilfswerte benötigt:

    (arithmetisches Mittel der )
    (arithmetisches Mittel der )
    (Stichprobenvarianz der )
    (Stichprobenvarianz der )
    (Stichprobenkovarianz der ).

Damit ergeben sich die Parameter zur Lösung des Minimierungsproblems:[4]

.

Die -Koordinaten berechnet man mit

.

Erweiterung York-Regression

York-Regression erweitert die Deming-Regression, da es korrelierte x- und y-Fehler erlaubt[5].

Einzelnachweise

  1. Charles H. Kummell: Reduction of observation equations which contain more than one observed quantity. In: The Analyst. Band 6, Nummer 4, 1879, S. 97–105, JSTOR:2635646.
  2. Tjalling Koopmans: Linear regression analysis of economic time series (= Publications of the Netherland Economic Institute. 20). De Erven F. Bohn, Haarlem 1937.
  3. W. Edwards Deming: Statistical adjustment of data. Wiley u. a., New York NY 1943, (Unabriged and corrected republication. Dover Publications, New York NY 1985, ISBN 0-486-64685-8).
  4. Paul Glaister: Least squares revisited. In: The Mathematical Gazette. Band 85, Nummer 502, 2001, S. 104–107, JSTOR:3620485.
  5. Derek York, Norman M. Evensen, Margarita López Martı́nez, Jonás De Basabe Delgado: Unified equations for the slope, intercept, and standard errors of the best straight line. In: American Journal of Physics. Band 72, 2004, S. 367–375, doi:10.1119/1.1632486.