Zum Inhalt springen

Maximum-a-posteriori-Schätzung

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 16. Januar 2011 um 13:39 Uhr durch Bw234 (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die Maximum-A-Posteriori-Methode (=MAP) bezeichnet in der Statistik ein Schätzverfahren, das einen vorgegebenen Parameter durch den Modalwert der a-posteriori-Verteilung schätzt. Somit besteht eine gewisse Ähnlichkeit zur Maximum-Likelihood-Methode.

Beschreibung

Folgende Situation ist gegeben: ist ein unbekannter Populationsparameter, der auf der Basis von Beobachtungen geschätzt werden soll. Weiterhin ist die Stichprobenverteilung von. Dann ist die Wahrscheinlichkeit von unter der Bedingung dass der (wahre) Populationsparameter den Wert annimmt.

Die Funktion

ist als Likelihoodfunktion bekannt, und der Schätzwert

als Maximum-Likelihood-Schätzer von .

Jetzt nehmen wir an, dass eine a-priori-Verteilung over existiert. Dadurch können wir als eine Zufallsvariable betrachten (ähnlich wie in der Bayesschen Statistik. Die A-posteriori-Wahrscheinlichkeit von erhält man mit Hilfe des Bayestheorems durch:

Hier steht für die auf definierte Dichte von .

Die Maximum a Posteriori-Methode verwendet jetzt den Modalwert der A-Posteriori-Verteilung als Schätzwert für  :

Der MAP-Schätzer von ist identisch zum ML-Schätzer, wenn eine nichtinformative A-Priori-Verteilung (z.B. eine konstante Funktion) verwendet wird.

Diskussion

In der Literatur wird der MAP-Schätzer als das Äquivalent der bayesianischen Statistik zum ML-Schätzer beschrieben[1]. Weiterhin kann die MAP-Methode für eine 0-1-Verlustfunktion als Limes von Bayes-Schätzern interpretiert werden. Andererseits ist die MAP-Schätzung keine typisch bayesianische Methode:

  • Bayesianische Statistiker drücken in der Regel die (A-posteriori-)Information über einen unbekannten Parameter in einer Wahrscheinlichkeitsverteilung aus, und nicht in einem Punktschätzer.
  • Falls doch ein Punktschätzer benötigt wird, verwenden Bayesianer eher den Erwartungswert der A-posteriori-Verteilung als den Modalwert, da der Erwartungswert die in der A-posteriori-Verteilung enthaltene Information besser zusammenfasst als der Modalwert.
  • Weiterhin kann gezeigt werden[2] dass der Erwartungswert der A-posteriori-Verteilung optimal unter einer quadratischen Verlustfunktion ist, ebenso wie der Median der A-posteriori-Verteilung bei einer linearen Verlustfunktion. Die MAP-Schätzung ist hingegen Limes von Bayes-Schätzern unter der 0-1-Verlustfunktion, die wesentlich seltener verwendet wird als z.B. eine quadratische Verlustfunktion.

Vergleich zur Maximum-Likelihood-Methode

Im Unterschied zur ML-Methode wird bei der MAP-Methode Vorwissen in Form von a-priori-Wahrscheinlichkeiten berücksichtigt. Diese A-priori-Wahrscheinlichkeiten ergeben zusammen mit der Stichprobe nach dem Satz von Bayes die A-posteriori-Wahrscheinlichkeit. Die MAP-Methode verwendet den wahrscheinlichsten Parameterwert unter der A-posteriori-Verteilung, während die ML-Methode den Parameter mit der höchsten Likelihood (i.e. ohne Vorwissen) verwendet.

Diese Verwendung von Vorwissen ermöglicht genauere Schätzungen, insbesondere bei kleinen Stichproben. Andererseits ist für einen streng frequentistischen Statistiker die Verwendung einer A-Priori-Verteilung inakzeptabel.

Siehe auch

Einzelnachweise

  1. Bernhard Rüger: Induktive Statistik. Einführung für Wirtschafts- und Sozialwissenschaftler, S. 161f
  2. Maximum a posteriori in der englischen Wikipedia

Literatur

  • Bernhard Rüger: Induktive Statistik. Einführung für Wirtschafts- und Sozialwissenschaftler,R. Oldenbourg Verlag, München Wien 1988. ISBN 3-486-20535-8
  • J. O. Berger: Statistical decision theory: foundations, concepts and methods. Springer-Verlag 1980, New York, Springer Series in Statistics.