Die Maximum-A-Posteriori-Methode (=MAP) bezeichnet in der Statistik ein Schätzverfahren, das einen vorgegebenen Parameter durch den Modalwert der a-posteriori-Verteilung schätzt. Somit besteht eine gewisse Ähnlichkeit zur Maximum-Likelihood-Methode.
Beschreibung
Folgende Situation ist gegeben: ist ein unbekannter Populationsparameter, der auf der Basis von Beobachtungen geschätzt werden soll. Weiterhin ist die Stichprobenverteilung von . Dann ist die Wahrscheinlichkeit von unter der Bedingung dass der (wahre) Populationsparameter den Wert annimmt.
Die Funktion
ist als Likelihoodfunktion bekannt, und der Schätzwert
als Maximum-Likelihood-Schätzer von .
Jetzt nehmen wir an, dass eine a-priori-Verteilung over existiert. Dadurch können wir als eine Zufallsvariable betrachten (ähnlich wie in der Bayesschen Statistik. Die A-posteriori-Wahrscheinlichkeit von erhält man mit Hilfe des Bayestheorems durch:
Hier steht für die auf definierte Dichte von .
Die Maximum a Posteriori-Methode verwendet jetzt den Modalwert der A-Posteriori-Verteilung als Schätzwert für :
Der MAP-Schätzer von ist identisch zum ML-Schätzer, wenn eine nichtinformative A-Priori-Verteilung (z.B. eine konstante Funktion) verwendet wird.
Diskussion
In der Literatur wird der MAP-Schätzer als das Äquivalent der bayesianischen Statistik zum ML-Schätzer beschrieben[1]. Weiterhin kann die MAP-Methode für eine 0-1-Verlustfunktion als Limes von Bayes-Schätzern interpretiert werden. Andererseits ist die MAP-Schätzung keine typisch bayesianische Methode:
- Bayesianische Statistiker drücken in der Regel die (A-posteriori-)Information über einen unbekannten Parameter in einer Wahrscheinlichkeitsverteilung aus, und nicht in einem Punktschätzer.
- Falls doch ein Punktschätzer benötigt wird, verwenden Bayesianer eher den Erwartungswert der A-posteriori-Verteilung als den Modalwert, da der Erwartungswert die in der A-posteriori-Verteilung enthaltene Information besser zusammenfasst als der Modalwert.
- Weiterhin kann gezeigt werden[2] dass der Erwartungswert der A-posteriori-Verteilung optimal unter einer quadratischen Verlustfunktion ist, ebenso wie der Median der A-posteriori-Verteilung bei einer linearen Verlustfunktion. Die MAP-Schätzung ist hingegen Limes von Bayes-Schätzern unter der 0-1-Verlustfunktion, die wesentlich seltener verwendet wird als z.B. eine quadratische Verlustfunktion.
Vergleich zur Maximum-Likelihood-Methode
Im Unterschied zur ML-Methode wird bei der MAP-Methode Vorwissen in Form von a-priori-Wahrscheinlichkeiten berücksichtigt. Diese A-priori-Wahrscheinlichkeiten ergeben zusammen mit der Stichprobe nach dem Satz von Bayes die A-posteriori-Wahrscheinlichkeit. Die MAP-Methode verwendet den wahrscheinlichsten Parameterwert unter der A-posteriori-Verteilung, während die ML-Methode den Parameter mit der höchsten Likelihood (i.e. ohne Vorwissen) verwendet.
Diese Verwendung von Vorwissen ermöglicht genauere Schätzungen, insbesondere bei kleinen Stichproben. Andererseits ist für einen streng frequentistischen Statistiker die Verwendung einer A-Priori-Verteilung inakzeptabel.
Siehe auch
Einzelnachweise
- ↑ Bernhard Rüger: Induktive Statistik. Einführung für Wirtschafts- und Sozialwissenschaftler, S. 161f
- ↑ Maximum a posteriori in der englischen Wikipedia
Literatur
- Bernhard Rüger: Induktive Statistik. Einführung für Wirtschafts- und Sozialwissenschaftler,R. Oldenbourg Verlag, München Wien 1988. ISBN 3-486-20535-8
- J. O. Berger: Statistical decision theory: foundations, concepts and methods. Springer-Verlag 1980, New York, Springer Series in Statistics.