Bootstrap aggregating
Bagging (von engl. Bootstrap aggregating) ist eine Methode Vorhersagen aus verschiedenen Regressions- oder Klassifikationsmodellen zu kombinieren und wurde von Leo Breiman entwickelt.[1]. Die Ergebnisse der Modelle werden dann im einfachsten Fall gemittelt, d.h. das Ergebnis jeder Modellvorhersage geht mit gleichen Gewicht in die Vorhersage ein.
Im Idealfall zieht man Stichproben des Umfanges aus der Grundgesamtheit und erstellt Vorhersagemodelle (). Für eine Wert ergeben sich dann Vorherssagewerte . Ist der Vorhersagewert eine Klassenzugehörigkeit, dann könnte die am häufigsten vorhergesagte Klasse als Vorhersagewert genommen werden. Im Regressionsfall ergibt sich der Vorhersagewert als
oder allgemein mit Gewichten
- .
Die Gewichte, sowohl im Klassifikations- als auch im Regressionfall, könnten z.B. von der Qualität der Modellvorhersage abhängen, d.h. "gute" Modelle gehen mit einem größeren Gewicht ein als "schlechte" Modelle.
Das Bagging führt im Fall von instabilen Modellen, d.h. Modelle in denen sich die Struktur stark in Abhängigkeit der Stichprobendaten ändert (siehe z.B. Classification and Regression Trees) meist zu deutlich verbesserten Vorhersagen.
Einzelnachweise
- ↑ Leo Breiman: Bagging predictors. In: Machine Learning. 24. Jahrgang, Nr. 2, 1996, S. 123–140, doi:10.1007/BF00058655 (psu.edu [PDF]).
Literatur
- Ian H. Witten, Eibe Frank, Mark A. Hall (2011), Data Mining: Practical Machine Learning Tools and Techniques (Third Edition), Morgan Kaufmann