Zum Inhalt springen

Bootstrap aggregating

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 31. März 2023 um 21:57 Uhr durch Biggerj1 (Diskussion | Beiträge) (Siehe auch). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Illustration des Baggingkonzeptes

Bootstrap aggregating (Bagging) ist eine Ensemble-learning-Methode, um Vorhersagen aus verschiedenen Regressions- oder Klassifikationsmodellen (mit hoher Varianz in der Vorhersage) zu kombinieren und dadurch die Varianz zu verringern. Die Methode wurde ursprünglich von Leo Breiman entwickelt.[1] Die Ergebnisse der Modelle werden dann im einfachsten Fall gemittelt, d. h. das Ergebnis jeder Modellvorhersage geht mit gleichem Gewicht in die Vorhersage ein.

Zunächst wird mithilfe des Bootstrapping-Verfahrens Stichprobenwiederholungen des Umfanges aus dem Originaldatensatz erzeugt und auf diesen werden dann Vorhersagemodelle () trainiert. Für einen Wert ergeben sich dann Vorhersagewerte . Ist der Vorhersagewert eine Klassenzugehörigkeit, dann könnte die am häufigsten vorhergesagte Klasse als Vorhersagewert genommen werden. Im Regressionsfall ergibt sich der Vorhersagewert als

oder allgemein mit Gewichten

.

Die Gewichte, sowohl im Klassifikations- als auch im Regressionsfall, könnten z. B. von der Qualität der Modellvorhersage abhängen, d. h. „gute“ Modelle gehen mit einem größeren Gewicht ein als „schlechte“ Modelle.

Das Bagging führt im Fall von instabilen Modellen, d. h. Modellen, in denen sich die Struktur stark in Abhängigkeit von den Stichprobendaten ändert (siehe z. B. Classification and Regression Trees), meist zu deutlich verbesserten Vorhersagen.

Siehe auch

Einzelnachweise

  1. Leo Breiman: Bagging predictors. In: Machine Learning. 24. Jahrgang, Nr. 2, 1996, S. 123–140, doi:10.1007/BF00058655 (psu.edu [PDF]).

Literatur

  • Ian H. Witten, Eibe Frank, Mark A. Hall (2011), Data Mining: Practical Machine Learning Tools and Techniques (Third Edition), Morgan Kaufmann