Zum Inhalt springen

Parzen-Tree Estimator

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 16. Oktober 2022 um 17:49 Uhr durch GünniX (Diskussion | Beiträge) (Tippfehler korrigiert). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Dieser Artikel wurde am 12. Oktober 2022 auf den Seiten der Qualitätssicherung eingetragen. Bitte hilf mit, ihn zu verbessern, und beteilige dich bitte an der Diskussion!
Folgendes muss noch verbessert werden: eindeutschen, falls relevant Flossenträger 23:16, 12. Okt. 2022 (CEST)

Tree-structured Parzen Estimator (kurz Parzen-Tree Estimator oder TPE) sind Schätzer, die unter anderem in der bayesschen Hyperparameteroptimierung verwendet werden, um eine Approximation einer eigentlichen gesuchten Zielfunktion zu konstruieren ( ist der Konfigurationsraum, eine Menge von Hyperparameter und ein Score der Zielfunktion).

Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion kostspielig ist (z. B. die passende Anzahl an Layers für ein Deep Neural Network zu finden), deshalb möcht man mit Hilfe der die besten Hyperparameter finden, welche später dann in eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.

Die Funktion wird auch Surrogatsfunktion (oder surrogat probability model) genannt und wird nicht direkt modelliert, stattdessen wendet man den Satz von Bayes an

und modelliert und . Für gibt es keine spezifische Anforderungen.

Die Funktion wird durch Einführung eines Schwellenwertes in zwei Dichten aufgeteilt, so dass diese nicht mehr von abhängen

Der Schwellenwert ist dabei ein -Quantil, das heißt .

Die Dichten und werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für werden die Observationen mit verwendet. Die restlichen Observationen, für die gelten, werden zur Konstruktion von benötigt.[1]

Einzelnachweise

  1. J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: Algorithms for Hyper-Parameter Optimization. Advances in Neural Information Processing Systems: 2546–2554 (2011)