https://de.wikipedia.org/w/index.php?action=history&feed=atom&title=Parzen-Tree_Estimator Parzen-Tree Estimator - Versionsgeschichte 2025-06-05T22:27:19Z Versionsgeschichte dieser Seite in Wikipedia MediaWiki 1.45.0-wmf.4 https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242174596&oldid=prev GünniX: WPCleaner v2.05 - Wikipedia:WPSK (Klammern nicht korrekt) 2024-02-14T05:12:42Z <p><a href="https://en.wikipedia.org/wiki/WP:CLEANER" class="extiw" title="en:WP:CLEANER">WPCleaner</a> v2.05 - <a href="/wiki/Wikipedia:WPSK" class="mw-redirect" title="Wikipedia:WPSK">Wikipedia:WPSK</a> (Klammern nicht korrekt)</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 14. Februar 2024, 07:12 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 13:</td> <td colspan="2" class="diff-lineno">Zeile 13:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert &lt;math&gt;y^*&lt;/math&gt; ist dabei ein &lt;math&gt;\alpha&lt;/math&gt;-Quantil, das heißt &lt;math&gt;p(y\leq y^{*})=\alpha&lt;/math&gt;. </div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert &lt;math&gt;y^*&lt;/math&gt; ist dabei ein &lt;math&gt;\alpha&lt;/math&gt;-Quantil, das heißt &lt;math&gt;p(y\leq y^{*})=\alpha&lt;/math&gt;. </div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten &lt;math&gt;l(x)&lt;/math&gt; und &lt;math&gt;g(x)&lt;/math&gt; werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für &lt;math&gt;l(x)&lt;/math&gt; werden die Observationen &lt;math&gt;\{x_i\}&lt;/math&gt; mit &lt;math&gt;f(x_i)&lt;y^*&lt;/math&gt; verwendet. Die restlichen Observationen, für die &lt;math&gt;f(x_k)&gt;y^*&lt;/math&gt; gelten, werden zur Konstruktion von &lt;math&gt;g(x)&lt;/math&gt; benötigt.&lt;ref&gt;J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: ''Algorithms for Hyper-Parameter Optimization.'' In: ''Advances in Neural Information Processing Systems.'' 2011, S. 2546–2554 <del style="font-weight: bold; text-decoration: none;">[</del>[http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf </div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten &lt;math&gt;l(x)&lt;/math&gt; und &lt;math&gt;g(x)&lt;/math&gt; werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für &lt;math&gt;l(x)&lt;/math&gt; werden die Observationen &lt;math&gt;\{x_i\}&lt;/math&gt; mit &lt;math&gt;f(x_i)&lt;y^*&lt;/math&gt; verwendet. Die restlichen Observationen, für die &lt;math&gt;f(x_k)&gt;y^*&lt;/math&gt; gelten, werden zur Konstruktion von &lt;math&gt;g(x)&lt;/math&gt; benötigt.&lt;ref&gt;J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: ''Algorithms for Hyper-Parameter Optimization.'' In: ''Advances in Neural Information Processing Systems.'' 2011, S. 2546–2554 <ins style="font-weight: bold; text-decoration: none;">(</ins>[http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf <ins style="font-weight: bold; text-decoration: none;">PDF]).&lt;/ref&gt;</ins></div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div> PDF].&lt;/ref&gt;</div></td> <td colspan="2" class="diff-empty diff-side-added"></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td> </tr> </table> GünniX https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242159437&oldid=prev Georg Hügler: wieviel Euro kostet so etwas? 2024-02-13T17:28:57Z <p>wieviel Euro kostet so etwas?</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 13. Februar 2024, 19:28 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; ist <del style="font-weight: bold; text-decoration: none;">kostspielig</del> (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möchte man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Es wird angenommen, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; ist <ins style="font-weight: bold; text-decoration: none;">„kostspielig“</ins> (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möchte man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Es wird angenommen, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> </tr> </table> Georg Hügler https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242158293&oldid=prev Georg Hügler: eher so 2024-02-13T16:43:38Z <p>eher so</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 13. Februar 2024, 18:43 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 13:</td> <td colspan="2" class="diff-lineno">Zeile 13:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert &lt;math&gt;y^*&lt;/math&gt; ist dabei ein &lt;math&gt;\alpha&lt;/math&gt;-Quantil, das heißt &lt;math&gt;p(y\leq y^{*})=\alpha&lt;/math&gt;. </div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert &lt;math&gt;y^*&lt;/math&gt; ist dabei ein &lt;math&gt;\alpha&lt;/math&gt;-Quantil, das heißt &lt;math&gt;p(y\leq y^{*})=\alpha&lt;/math&gt;. </div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten &lt;math&gt;l(x)&lt;/math&gt; und &lt;math&gt;g(x)&lt;/math&gt; werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für &lt;math&gt;l(x)&lt;/math&gt; werden die Observationen &lt;math&gt;\{x_i\}&lt;/math&gt; mit &lt;math&gt;f(x_i)&lt;y^*&lt;/math&gt; verwendet. Die restlichen Observationen, für die &lt;math&gt;f(x_k)&gt;y^*&lt;/math&gt; gelten, werden zur Konstruktion von &lt;math&gt;g(x)&lt;/math&gt; benötigt.&lt;ref&gt;J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: [http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf <del style="font-weight: bold; text-decoration: none;">Algorithms for Hyper-Parameter Optimization</del>].<del style="font-weight: bold; text-decoration: none;"> Advances in Neural Information Processing Systems: 2546–2554 (2011)</del>&lt;/ref&gt;</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten &lt;math&gt;l(x)&lt;/math&gt; und &lt;math&gt;g(x)&lt;/math&gt; werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für &lt;math&gt;l(x)&lt;/math&gt; werden die Observationen &lt;math&gt;\{x_i\}&lt;/math&gt; mit &lt;math&gt;f(x_i)&lt;y^*&lt;/math&gt; verwendet. Die restlichen Observationen, für die &lt;math&gt;f(x_k)&gt;y^*&lt;/math&gt; gelten, werden zur Konstruktion von &lt;math&gt;g(x)&lt;/math&gt; benötigt.&lt;ref&gt;J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: <ins style="font-weight: bold; text-decoration: none;">''Algorithms for Hyper-Parameter Optimization.'' In: ''Advances in Neural Information Processing Systems.'' 2011, S. 2546–2554 [</ins>[http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf </div></td> </tr> <tr> <td colspan="2" class="diff-empty diff-side-deleted"></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div><ins style="font-weight: bold; text-decoration: none;"> PDF</ins>].&lt;/ref&gt;</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td> </tr> </table> Georg Hügler https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242155965&oldid=prev Georg Hügler: wer ist "wir"? 2024-02-13T15:22:04Z <p>wer ist &quot;wir&quot;?</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 13. Februar 2024, 17:22 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; ist kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möchte man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. <del style="font-weight: bold; text-decoration: none;">Wir</del> <del style="font-weight: bold; text-decoration: none;">nehmen</del> <del style="font-weight: bold; text-decoration: none;">an</del>, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; ist kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möchte man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. <ins style="font-weight: bold; text-decoration: none;">Es</ins> <ins style="font-weight: bold; text-decoration: none;">wird</ins> <ins style="font-weight: bold; text-decoration: none;">angenommen</ins>, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> </tr> </table> Georg Hügler https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242155830&oldid=prev 217.241.1.97: Schreibfehler korrigiert 2024-02-13T15:15:52Z <p>Schreibfehler korrigiert</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 13. Februar 2024, 17:15 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; ist kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb <del style="font-weight: bold; text-decoration: none;">möcht</del> man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; ist kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb <ins style="font-weight: bold; text-decoration: none;">möchte</ins> man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> </tr> </table> 217.241.1.97 https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=234254262&oldid=prev Biggerj1 am 2. Juni 2023 um 16:01 Uhr 2023-06-02T16:01:18Z <p></p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 2. Juni 2023, 18:01 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die <del style="font-weight: bold; text-decoration: none;">Idee dahinter ist, dass das Auswerten</del> der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; kostspielig<del style="font-weight: bold; text-decoration: none;"> ist</del> (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die <ins style="font-weight: bold; text-decoration: none;">Auswertung</ins> der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt;<ins style="font-weight: bold; text-decoration: none;"> ist</ins> kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> </tr> </table> Biggerj1 https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=234241021&oldid=prev Biggerj1 am 2. Juni 2023 um 05:37 Uhr 2023-06-02T05:37:40Z <p></p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 2. Juni 2023, 07:37 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 3:</td> <td colspan="2" class="diff-lineno">Zeile 3:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die <del style="font-weight: bold; text-decoration: none;">Funktion</del> &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''<del style="font-weight: bold; text-decoration: none;">Surrogatsfunktion</del>'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die <ins style="font-weight: bold; text-decoration: none;">Wahrscheinlichkeitsdichte</ins> &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''<ins style="font-weight: bold; text-decoration: none;">Surrogatmodell</ins>'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:&lt;math&gt;p(y|x)=\frac{p(x|y)p(y)}{p(x)}&lt;/math&gt;</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:&lt;math&gt;p(y|x)=\frac{p(x|y)p(y)}{p(x)}&lt;/math&gt;</div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>und modelliert &lt;math&gt;p(x|y)&lt;/math&gt; und &lt;math&gt;p(y)&lt;/math&gt;<del style="font-weight: bold; text-decoration: none;">. Für &lt;math&gt;p(y)&lt;/math&gt; gibt es keine spezifische Anforderungen</del>.</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>und modelliert &lt;math&gt;p(x|y)&lt;/math&gt; und &lt;math&gt;p(y)&lt;/math&gt;.</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Funktion &lt;math&gt;p(x|y)&lt;/math&gt; wird durch Einführung eines Schwellenwertes &lt;math&gt;y^*&lt;/math&gt; in zwei Dichten aufgeteilt, so dass diese nicht mehr von &lt;math&gt;y&lt;/math&gt; abhängen</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Funktion &lt;math&gt;p(x|y)&lt;/math&gt; wird durch Einführung eines Schwellenwertes &lt;math&gt;y^*&lt;/math&gt; in zwei Dichten aufgeteilt, so dass diese nicht mehr von &lt;math&gt;y&lt;/math&gt; abhängen</div></td> </tr> </table> Biggerj1 https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=228435982&oldid=prev Georg Hügler: vgl. WP:Allgemeinverständlichkeit 2022-11-30T12:33:10Z <p>vgl. <a href="/wiki/Wikipedia:Allgemeinverst%C3%A4ndlichkeit" title="Wikipedia:Allgemeinverständlichkeit">WP:Allgemeinverständlichkeit</a></p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 30. November 2022, 14:33 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind <del style="font-weight: bold; text-decoration: none;">Schätzer</del>, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind <ins style="font-weight: bold; text-decoration: none;">[[Schätzfunktion]]en</ins>, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> </tr> </table> Georg Hügler https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=227838283&oldid=prev Wikinger08: QS erledigt 2022-11-10T07:53:26Z <p>QS erledigt</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 10. November 2022, 09:53 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td colspan="2" class="diff-empty diff-side-deleted"></td> <td class="diff-marker"><a class="mw-diff-movedpara-right" title="Der Absatz wurde verschoben. Klicken, um zur alten Stelle zu springen." href="#movedpara_2_0_lhs">&#x26AB;</a></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div><a name="movedpara_0_0_rhs"></a>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder <ins style="font-weight: bold; text-decoration: none;">'''</ins>TPE<ins style="font-weight: bold; text-decoration: none;">'''</ins>) sind Schätzer, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>{{QS-Antrag|12. Oktober 2022|2=''eindeutschen, falls relevant'' [[Benutzer:Flossenträger|Flossenträger]] 23:16, 12. Okt. 2022 (CEST)}}</div></td> <td colspan="2" class="diff-empty diff-side-added"></td> </tr> <tr> <td class="diff-marker"><a class="mw-diff-movedpara-left" title="Der Absatz wurde verschoben. Klicken, um zur neuen Stelle zu springen." href="#movedpara_0_0_rhs">&#x26AB;</a></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div><a name="movedpara_2_0_lhs"></a>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder TPE) sind Schätzer, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> <td colspan="2" class="diff-empty diff-side-added"></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> </tr> <tr> <td colspan="2" class="diff-lineno">Zeile 17:</td> <td colspan="2" class="diff-lineno">Zeile 16:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>&lt;references/&gt;</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>&lt;references<ins style="font-weight: bold; text-decoration: none;"> </ins>/&gt;</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td colspan="2" class="diff-empty diff-side-deleted"></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>{{SORTIERUNG:Parzentree Estimator}}</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Kategorie:Schätztheorie]]</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Kategorie:Schätztheorie]]</div></td> </tr> </table> Wikinger08 https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=227090591&oldid=prev GünniX: Tippfehler korrigiert 2022-10-16T15:49:56Z <p>Tippfehler korrigiert</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 16. Oktober 2022, 17:49 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 2:</td> <td colspan="2" class="diff-lineno">Zeile 2:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder TPE) sind Schätzer, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder TPE) sind Schätzer, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation &lt;math&gt;p(y|x)&lt;/math&gt; einer eigentlichen gesuchten Zielfunktion &lt;math&gt;f:\mathcal{X}\to \mathbb{R}&lt;/math&gt; zu konstruieren (&lt;math&gt;\mathcal{X}&lt;/math&gt; ist der Konfigurationsraum, &lt;math&gt;x&lt;/math&gt; eine Menge von Hyperparameter und &lt;math&gt;y=f(x)&lt;/math&gt; ein ''Score'' der Zielfunktion).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; <del style="font-weight: bold; text-decoration: none;">kostenspielig</del> ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion &lt;math&gt;f&lt;/math&gt; <ins style="font-weight: bold; text-decoration: none;">kostspielig</ins> ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der &lt;math&gt;p(y|x)&lt;/math&gt; die besten Hyperparameter &lt;math&gt;x&lt;/math&gt; finden, welche später dann in &lt;math&gt;f&lt;/math&gt; eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum &lt;math&gt;\mathcal{X}&lt;/math&gt; eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Funktion &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatsfunktion'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Funktion &lt;math&gt;p(y|x)&lt;/math&gt; wird auch ''Surrogatsfunktion'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td> </tr> <tr> <td colspan="2" class="diff-lineno">Zeile 12:</td> <td colspan="2" class="diff-lineno">Zeile 12:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>g(x) &amp;\text{ falls } y\geq y^*. \end{cases}&lt;/math&gt;</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>g(x) &amp;\text{ falls } y\geq y^*. \end{cases}&lt;/math&gt;</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert &lt;math&gt;y^*&lt;/math&gt; ist dabei ein &lt;math&gt;\alpha&lt;/math&gt;-Quantil, das <del style="font-weight: bold; text-decoration: none;">heisst</del> &lt;math&gt;p(y\leq y^{*})=\alpha&lt;/math&gt;. </div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert &lt;math&gt;y^*&lt;/math&gt; ist dabei ein &lt;math&gt;\alpha&lt;/math&gt;-Quantil, das <ins style="font-weight: bold; text-decoration: none;">heißt</ins> &lt;math&gt;p(y\leq y^{*})=\alpha&lt;/math&gt;. </div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten &lt;math&gt;l(x)&lt;/math&gt; und &lt;math&gt;g(x)&lt;/math&gt; werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für &lt;math&gt;l(x)&lt;/math&gt; werden die Observationen &lt;math&gt;\{x_i\}&lt;/math&gt; mit &lt;math&gt;f(x_i)&lt;y^*&lt;/math&gt; verwendet. Die restlichen Observationen, für die &lt;math&gt;f(x_k)&gt;y^*&lt;/math&gt; gelten, werden zur Konstruktion von &lt;math&gt;g(x)&lt;/math&gt; benötigt.&lt;ref&gt;J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: [http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf Algorithms for Hyper-Parameter Optimization]. Advances in Neural Information Processing Systems: 2546–2554 (2011)&lt;/ref&gt;</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten &lt;math&gt;l(x)&lt;/math&gt; und &lt;math&gt;g(x)&lt;/math&gt; werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für &lt;math&gt;l(x)&lt;/math&gt; werden die Observationen &lt;math&gt;\{x_i\}&lt;/math&gt; mit &lt;math&gt;f(x_i)&lt;y^*&lt;/math&gt; verwendet. Die restlichen Observationen, für die &lt;math&gt;f(x_k)&gt;y^*&lt;/math&gt; gelten, werden zur Konstruktion von &lt;math&gt;g(x)&lt;/math&gt; benötigt.&lt;ref&gt;J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: [http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf Algorithms for Hyper-Parameter Optimization]. Advances in Neural Information Processing Systems: 2546–2554 (2011)&lt;/ref&gt;</div></td> </tr> </table> GünniX