https://de.wikipedia.org/w/index.php?action=history&feed=atom&title=Parzen-Tree_Estimator
Parzen-Tree Estimator - Versionsgeschichte
2025-06-05T22:27:19Z
Versionsgeschichte dieser Seite in Wikipedia
MediaWiki 1.45.0-wmf.4
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242174596&oldid=prev
GünniX: WPCleaner v2.05 - Wikipedia:WPSK (Klammern nicht korrekt)
2024-02-14T05:12:42Z
<p><a href="https://en.wikipedia.org/wiki/WP:CLEANER" class="extiw" title="en:WP:CLEANER">WPCleaner</a> v2.05 - <a href="/wiki/Wikipedia:WPSK" class="mw-redirect" title="Wikipedia:WPSK">Wikipedia:WPSK</a> (Klammern nicht korrekt)</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 14. Februar 2024, 07:12 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 13:</td>
<td colspan="2" class="diff-lineno">Zeile 13:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert <math>y^*</math> ist dabei ein <math>\alpha</math>-Quantil, das heißt <math>p(y\leq y^{*})=\alpha</math>. </div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert <math>y^*</math> ist dabei ein <math>\alpha</math>-Quantil, das heißt <math>p(y\leq y^{*})=\alpha</math>. </div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten <math>l(x)</math> und <math>g(x)</math> werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für <math>l(x)</math> werden die Observationen <math>\{x_i\}</math> mit <math>f(x_i)<y^*</math> verwendet. Die restlichen Observationen, für die <math>f(x_k)>y^*</math> gelten, werden zur Konstruktion von <math>g(x)</math> benötigt.<ref>J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: ''Algorithms for Hyper-Parameter Optimization.'' In: ''Advances in Neural Information Processing Systems.'' 2011, S. 2546–2554 <del style="font-weight: bold; text-decoration: none;">[</del>[http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf </div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten <math>l(x)</math> und <math>g(x)</math> werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für <math>l(x)</math> werden die Observationen <math>\{x_i\}</math> mit <math>f(x_i)<y^*</math> verwendet. Die restlichen Observationen, für die <math>f(x_k)>y^*</math> gelten, werden zur Konstruktion von <math>g(x)</math> benötigt.<ref>J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: ''Algorithms for Hyper-Parameter Optimization.'' In: ''Advances in Neural Information Processing Systems.'' 2011, S. 2546–2554 <ins style="font-weight: bold; text-decoration: none;">(</ins>[http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf <ins style="font-weight: bold; text-decoration: none;">PDF]).</ref></ins></div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div> PDF].</ref></div></td>
<td colspan="2" class="diff-empty diff-side-added"></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td>
</tr>
</table>
GünniX
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242159437&oldid=prev
Georg Hügler: wieviel Euro kostet so etwas?
2024-02-13T17:28:57Z
<p>wieviel Euro kostet so etwas?</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 13. Februar 2024, 19:28 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion <math>f</math> ist <del style="font-weight: bold; text-decoration: none;">kostspielig</del> (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möchte man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Es wird angenommen, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion <math>f</math> ist <ins style="font-weight: bold; text-decoration: none;">„kostspielig“</ins> (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möchte man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Es wird angenommen, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte <math>p(y|x)</math> wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte <math>p(y|x)</math> wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
</tr>
</table>
Georg Hügler
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242158293&oldid=prev
Georg Hügler: eher so
2024-02-13T16:43:38Z
<p>eher so</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 13. Februar 2024, 18:43 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 13:</td>
<td colspan="2" class="diff-lineno">Zeile 13:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert <math>y^*</math> ist dabei ein <math>\alpha</math>-Quantil, das heißt <math>p(y\leq y^{*})=\alpha</math>. </div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert <math>y^*</math> ist dabei ein <math>\alpha</math>-Quantil, das heißt <math>p(y\leq y^{*})=\alpha</math>. </div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten <math>l(x)</math> und <math>g(x)</math> werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für <math>l(x)</math> werden die Observationen <math>\{x_i\}</math> mit <math>f(x_i)<y^*</math> verwendet. Die restlichen Observationen, für die <math>f(x_k)>y^*</math> gelten, werden zur Konstruktion von <math>g(x)</math> benötigt.<ref>J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: [http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf <del style="font-weight: bold; text-decoration: none;">Algorithms for Hyper-Parameter Optimization</del>].<del style="font-weight: bold; text-decoration: none;"> Advances in Neural Information Processing Systems: 2546–2554 (2011)</del></ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten <math>l(x)</math> und <math>g(x)</math> werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für <math>l(x)</math> werden die Observationen <math>\{x_i\}</math> mit <math>f(x_i)<y^*</math> verwendet. Die restlichen Observationen, für die <math>f(x_k)>y^*</math> gelten, werden zur Konstruktion von <math>g(x)</math> benötigt.<ref>J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: <ins style="font-weight: bold; text-decoration: none;">''Algorithms for Hyper-Parameter Optimization.'' In: ''Advances in Neural Information Processing Systems.'' 2011, S. 2546–2554 [</ins>[http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf </div></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div><ins style="font-weight: bold; text-decoration: none;"> PDF</ins>].</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td>
</tr>
</table>
Georg Hügler
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242155965&oldid=prev
Georg Hügler: wer ist "wir"?
2024-02-13T15:22:04Z
<p>wer ist "wir"?</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 13. Februar 2024, 17:22 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion <math>f</math> ist kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möchte man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. <del style="font-weight: bold; text-decoration: none;">Wir</del> <del style="font-weight: bold; text-decoration: none;">nehmen</del> <del style="font-weight: bold; text-decoration: none;">an</del>, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion <math>f</math> ist kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möchte man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. <ins style="font-weight: bold; text-decoration: none;">Es</ins> <ins style="font-weight: bold; text-decoration: none;">wird</ins> <ins style="font-weight: bold; text-decoration: none;">angenommen</ins>, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte <math>p(y|x)</math> wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte <math>p(y|x)</math> wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
</tr>
</table>
Georg Hügler
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=242155830&oldid=prev
217.241.1.97: Schreibfehler korrigiert
2024-02-13T15:15:52Z
<p>Schreibfehler korrigiert</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 13. Februar 2024, 17:15 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion <math>f</math> ist kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb <del style="font-weight: bold; text-decoration: none;">möcht</del> man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Auswertung der eigentlichen Funktion <math>f</math> ist kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb <ins style="font-weight: bold; text-decoration: none;">möchte</ins> man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte <math>p(y|x)</math> wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte <math>p(y|x)</math> wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
</tr>
</table>
217.241.1.97
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=234254262&oldid=prev
Biggerj1 am 2. Juni 2023 um 16:01 Uhr
2023-06-02T16:01:18Z
<p></p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 2. Juni 2023, 18:01 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind [[Schätzfunktion]]en, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die <del style="font-weight: bold; text-decoration: none;">Idee dahinter ist, dass das Auswerten</del> der eigentlichen Funktion <math>f</math> kostspielig<del style="font-weight: bold; text-decoration: none;"> ist</del> (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die <ins style="font-weight: bold; text-decoration: none;">Auswertung</ins> der eigentlichen Funktion <math>f</math><ins style="font-weight: bold; text-decoration: none;"> ist</ins> kostspielig (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte <math>p(y|x)</math> wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Wahrscheinlichkeitsdichte <math>p(y|x)</math> wird auch ''Surrogatmodell'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
</tr>
</table>
Biggerj1
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=234241021&oldid=prev
Biggerj1 am 2. Juni 2023 um 05:37 Uhr
2023-06-02T05:37:40Z
<p></p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 2. Juni 2023, 07:37 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 3:</td>
<td colspan="2" class="diff-lineno">Zeile 3:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion <math>f</math> kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion <math>f</math> kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die <del style="font-weight: bold; text-decoration: none;">Funktion</del> <math>p(y|x)</math> wird auch ''<del style="font-weight: bold; text-decoration: none;">Surrogatsfunktion</del>'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die <ins style="font-weight: bold; text-decoration: none;">Wahrscheinlichkeitsdichte</ins> <math>p(y|x)</math> wird auch ''<ins style="font-weight: bold; text-decoration: none;">Surrogatmodell</ins>'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:<math>p(y|x)=\frac{p(x|y)p(y)}{p(x)}</math></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:<math>p(y|x)=\frac{p(x|y)p(y)}{p(x)}</math></div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>und modelliert <math>p(x|y)</math> und <math>p(y)</math><del style="font-weight: bold; text-decoration: none;">. Für <math>p(y)</math> gibt es keine spezifische Anforderungen</del>.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>und modelliert <math>p(x|y)</math> und <math>p(y)</math>.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Funktion <math>p(x|y)</math> wird durch Einführung eines Schwellenwertes <math>y^*</math> in zwei Dichten aufgeteilt, so dass diese nicht mehr von <math>y</math> abhängen</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Funktion <math>p(x|y)</math> wird durch Einführung eines Schwellenwertes <math>y^*</math> in zwei Dichten aufgeteilt, so dass diese nicht mehr von <math>y</math> abhängen</div></td>
</tr>
</table>
Biggerj1
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=228435982&oldid=prev
Georg Hügler: vgl. WP:Allgemeinverständlichkeit
2022-11-30T12:33:10Z
<p>vgl. <a href="/wiki/Wikipedia:Allgemeinverst%C3%A4ndlichkeit" title="Wikipedia:Allgemeinverständlichkeit">WP:Allgemeinverständlichkeit</a></p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 30. November 2022, 14:33 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind <del style="font-weight: bold; text-decoration: none;">Schätzer</del>, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder '''TPE''') sind <ins style="font-weight: bold; text-decoration: none;">[[Schätzfunktion]]en</ins>, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion <math>f</math> kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion <math>f</math> kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
</tr>
</table>
Georg Hügler
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=227838283&oldid=prev
Wikinger08: QS erledigt
2022-11-10T07:53:26Z
<p>QS erledigt</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 10. November 2022, 09:53 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker"><a class="mw-diff-movedpara-right" title="Der Absatz wurde verschoben. Klicken, um zur alten Stelle zu springen." href="#movedpara_2_0_lhs">⚫</a></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div><a name="movedpara_0_0_rhs"></a>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder <ins style="font-weight: bold; text-decoration: none;">'''</ins>TPE<ins style="font-weight: bold; text-decoration: none;">'''</ins>) sind Schätzer, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>{{QS-Antrag|12. Oktober 2022|2=''eindeutschen, falls relevant'' [[Benutzer:Flossenträger|Flossenträger]] 23:16, 12. Okt. 2022 (CEST)}}</div></td>
<td colspan="2" class="diff-empty diff-side-added"></td>
</tr>
<tr>
<td class="diff-marker"><a class="mw-diff-movedpara-left" title="Der Absatz wurde verschoben. Klicken, um zur neuen Stelle zu springen." href="#movedpara_0_0_rhs">⚫</a></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div><a name="movedpara_2_0_lhs"></a>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder TPE) sind Schätzer, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
<td colspan="2" class="diff-empty diff-side-added"></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion <math>f</math> kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion <math>f</math> kostspielig ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
</tr>
<tr>
<td colspan="2" class="diff-lineno">Zeile 17:</td>
<td colspan="2" class="diff-lineno">Zeile 16:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Einzelnachweise ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div><references/></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div><references<ins style="font-weight: bold; text-decoration: none;"> </ins>/></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>{{SORTIERUNG:Parzentree Estimator}}</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Kategorie:Schätztheorie]]</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Kategorie:Schätztheorie]]</div></td>
</tr>
</table>
Wikinger08
https://de.wikipedia.org/w/index.php?title=Parzen-Tree_Estimator&diff=227090591&oldid=prev
GünniX: Tippfehler korrigiert
2022-10-16T15:49:56Z
<p>Tippfehler korrigiert</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 16. Oktober 2022, 17:49 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 2:</td>
<td colspan="2" class="diff-lineno">Zeile 2:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder TPE) sind Schätzer, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Tree-structured [[Kerndichteschätzer|Parzen Estimator]]''' (kurz '''Parzen-Tree Estimator''' oder TPE) sind Schätzer, die unter anderem in der [[Bayes’sche Optimierung|bayesschen Hyperparameteroptimierung]] verwendet werden, um eine Approximation <math>p(y|x)</math> einer eigentlichen gesuchten Zielfunktion <math>f:\mathcal{X}\to \mathbb{R}</math> zu konstruieren (<math>\mathcal{X}</math> ist der Konfigurationsraum, <math>x</math> eine Menge von Hyperparameter und <math>y=f(x)</math> ein ''Score'' der Zielfunktion).</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion <math>f</math> <del style="font-weight: bold; text-decoration: none;">kostenspielig</del> ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Idee dahinter ist, dass das Auswerten der eigentlichen Funktion <math>f</math> <ins style="font-weight: bold; text-decoration: none;">kostspielig</ins> ist (z. B. die passende Anzahl an Layers für ein [[Deep Learning|Deep Neural Network]] zu finden), deshalb möcht man mit Hilfe der <math>p(y|x)</math> die besten Hyperparameter <math>x</math> finden, welche später dann in <math>f</math> eingesetzt werden. Wir nehmen an, dass der Konfigurationsraum <math>\mathcal{X}</math> eine Baumstruktur besitzt (z. B. die Anzahl Neuronen auf Layer 4 wird erst bestimmt, wenn es überhaupt mindestens 4 Layers gibt). TPE konstruiert dann einen Baum von Kerndichteschätzern.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Funktion <math>p(y|x)</math> wird auch ''Surrogatsfunktion'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Funktion <math>p(y|x)</math> wird auch ''Surrogatsfunktion'' (oder ''surrogat probability model'') genannt und wird nicht direkt modelliert, stattdessen wendet man den [[Satz von Bayes]] an</div></td>
</tr>
<tr>
<td colspan="2" class="diff-lineno">Zeile 12:</td>
<td colspan="2" class="diff-lineno">Zeile 12:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>g(x) &\text{ falls } y\geq y^*. \end{cases}</math></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>g(x) &\text{ falls } y\geq y^*. \end{cases}</math></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert <math>y^*</math> ist dabei ein <math>\alpha</math>-Quantil, das <del style="font-weight: bold; text-decoration: none;">heisst</del> <math>p(y\leq y^{*})=\alpha</math>. </div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Der Schwellenwert <math>y^*</math> ist dabei ein <math>\alpha</math>-Quantil, das <ins style="font-weight: bold; text-decoration: none;">heißt</ins> <math>p(y\leq y^{*})=\alpha</math>. </div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten <math>l(x)</math> und <math>g(x)</math> werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für <math>l(x)</math> werden die Observationen <math>\{x_i\}</math> mit <math>f(x_i)<y^*</math> verwendet. Die restlichen Observationen, für die <math>f(x_k)>y^*</math> gelten, werden zur Konstruktion von <math>g(x)</math> benötigt.<ref>J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: [http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf Algorithms for Hyper-Parameter Optimization]. Advances in Neural Information Processing Systems: 2546–2554 (2011)</ref></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Die Dichten <math>l(x)</math> und <math>g(x)</math> werden dann mit Hilfe von Kerndichteschätzern konstruiert. Für <math>l(x)</math> werden die Observationen <math>\{x_i\}</math> mit <math>f(x_i)<y^*</math> verwendet. Die restlichen Observationen, für die <math>f(x_k)>y^*</math> gelten, werden zur Konstruktion von <math>g(x)</math> benötigt.<ref>J. S. Bergstra, R. Bardenet, Y. Bengio, B. Kégl: [http://papers.nips.cc/paper/4443-algorithms-for-hyper-parameter-optimization.pdf Algorithms for Hyper-Parameter Optimization]. Advances in Neural Information Processing Systems: 2546–2554 (2011)</ref></div></td>
</tr>
</table>
GünniX