https://de.wikipedia.org/w/index.php?action=history&feed=atom&title=Support_Vector_MachineSupport Vector Machine - Versionsgeschichte2025-07-28T18:52:25ZVersionsgeschichte dieser Seite in WikipediaMediaWiki 1.45.0-wmf.11https://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=253718073&oldid=prevUlricus Angelus: /* growthexperiments-addlink-summary-summary:2|0|0 */2025-02-27T07:46:09Z<p>Linkvorschlag-Funktion: 2 Links hinzugefügt.</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 27. Februar 2025, 09:46 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 55:</td>
<td colspan="2" class="diff-lineno">Zeile 55:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Nicht-linear separierbare Daten ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Nicht-linear separierbare Daten ===</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>In der Regel sind die Trainingsbeispiele nicht streng linear separierbar. Dies kann u.&nbsp;a. an Messfehlern in den Daten liegen, oder daran, dass die Verteilungen der beiden Klassen natürlicherweise überlappen. Für diesen Fall wird das Optimierungsproblem derart verändert, dass Verletzungen der <math>m</math> Nebenbedingungen möglich sind, die Verletzungen aber so klein wie möglich gehalten werden sollen. Zu diesem Zweck wird eine positive [[Schlupfvariable]] <math>\xi_i</math> für jede Nebenbedingung eingeführt, deren Wert gerade die Verletzung der Nebenbedingungen ist. <math>\xi_i > 0</math> bedeutet also, dass die Nebenbedingung verletzt ist. Da in der Summe die Verletzungen möglichst klein gehalten werden sollen, wird die Summe der Fehler der Zielfunktion hinzugefügt und somit ebenso minimiert. Zusätzlich wird diese Summe mit einer positiven Konstante <math>C</math> multipliziert, die den Ausgleich zwischen der Minimierung von <math>\frac{1}{2} \|\mathbf w\|_2^2</math> und der korrekten Klassifizierung der Trainingsbeispiele regelt. Das Optimierungsproblem besitzt dann folgende Form:</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>In der Regel sind die Trainingsbeispiele nicht streng linear separierbar. Dies kann u.&nbsp;a. an Messfehlern in den Daten liegen, oder daran, dass die Verteilungen der beiden Klassen natürlicherweise überlappen. Für diesen Fall wird das Optimierungsproblem derart verändert, dass Verletzungen der <math>m</math> Nebenbedingungen möglich sind, die Verletzungen aber so klein wie möglich gehalten werden sollen. Zu diesem Zweck wird eine positive [[Schlupfvariable]] <math>\xi_i</math> für jede <ins style="font-weight: bold; text-decoration: none;">[[</ins>Nebenbedingung<ins style="font-weight: bold; text-decoration: none;">]]</ins> eingeführt, deren Wert gerade die Verletzung der Nebenbedingungen ist. <math>\xi_i > 0</math> bedeutet also, dass die Nebenbedingung verletzt ist. Da in der Summe die Verletzungen möglichst klein gehalten werden sollen, wird die Summe der Fehler der Zielfunktion hinzugefügt und somit ebenso minimiert. Zusätzlich wird diese Summe mit einer positiven Konstante <math>C</math> multipliziert, die den Ausgleich zwischen der Minimierung von <math>\frac{1}{2} \|\mathbf w\|_2^2</math> und der korrekten Klassifizierung der Trainingsbeispiele regelt. Das Optimierungsproblem besitzt dann folgende Form:</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:Minimiere den Term <math>\frac{1}{2} \|\mathbf w\|_2^2 + C \sum_{i=1}^m \xi_i </math> durch Anpassung der Variablen <math>\mathbf{w},b,\xi_i</math>,</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:Minimiere den Term <math>\frac{1}{2} \|\mathbf w\|_2^2 + C \sum_{i=1}^m \xi_i </math> durch Anpassung der Variablen <math>\mathbf{w},b,\xi_i</math>,</div></td>
</tr>
<tr>
<td colspan="2" class="diff-lineno">Zeile 85:</td>
<td colspan="2" class="diff-lineno">Zeile 85:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Nichtlineare Erweiterung mit Kernelfunktionen ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Nichtlineare Erweiterung mit Kernelfunktionen ===</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Der oben beschriebene Algorithmus klassifiziert die Daten mit Hilfe einer linearen Funktion. Diese ist jedoch nur optimal, wenn auch das zu Grunde liegende Klassifikationsproblem linear ist. In vielen Anwendungen ist dies aber nicht der Fall. Ein möglicher Ausweg ist, die Daten in einen Raum höherer Dimension abzubilden.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Der oben beschriebene <ins style="font-weight: bold; text-decoration: none;">[[</ins>Algorithmus<ins style="font-weight: bold; text-decoration: none;">]]</ins> klassifiziert die Daten mit Hilfe einer linearen Funktion. Diese ist jedoch nur optimal, wenn auch das zu Grunde liegende Klassifikationsproblem linear ist. In vielen Anwendungen ist dies aber nicht der Fall. Ein möglicher Ausweg ist, die Daten in einen Raum höherer Dimension abzubilden.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:<math>\phi\colon \mathbb{R}^{d_1} \rightarrow \mathbb{R}^{d_2}, \mathbf x\mapsto \phi(\mathbf x)</math></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:<math>\phi\colon \mathbb{R}^{d_1} \rightarrow \mathbb{R}^{d_2}, \mathbf x\mapsto \phi(\mathbf x)</math></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Dabei gilt <math>d_1 < d_2</math>. Durch diese Abbildung wird die Anzahl möglicher linearer Trennungen erhöht (Theorem von Cover<ref>Schölkopf, Smola: ''Learning with Kernels,'' MIT Press, 2001.</ref>). SVMs zeichnen sich dadurch aus, dass sich diese Erweiterung sehr elegant einbauen lässt. In das dem Algorithmus zu Grunde liegende Optimierungsproblem in der zuletzt dargestellten Formulierung gehen die Datenpunkte <math>\mathbf x_i</math> nur in Skalarprodukten ein. Daher ist es möglich, das Skalarprodukt <math>\langle \mathbf x_i,\mathbf x_j\rangle</math> im Eingaberaum <math>\mathbb{R}^{d_1}</math> durch ein Skalarprodukt im <math>\mathbb{R}^{d_2}</math> zu ersetzen und <math>\langle \phi(\mathbf x_i),\phi(\mathbf x_j)\rangle</math> stattdessen direkt zu berechnen. Die Kosten dieser Berechnung lassen sich sehr stark reduzieren, wenn stattdessen eine [[positiv definit]]e [[Kernel (Maschinelles Lernen)|Kernelfunktion]] benutzt wird:</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Dabei gilt <math>d_1 < d_2</math>. Durch diese Abbildung wird die Anzahl möglicher linearer Trennungen erhöht (Theorem von Cover<ref>Schölkopf, Smola: ''Learning with Kernels,'' MIT Press, 2001.</ref>). SVMs zeichnen sich dadurch aus, dass sich diese Erweiterung sehr elegant einbauen lässt. In das dem Algorithmus zu Grunde liegende Optimierungsproblem in der zuletzt dargestellten Formulierung gehen die Datenpunkte <math>\mathbf x_i</math> nur in Skalarprodukten ein. Daher ist es möglich, das Skalarprodukt <math>\langle \mathbf x_i,\mathbf x_j\rangle</math> im Eingaberaum <math>\mathbb{R}^{d_1}</math> durch ein Skalarprodukt im <math>\mathbb{R}^{d_2}</math> zu ersetzen und <math>\langle \phi(\mathbf x_i),\phi(\mathbf x_j)\rangle</math> stattdessen direkt zu berechnen. Die Kosten dieser Berechnung lassen sich sehr stark reduzieren, wenn stattdessen eine [[positiv definit]]e [[Kernel (Maschinelles Lernen)|Kernelfunktion]] benutzt wird:</div></td>
</tr>
</table>Ulricus Angelushttps://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=244456160&oldid=prevKnowledge2need: /* Mathematische Umsetzung */ Wikilink aus Überschrift entfernt (Fehlerliste)2024-04-27T20:10:06Z<p><span class="autocomment">Mathematische Umsetzung: </span> Wikilink aus Überschrift entfernt (<a href="/wiki/Benutzer:Aka/Fehlerlisten/Wikilink_in_%C3%9Cberschrift" title="Benutzer:Aka/Fehlerlisten/Wikilink in Überschrift">Fehlerliste</a>)</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 27. April 2024, 22:10 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 81:</td>
<td colspan="2" class="diff-lineno">Zeile 81:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Ihren Namen hat die SVM von einer speziellen Untermenge der Trainingspunkte, deren Lagrangevariablen <math>\alpha_i \neq 0</math> sind. Diese heißen Support-Vektoren und liegen entweder auf dem Margin (falls <math>y_i(\langle \mathbf{w,x}\rangle + b) = 1</math>) oder innerhalb des Margin (<math>\xi_i>0</math>).</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Ihren Namen hat die SVM von einer speziellen Untermenge der Trainingspunkte, deren Lagrangevariablen <math>\alpha_i \neq 0</math> sind. Diese heißen Support-Vektoren und liegen entweder auf dem Margin (falls <math>y_i(\langle \mathbf{w,x}\rangle + b) = 1</math>) oder innerhalb des Margin (<math>\xi_i>0</math>).</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>==== Lösung mittels stochastischen <del style="font-weight: bold; text-decoration: none;">[[Gradientenabstieg]]s</del> ====</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>==== Lösung mittels stochastischen <ins style="font-weight: bold; text-decoration: none;">Gradientenabstiegs</ins> ====</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>SVMs können mit stochastischem Gradientenabstieg trainiert werden<ref>{{Literatur |Autor=David Forsyth |Titel=Probability and Statistics for Computer Science |Verlag=Springer |Datum=2017-12-13 |ISBN=978-3-319-64410-3 |Online=https://books.google.com/books?id=7zdDDwAAQBAJ&newbks=0&printsec=frontcover&pg=PA266&dq=svm+stochastic+gradient+descent&q=svm+stochastic+gradient+descent&hl=de |Abruf=2021-10-21}}</ref>.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>SVMs können mit stochastischem <ins style="font-weight: bold; text-decoration: none;">[[</ins>Gradientenabstieg<ins style="font-weight: bold; text-decoration: none;">]]</ins> trainiert werden<ref>{{Literatur |Autor=David Forsyth |Titel=Probability and Statistics for Computer Science |Verlag=Springer |Datum=2017-12-13 |ISBN=978-3-319-64410-3 |Online=https://books.google.com/books?id=7zdDDwAAQBAJ&newbks=0&printsec=frontcover&pg=PA266&dq=svm+stochastic+gradient+descent&q=svm+stochastic+gradient+descent&hl=de |Abruf=2021-10-21}}</ref>.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Nichtlineare Erweiterung mit Kernelfunktionen ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Nichtlineare Erweiterung mit Kernelfunktionen ===</div></td>
</tr>
</table>Knowledge2needhttps://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=240221171&oldid=prev84.61.146.70: /* Geschichte */2023-12-15T21:38:40Z<p><span class="autocomment">Geschichte</span></p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 15. Dezember 2023, 23:38 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 96:</td>
<td colspan="2" class="diff-lineno">Zeile 96:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Geschichte ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Geschichte ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Idee der Trennung durch eine [[Hyperebene]] hatte bereits 1936 [[Ronald Aylmer Fisher|Ronald A. Fisher]].<ref>Fisher, R.A. (1936): ''The use of multiple measurements in taxonomic problems'', in Annals of Eugenics '''7''': 179–188, {{DOI|10.1111/j.1469-1809.1936.tb02137.x}}</ref> Wieder aufgegriffen wurde sie 1958 von [[Frank Rosenblatt]] in seinem Beitrag<ref>Rosenblatt, F. (1958): ''The Perceptron, a Probabilistic Model for Information Storage and Organisation in the Brain'', in Psychological Review, 62/386, S. 386–408, {{DOI|10.1037/h0042519}}.</ref> zur Theorie [[Künstliches neuronales Netz|künstlicher neuronaler Netze]]. Die Idee der Support Vector Machines geht auf die Arbeit von [[Wladimir Naumowitsch Wapnik|Wladimir Wapnik]] und [[Alexei Jakowlewitsch Tscherwonenkis]]<ref>Vapnik und Chervonenkis: ''Theory of Pattern Recognition,'' 1974 (dt. Übersetzung: Wapnik und Tschervonenkis: ''Theorie der Mustererkennung,'' 1979).</ref> zurück. Auf theoretischer Ebene ist der Algorithmus vom Prinzip der strukturellen Risikominimierung motiviert, das besagt, dass nicht nur der Trainingsfehler, sondern auch die Komplexität des verwendeten Modells die Generalisierungsfähigkeit eines Klassifizierers bestimmen. Der eigentliche Durchbruch gelang Wapnik mit [[Bernhard Boser]] und [[Isabelle Guyon]] 1992 (Verwendung des [[Kernel-Methode|Kernel-Tricks]]).<ref>Bernhard Boser, Isabelle Guyon, Vladimir Vapnik, A training algorithm for optimal margin classifiers, COLT '92: Proceedings of the fifth annual workshop on Computational learning theory, 1992, S. 144–152</ref> Ebenfalls zu den Pionieren gehört eine weitere Mitarbeiterin von Wapnik bei den Bell Labs Anfang der 1990er Jahre [[Corinna Cortes]].<ref>Cortes, Vapnik, ''Support-vector networks'', Machine Learning, Band 20, 1995, S. 273–297</ref> In der Mitte der 1990er Jahre gelang den SVMs der Durchbruch, und zahlreiche Weiterentwicklungen und Modifikationen wurden in den letzten Jahren veröffentlicht.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Idee der Trennung durch eine [[Hyperebene]] hatte bereits 1936 [[Ronald Aylmer Fisher|Ronald A. Fisher]].<ref>Fisher, R.A. (1936): ''The use of multiple measurements in taxonomic problems'', in Annals of Eugenics '''7''': 179–188, {{DOI|10.1111/j.1469-1809.1936.tb02137.x}}</ref> Wieder aufgegriffen wurde sie 1958 von [[Frank Rosenblatt]] in seinem Beitrag<ref>Rosenblatt, F. (1958): ''The Perceptron, a Probabilistic Model for Information Storage and Organisation in the Brain'', in Psychological Review, 62/386, S. 386–408, {{DOI|10.1037/h0042519}}.</ref> zur Theorie [[Künstliches neuronales Netz|künstlicher neuronaler Netze]]. Die Idee der Support Vector Machines geht auf die Arbeit von [[Wladimir Naumowitsch Wapnik|Wladimir Wapnik]] und [[Alexei Jakowlewitsch Tscherwonenkis]]<ref>Vapnik und Chervonenkis: ''Theory of Pattern Recognition,'' 1974 (dt. Übersetzung: Wapnik und Tschervonenkis: ''Theorie der Mustererkennung,'' 1979).</ref> zurück. Auf theoretischer Ebene ist der Algorithmus vom Prinzip der strukturellen Risikominimierung motiviert, das besagt, dass nicht nur der Trainingsfehler, sondern auch die Komplexität des verwendeten Modells die Generalisierungsfähigkeit eines Klassifizierers bestimmen. Der eigentliche Durchbruch gelang Wapnik mit [[Bernhard Boser]] und [[Isabelle Guyon]] 1992 (Verwendung des [[Kernel-Methode|Kernel-Tricks]]).<ref>Bernhard Boser, Isabelle Guyon, Vladimir Vapnik, A training algorithm for optimal margin classifiers, COLT '92: Proceedings of the fifth annual workshop on Computational learning theory, 1992, S. 144–152</ref> Ebenfalls zu den Pionieren gehört eine weitere Mitarbeiterin von Wapnik bei den Bell Labs Anfang der 1990er Jahre<ins style="font-weight: bold; text-decoration: none;">,</ins> [[Corinna Cortes]].<ref>Cortes, Vapnik, ''Support-vector networks'', Machine Learning, Band 20, 1995, S. 273–297</ref> In der Mitte der 1990er Jahre gelang den SVMs der Durchbruch, und zahlreiche Weiterentwicklungen und Modifikationen wurden in den letzten Jahren veröffentlicht.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Software ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Software ==</div></td>
</tr>
</table>84.61.146.70https://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=240012356&oldid=prevBumbleMath: Links zu Optimierungsproblem und konvexe Optimierung hinzugefügt2023-12-09T10:05:53Z<p>Links zu Optimierungsproblem und konvexe Optimierung hinzugefügt</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 9. Dezember 2023, 12:05 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 49:</td>
<td colspan="2" class="diff-lineno">Zeile 49:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>die beiden Klassen voneinander trennen. Die SVM unterscheidet sich von anderen Lernalgorithmen dadurch, dass sie von allen möglichen trennenden Hyperebenen diejenige mit minimaler quadratischer [[Norm (Mathematik)|Norm]] <math>\|\mathbf w\|_2^2</math> auswählt, so dass gleichzeitig <math>y_i ( \langle \mathbf w , \mathbf x_i \rangle + b ) \ge 1</math> für jedes Trainingsbeispiel <math>\mathbf x_i</math> gilt. Dies ist mit der Maximierung des kleinsten Abstands zur Hyperebene (dem ''Margin'') äquivalent. Nach der [[Maschinelles Lernen|statistischen Lerntheorie]] ist die Komplexität der Klasse aller Hyperebenen mit einem bestimmten Margin geringer als die der Klasse aller Hyperebenen mit einem kleineren Margin. Daraus lassen sich obere Schranken für den erwarteten Generalisierungsfehler der SVM ableiten.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>die beiden Klassen voneinander trennen. Die SVM unterscheidet sich von anderen Lernalgorithmen dadurch, dass sie von allen möglichen trennenden Hyperebenen diejenige mit minimaler quadratischer [[Norm (Mathematik)|Norm]] <math>\|\mathbf w\|_2^2</math> auswählt, so dass gleichzeitig <math>y_i ( \langle \mathbf w , \mathbf x_i \rangle + b ) \ge 1</math> für jedes Trainingsbeispiel <math>\mathbf x_i</math> gilt. Dies ist mit der Maximierung des kleinsten Abstands zur Hyperebene (dem ''Margin'') äquivalent. Nach der [[Maschinelles Lernen|statistischen Lerntheorie]] ist die Komplexität der Klasse aller Hyperebenen mit einem bestimmten Margin geringer als die der Klasse aller Hyperebenen mit einem kleineren Margin. Daraus lassen sich obere Schranken für den erwarteten Generalisierungsfehler der SVM ableiten.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Das Optimierungsproblem kann dann geschrieben werden als:</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Das <ins style="font-weight: bold; text-decoration: none;">[[</ins>Optimierungsproblem<ins style="font-weight: bold; text-decoration: none;">]]</ins> kann dann geschrieben werden als:</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:Minimiere den Term <math>\frac{1}{2} \|\mathbf w\|_2^2 </math> durch Anpassung der Variablen <math>\mathbf{w},b</math>,</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:Minimiere den Term <math>\frac{1}{2} \|\mathbf w\|_2^2 </math> durch Anpassung der Variablen <math>\mathbf{w},b</math>,</div></td>
</tr>
<tr>
<td colspan="2" class="diff-lineno">Zeile 63:</td>
<td colspan="2" class="diff-lineno">Zeile 63:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>==== Klassische Lösung: Überführung in ein duales Problem ====</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>==== Klassische Lösung: Überführung in ein duales Problem ====</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{{Siehe auch|Lagrange-Dualität}}</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>{{Siehe auch|Lagrange-Dualität}}</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Beide <del style="font-weight: bold; text-decoration: none;">Optimierungskriterien</del> sind [[Konvexe Optimierung|konvex]] und können mit modernen Verfahren effizient gelöst werden. Diese einfache Optimierung und die Eigenschaft, dass Support Vector Machines eine [[Überanpassung]] an die zum Entwurf des Klassifikators verwendeten Testdaten großteils vermeiden, haben der Methode zu großer Beliebtheit und einem breiten Anwendungsgebiet verholfen.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Beide <ins style="font-weight: bold; text-decoration: none;">Optimierungsprobleme</ins> sind [[Konvexe Optimierung|konvex]] und können mit modernen Verfahren<ins style="font-weight: bold; text-decoration: none;"> der [[Konvexe Optimierung|konvexen Optimierung]]</ins> effizient gelöst werden. Diese einfache Optimierung und die Eigenschaft, dass Support Vector Machines eine [[Überanpassung]] an die zum Entwurf des Klassifikators verwendeten Testdaten großteils vermeiden, haben der Methode zu großer Beliebtheit und einem breiten Anwendungsgebiet verholfen.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:Svm exp.png|mini|Beispiel für eine Klassifizierung mit einer SVM. Zu sehen ist die in den Eingangsraum abgebildete trennende Hyperebene (schwarze Linie) und die Support-Vektoren (dünn türkis umkreist).]]</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:Svm exp.png|mini|Beispiel für eine Klassifizierung mit einer SVM. Zu sehen ist die in den Eingangsraum abgebildete trennende Hyperebene (schwarze Linie) und die Support-Vektoren (dünn türkis umkreist).]]</div></td>
</tr>
</table>BumbleMathhttps://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=235908985&oldid=prevBiggerj1: /* Klassische Lösung: Überführung in ein duales Problem */2023-07-28T21:25:56Z<p><span class="autocomment">Klassische Lösung: Überführung in ein duales Problem</span></p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 28. Juli 2023, 23:25 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 62:</td>
<td colspan="2" class="diff-lineno">Zeile 62:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Lösung ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Lösung ===</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>==== Klassische Lösung: Überführung in ein duales Problem ====</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>==== Klassische Lösung: Überführung in ein duales Problem ====</div></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>{{Siehe auch|Lagrange-Dualität}}</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Beide Optimierungskriterien sind [[Konvexe Optimierung|konvex]] und können mit modernen Verfahren effizient gelöst werden. Diese einfache Optimierung und die Eigenschaft, dass Support Vector Machines eine [[Überanpassung]] an die zum Entwurf des Klassifikators verwendeten Testdaten großteils vermeiden, haben der Methode zu großer Beliebtheit und einem breiten Anwendungsgebiet verholfen.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Beide Optimierungskriterien sind [[Konvexe Optimierung|konvex]] und können mit modernen Verfahren effizient gelöst werden. Diese einfache Optimierung und die Eigenschaft, dass Support Vector Machines eine [[Überanpassung]] an die zum Entwurf des Klassifikators verwendeten Testdaten großteils vermeiden, haben der Methode zu großer Beliebtheit und einem breiten Anwendungsgebiet verholfen.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
</table>Biggerj1https://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=225180321&oldid=prevInvisigoth67: form2022-08-08T17:06:50Z<p>form</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 8. August 2022, 19:06 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 95:</td>
<td colspan="2" class="diff-lineno">Zeile 95:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Geschichte ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Geschichte ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Idee der Trennung durch eine [[Hyperebene]] hatte bereits 1936 [[Ronald Aylmer Fisher|Ronald A. Fisher]].<ref>Fisher, R.A. (1936): ''The use of multiple measurements in taxonomic problems'', in Annals of Eugenics '''7''': 179–188, {{DOI|10.1111/j.1469-1809.1936.tb02137.x}}</ref> Wieder aufgegriffen wurde sie 1958 von [[Frank Rosenblatt]] in seinem Beitrag<ref>Rosenblatt, F. (1958): ''The Perceptron, a Probabilistic Model for Information Storage and Organisation in the Brain'', in Psychological Review, 62/386, S. 386–408, {{DOI|10.1037/h0042519}}.</ref> zur Theorie [[Künstliches neuronales Netz|künstlicher neuronaler Netze]]. Die Idee der Support Vector Machines geht auf die Arbeit von [[Wladimir Naumowitsch Wapnik|Wladimir Wapnik]] und [[Alexei Jakowlewitsch Tscherwonenkis]]<ref>Vapnik und Chervonenkis: ''Theory of Pattern Recognition,'' 1974 (dt. Übersetzung: Wapnik und Tschervonenkis: ''Theorie der Mustererkennung,'' 1979).</ref> zurück. Auf theoretischer Ebene ist der Algorithmus vom Prinzip der strukturellen Risikominimierung motiviert, das besagt, dass nicht nur der Trainingsfehler, sondern auch die Komplexität des verwendeten Modells die Generalisierungsfähigkeit eines Klassifizierers bestimmen. Der eigentliche Durchbruch gelang Wapnik mit [[Bernhard Boser]] und [[Isabelle Guyon]] 1992 (Verwendung des [[Kernel-Methode|Kernel-Tricks]]).<ref>Bernhard Boser, Isabelle Guyon, Vladimir Vapnik, A training algorithm for optimal margin classifiers, COLT '92: Proceedings of the fifth annual workshop on Computational learning theory, 1992, S. <del style="font-weight: bold; text-decoration: none;">144-152</del></ref> Ebenfalls zu den Pionieren gehört eine weitere Mitarbeiterin von Wapnik bei den Bell Labs Anfang der 1990er Jahre [[Corinna Cortes]].<ref>Cortes, Vapnik, ''Support-vector networks'', Machine Learning, Band 20, 1995, S. 273–297</ref> In der Mitte der 1990er Jahre gelang den SVMs der Durchbruch, und zahlreiche Weiterentwicklungen und Modifikationen wurden in den letzten Jahren veröffentlicht.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Idee der Trennung durch eine [[Hyperebene]] hatte bereits 1936 [[Ronald Aylmer Fisher|Ronald A. Fisher]].<ref>Fisher, R.A. (1936): ''The use of multiple measurements in taxonomic problems'', in Annals of Eugenics '''7''': 179–188, {{DOI|10.1111/j.1469-1809.1936.tb02137.x}}</ref> Wieder aufgegriffen wurde sie 1958 von [[Frank Rosenblatt]] in seinem Beitrag<ref>Rosenblatt, F. (1958): ''The Perceptron, a Probabilistic Model for Information Storage and Organisation in the Brain'', in Psychological Review, 62/386, S. 386–408, {{DOI|10.1037/h0042519}}.</ref> zur Theorie [[Künstliches neuronales Netz|künstlicher neuronaler Netze]]. Die Idee der Support Vector Machines geht auf die Arbeit von [[Wladimir Naumowitsch Wapnik|Wladimir Wapnik]] und [[Alexei Jakowlewitsch Tscherwonenkis]]<ref>Vapnik und Chervonenkis: ''Theory of Pattern Recognition,'' 1974 (dt. Übersetzung: Wapnik und Tschervonenkis: ''Theorie der Mustererkennung,'' 1979).</ref> zurück. Auf theoretischer Ebene ist der Algorithmus vom Prinzip der strukturellen Risikominimierung motiviert, das besagt, dass nicht nur der Trainingsfehler, sondern auch die Komplexität des verwendeten Modells die Generalisierungsfähigkeit eines Klassifizierers bestimmen. Der eigentliche Durchbruch gelang Wapnik mit [[Bernhard Boser]] und [[Isabelle Guyon]] 1992 (Verwendung des [[Kernel-Methode|Kernel-Tricks]]).<ref>Bernhard Boser, Isabelle Guyon, Vladimir Vapnik, A training algorithm for optimal margin classifiers, COLT '92: Proceedings of the fifth annual workshop on Computational learning theory, 1992, S. <ins style="font-weight: bold; text-decoration: none;">144–152</ins></ref> Ebenfalls zu den Pionieren gehört eine weitere Mitarbeiterin von Wapnik bei den Bell Labs Anfang der 1990er Jahre [[Corinna Cortes]].<ref>Cortes, Vapnik, ''Support-vector networks'', Machine Learning, Band 20, 1995, S. 273–297</ref> In der Mitte der 1990er Jahre gelang den SVMs der Durchbruch, und zahlreiche Weiterentwicklungen und Modifikationen wurden in den letzten Jahren veröffentlicht.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Software ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Software ==</div></td>
</tr>
</table>Invisigoth67https://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=225178717&oldid=prevSyunsyunminmin am 8. August 2022 um 15:59 Uhr2022-08-08T15:59:38Z<p></p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 8. August 2022, 17:59 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 95:</td>
<td colspan="2" class="diff-lineno">Zeile 95:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Geschichte ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Geschichte ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Idee der Trennung durch eine [[Hyperebene]] hatte bereits 1936 [[Ronald Aylmer Fisher|Ronald A. Fisher]].<ref>Fisher, R.A. (1936): ''The use of multiple measurements in taxonomic problems'', in Annals of Eugenics '''7''': 179–188, {{DOI|10.1111/j.1469-1809.1936.tb02137.x}}</ref> Wieder aufgegriffen wurde sie 1958 von [[Frank Rosenblatt]] in seinem Beitrag<ref>Rosenblatt, F. (1958): ''The Perceptron, a Probabilistic Model for Information Storage and Organisation in the Brain'', in Psychological Review, 62/386, S. 386–408, {{DOI|10.1037/h0042519}}.</ref> zur Theorie [[Künstliches neuronales Netz|künstlicher neuronaler Netze]]. Die Idee der Support Vector Machines geht auf die Arbeit von [[Wladimir Naumowitsch Wapnik|Wladimir Wapnik]] und [[Alexei Jakowlewitsch Tscherwonenkis]]<ref>Vapnik und Chervonenkis: ''Theory of Pattern Recognition,'' 1974 (dt. Übersetzung: Wapnik und Tschervonenkis: ''Theorie der Mustererkennung,'' 1979).</ref> zurück. Auf theoretischer Ebene ist der Algorithmus vom Prinzip der strukturellen Risikominimierung motiviert, das besagt, dass nicht nur der Trainingsfehler, sondern auch die Komplexität des verwendeten Modells die Generalisierungsfähigkeit eines Klassifizierers bestimmen. Der eigentliche Durchbruch gelang Wapnik mit [[Bernhard Boser]] und [[Isabelle Guyon]] 1992 (Verwendung des [[Kernel-Methode|Kernel-Tricks]]).<ref>Bernhard Boser, Isabelle Guyon, Vladimir Vapnik, A training algorithm for optimal margin classifiers, COLT '92: Proceedings of the fifth annual workshop on Computational learning theory, 1992, S. 144-152</ref> Ebenfalls zu den Pionieren gehört eine weitere Mitarbeiterin von Wapnik bei den Bell Labs Anfang der 1990er Jahre [[Corinna Cortes]].<ref>Cortes, Vapnik, ''Support-vector networks<del style="font-weight: bold; text-decoration: none;">"</del>, Machine Learning, Band 20, 1995, S. 273–297</ref> In der Mitte der 1990er Jahre gelang den SVMs der Durchbruch, und zahlreiche Weiterentwicklungen und Modifikationen wurden in den letzten Jahren veröffentlicht.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Idee der Trennung durch eine [[Hyperebene]] hatte bereits 1936 [[Ronald Aylmer Fisher|Ronald A. Fisher]].<ref>Fisher, R.A. (1936): ''The use of multiple measurements in taxonomic problems'', in Annals of Eugenics '''7''': 179–188, {{DOI|10.1111/j.1469-1809.1936.tb02137.x}}</ref> Wieder aufgegriffen wurde sie 1958 von [[Frank Rosenblatt]] in seinem Beitrag<ref>Rosenblatt, F. (1958): ''The Perceptron, a Probabilistic Model for Information Storage and Organisation in the Brain'', in Psychological Review, 62/386, S. 386–408, {{DOI|10.1037/h0042519}}.</ref> zur Theorie [[Künstliches neuronales Netz|künstlicher neuronaler Netze]]. Die Idee der Support Vector Machines geht auf die Arbeit von [[Wladimir Naumowitsch Wapnik|Wladimir Wapnik]] und [[Alexei Jakowlewitsch Tscherwonenkis]]<ref>Vapnik und Chervonenkis: ''Theory of Pattern Recognition,'' 1974 (dt. Übersetzung: Wapnik und Tschervonenkis: ''Theorie der Mustererkennung,'' 1979).</ref> zurück. Auf theoretischer Ebene ist der Algorithmus vom Prinzip der strukturellen Risikominimierung motiviert, das besagt, dass nicht nur der Trainingsfehler, sondern auch die Komplexität des verwendeten Modells die Generalisierungsfähigkeit eines Klassifizierers bestimmen. Der eigentliche Durchbruch gelang Wapnik mit [[Bernhard Boser]] und [[Isabelle Guyon]] 1992 (Verwendung des [[Kernel-Methode|Kernel-Tricks]]).<ref>Bernhard Boser, Isabelle Guyon, Vladimir Vapnik, A training algorithm for optimal margin classifiers, COLT '92: Proceedings of the fifth annual workshop on Computational learning theory, 1992, S. 144-152</ref> Ebenfalls zu den Pionieren gehört eine weitere Mitarbeiterin von Wapnik bei den Bell Labs Anfang der 1990er Jahre [[Corinna Cortes]].<ref>Cortes, Vapnik, ''Support-vector networks<ins style="font-weight: bold; text-decoration: none;">''</ins>, Machine Learning, Band 20, 1995, S. 273–297</ref> In der Mitte der 1990er Jahre gelang den SVMs der Durchbruch, und zahlreiche Weiterentwicklungen und Modifikationen wurden in den letzten Jahren veröffentlicht.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Software ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Software ==</div></td>
</tr>
</table>Syunsyunminminhttps://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=225174504&oldid=prevClaude J: /* Geschichte */ allgemein anerkannte pioniere2022-08-08T13:51:27Z<p><span class="autocomment">Geschichte: </span> allgemein anerkannte pioniere</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 8. August 2022, 15:51 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 95:</td>
<td colspan="2" class="diff-lineno">Zeile 95:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Geschichte ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Geschichte ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Idee der Trennung durch eine [[Hyperebene]] hatte bereits 1936 [[Ronald Aylmer Fisher|Ronald A. Fisher]].<ref>Fisher, R.A. (1936): ''The use of multiple measurements in taxonomic problems'', in Annals of Eugenics '''7''': 179–188, {{DOI|10.1111/j.1469-1809.1936.tb02137.x}}</ref> Wieder aufgegriffen wurde sie 1958 von [[Frank Rosenblatt]] in seinem Beitrag<ref>Rosenblatt, F. (1958): ''The Perceptron, a Probabilistic Model for Information Storage and Organisation in the Brain'', in Psychological Review, 62/386, S. 386–408, {{DOI|10.1037/h0042519}}.</ref> zur Theorie [[Künstliches neuronales Netz|künstlicher neuronaler Netze]]. Die Idee der Support Vector Machines geht auf die Arbeit von [[Wladimir Naumowitsch Wapnik|Wladimir Wapnik]] und [[Alexei Jakowlewitsch Tscherwonenkis]]<ref>Vapnik und Chervonenkis: ''Theory of Pattern Recognition,'' 1974 (dt. Übersetzung: Wapnik und Tschervonenkis: ''Theorie der Mustererkennung,'' 1979).</ref> zurück. Auf theoretischer Ebene ist der Algorithmus vom Prinzip der strukturellen Risikominimierung motiviert, das besagt, dass nicht nur der Trainingsfehler, sondern auch die Komplexität des verwendeten Modells die Generalisierungsfähigkeit eines Klassifizierers bestimmen. In der Mitte der 1990er Jahre gelang den SVMs der Durchbruch, und zahlreiche Weiterentwicklungen und Modifikationen wurden in den letzten Jahren veröffentlicht.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Die Idee der Trennung durch eine [[Hyperebene]] hatte bereits 1936 [[Ronald Aylmer Fisher|Ronald A. Fisher]].<ref>Fisher, R.A. (1936): ''The use of multiple measurements in taxonomic problems'', in Annals of Eugenics '''7''': 179–188, {{DOI|10.1111/j.1469-1809.1936.tb02137.x}}</ref> Wieder aufgegriffen wurde sie 1958 von [[Frank Rosenblatt]] in seinem Beitrag<ref>Rosenblatt, F. (1958): ''The Perceptron, a Probabilistic Model for Information Storage and Organisation in the Brain'', in Psychological Review, 62/386, S. 386–408, {{DOI|10.1037/h0042519}}.</ref> zur Theorie [[Künstliches neuronales Netz|künstlicher neuronaler Netze]]. Die Idee der Support Vector Machines geht auf die Arbeit von [[Wladimir Naumowitsch Wapnik|Wladimir Wapnik]] und [[Alexei Jakowlewitsch Tscherwonenkis]]<ref>Vapnik und Chervonenkis: ''Theory of Pattern Recognition,'' 1974 (dt. Übersetzung: Wapnik und Tschervonenkis: ''Theorie der Mustererkennung,'' 1979).</ref> zurück. Auf theoretischer Ebene ist der Algorithmus vom Prinzip der strukturellen Risikominimierung motiviert, das besagt, dass nicht nur der Trainingsfehler, sondern auch die Komplexität des verwendeten Modells die Generalisierungsfähigkeit eines Klassifizierers bestimmen.<ins style="font-weight: bold; text-decoration: none;"> Der eigentliche Durchbruch gelang Wapnik mit [[Bernhard Boser]] und [[Isabelle Guyon]] 1992 (Verwendung des [[Kernel-Methode|Kernel-Tricks]]).<ref>Bernhard Boser, Isabelle Guyon, Vladimir Vapnik, A training algorithm for optimal margin classifiers, COLT '92: Proceedings of the fifth annual workshop on Computational learning theory, 1992, S. 144-152</ref> Ebenfalls zu den Pionieren gehört eine weitere Mitarbeiterin von Wapnik bei den Bell Labs Anfang der 1990er Jahre [[Corinna Cortes]].<ref>Cortes, Vapnik, ''Support-vector networks", Machine Learning, Band 20, 1995, S. 273–297</ref> </ins> In der Mitte der 1990er Jahre gelang den SVMs der Durchbruch, und zahlreiche Weiterentwicklungen und Modifikationen wurden in den letzten Jahren veröffentlicht.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Software ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Software ==</div></td>
</tr>
</table>Claude Jhttps://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=221701838&oldid=prevEngcobo am 1. April 2022 um 22:30 Uhr2022-04-01T22:30:20Z<p></p>
<a href="//de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=221701838&oldid=216610893">Änderungen zeigen</a>Engcobohttps://de.wikipedia.org/w/index.php?title=Support_Vector_Machine&diff=216610893&oldid=prevKoyaanisqatsi01: Überschrift korrigiert2021-10-23T08:16:50Z<p>Überschrift korrigiert</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 23. Oktober 2021, 10:16 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 67:</td>
<td colspan="2" class="diff-lineno">Zeile 67:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Lösung ===</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>=== Lösung ===</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>==== <del style="font-weight: bold; text-decoration: none;">klassische</del> Lösung: Überführung in ein Duales Problem ====</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>==== <ins style="font-weight: bold; text-decoration: none;">Klassische</ins> Lösung: Überführung in ein Duales Problem ====</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Beide Optimierungskriterien sind [[Konvexe Optimierung|konvex]] und können mit modernen Verfahren effizient gelöst werden. Diese einfache Optimierung und die Eigenschaft, dass Support Vector Machines eine [[Überanpassung]] an die zum Entwurf des Klassifikators verwendeten Testdaten großteils vermeiden, haben der Methode zu großer Beliebtheit und einem breiten Anwendungsgebiet verholfen.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Beide Optimierungskriterien sind [[Konvexe Optimierung|konvex]] und können mit modernen Verfahren effizient gelöst werden. Diese einfache Optimierung und die Eigenschaft, dass Support Vector Machines eine [[Überanpassung]] an die zum Entwurf des Klassifikators verwendeten Testdaten großteils vermeiden, haben der Methode zu großer Beliebtheit und einem breiten Anwendungsgebiet verholfen.</div></td>
</tr>
</table>Koyaanisqatsi01