Zum Inhalt springen

Support Vector Machine

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 11. August 2006 um 16:47 Uhr durch Pberens (Diskussion | Beiträge). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Eine Support-Vector-Machine (SVM, von engl. support vector machine, „Stützvektormaschine“, die dt. Übersetzung ist nicht gebräuchlich[1][2]) ist ein Klassifikator. Eine Support-Vector-Machine teilt Objekte so in zwei Klassen auf, dass die Klassengrenze möglichst weit von allen Objekten entfernt liegt. Es entsteht ein leerer Rand um die Klassengrenze herum, dessen Breite maximiert wird; man spricht daher auch von einem large-margin-Klassifikationsverfahren (engl. „großer Rand“).

Die zum Verständnis notwendigen Grundbegriffe dieses Artikels werden im Artikel Klassifizierung erläutert.

Grundlegende Funktionsweise

Die Support-Vektor-Maschine (SVM) ist ein Lernalgorithmus zur Klassifizierung von Objekten. Die SVM bestimmt anhand einer Menge von Trainingsbeispielen eine Hyperebene, die beide Klassen so voneinander trennt, daß der kleinste Abstand zur Hyperebene, dem sog. margin, für die Beispiele beider Klassen maximiert wird. Das sog. label gibt dabei die Klassenzugehörigkeit für das Beispiel an. Die Hyperebene wird nach dem sog. Training, d.h. der Berechnung der Hyperebene zwischen den Trainingsbeispielen, als Entscheidungsfunktion benutzt. Sie ist gegeben durch einen Normalenvektor und einen sog. Bias . Einem Beispiel wird dabei das Vorzeichen der Entscheidungsfunktion als Label zugeordnet:

.

Viele Lernalgorithmen arbeiten mit einer linearen Funktion in Form einer Hyperebene. Sind zwei Klassen von Beispielen durch eine Hyperebene voneinander trennbar, d.h. linear separierbar, dann gibt es jedoch in der Regel unendlich viele Hyperebenen, die die beiden Klassen voneinander trennen. Die SVM unterscheidet sich von anderen Lernalgorithmen dadurch, daß sie von allen möglichen trennenden Hyperebenen diejenige mit minimaler quadratischer Norm auswählt, so daß gleichzeitig für jedes Trainingsbeispiel gilt. Dies ist mit der Maximierung des kleinsten Abstands zur Hyperebene (dem margin) äquivalent. Nach der statistischen Lerntheorie ist die Komplexität der Klasse aller Hyperebenen mit einem bestimmten Margin geringer als die der Klasse aller Hyperebenen mit einem kleineren Margin. Daraus lassen sich obere Schranken für den erwarteten Generalisierungsfehler der SVM ableiten.

Das Optimierungsproblem kann dann geschrieben werden als:

minimiere
so daß für alle

In der Regel sind die Trainingsbeispiele nicht streng linear separierbar. Dies kann u.a. an Meßfehlern in den Daten liegen, oder daran, daß die Verteilungen der beiden Klassen natürlicherweise überlappen. Für diesen Fall wird das Optimierungsproblem derart verändert, daß Verletzungen der Nebenbedingungen möglich sind, die Verletzungen aber so klein wie möglich gehalten werden sollen. Zu diesem Zweck wird eine positive Schlupfvariable für jede Nebenbedingungen eingeführt, deren Wert gerade die Verletzung der Nebenbedingungen ist. bedeutet also, daß die Nebenbedingung verletzt ist. Da in der Summe die Verletzungen möglichst klein gehalten werden sollen, wird die Summe der Fehler der Zielfunktionen hinzugefügt und somit ebenso minimiert. Zusätzlich wird diese Summe mit einer positiven Konstante multipliziert, die den Ausgleich zwischen der Minimierung von und der korrekten Klassifizierung der Trainingsbeispiele regelt. Das Optimierungsproblem besitzt dann folgende Form:

minimiere
so daß für alle


Beide Optimierungskriterien führen auf konvexe Optimierungsprobleme, die mit modernen Verfahren effizient gelöst werden können. Die einfache Optimierung und die Eigenschaft, dass Support-Vector-Machines eine Überanpassung an die zum Entwurf des Klassifikators verwendeten Testdaten vermeiden, haben der Methode zu großer Beliebtheit und einem breiten Anwendungsgebiet verholfen.

Abb. 1. Beispiel für eine Klassifizierung mit einer SVM. Zu sehen ist die trennende gekrümmte Hyperfläche (schwarze Linie) und die Support-Vektoren (blau umkreist).

Das oben beschriebene Optimierungsproblem wird normalerweise in seiner dualen Form gelößt. Diese wird mit Hilfe der Langrange-Multiplikatoren und der Karush-Kuhn-Tucker-Bedingungen hergeleitet. Sie lautet:

minimiere
so daß und

Diese Formulierung ist äquvivalent zu dem primalen Problem, in dem Sinne, dass alle Lösungen des dualen auch Lösungen des primalen Problems sind. Der Normalenvektor kann dann als Linearkombination aus Trainingsbeispielen geschrieben werden:

Damit ergibt sich als Klassifikationsregel:

Ihren Namen hat die SVM von einer speziellen Untermenge der Trainingspunkte, deren Langrangevariablen . Diese heissen Support-Vektoren und liegen entweder auf dem Margin (falls ) oder innerhalb des Margin ().


Erweiterung mit Kernelfunktionen

Der oben beschriebene Algorithmus klassifiziert die Daten mit Hilfe einer linearen Funktion. Diese ist jedoch nur optimal, wenn auch das zu Grunde liegende Klassifikationsproblem linear ist. In vielen Anwendungen ist dies aber nicht der Fall. Ein möglicher Ausweg ist, die Daten in einen Raum höherer Dimension abzubilden.

Dabei gilt . Durch diese Abbildung wird die Anzahl möglicher linearer Trennungen erhöht (Theorem von Cover [3]). SVMs zeichnen sich dadurch aus, dass sich diese Erweiterung sehr elegant einbauen läßt. In das dem Algorithmus zu Grunde liegende Optimierungsproblem in der zu letzt dargestellten Formulierung gehen die Datenpunkte nur in Skalarprodukten ein. Daher ist es möglich, das Skalarprodukt im Eingaberaum durch ein Skalarprodukt im zu ersetzen und stattdessen direkt zu berechnen. Die Kosten dieser Berechnung lassen sich sehr stark reduzieren, wenn eine positiv definiter Kernelfunktion stattdessen benutzt wird:

Durch dieses Verfahren kann eine Hyperebene (d.h. eine lineare Funktion) in einem hochdimensionalen Raum implizit berechnet werden. Der resultierende Klassifikator hat die Form

mit . Durch die Benutzung von Kernelfunktionen können SVMs auch auf allgemeinen Strukturen wie Graphen oder Strings operieren und sind daher sehr vielseitig einsetzbar. Obwohl durch die Abbildung implizit ein möglicherweise unendlich-dimensionaler Raum benutzt wird, generalisieren SVM immer noch sehr gut. Es läßt sich zeigen, dass für Maximum-Margin-Klassifizierer der erwartete Testfehler beschränkt ist und nicht von der Dimensionalität des Raumes abhängt.



Geschichte

Die Idee der Trennung durch eine Hyperebene wurde erstmals 1958 von Frank Rosenblatt veröffentlicht [4]. Die Idee der Support-Vector-Machines geht auf die Arbeit von Vladimir Vapnik und Aleksei Chervonenkis[5] zurück. Auf theoretischer Ebene ist der Algorithmus vom Prinzip der strukturellen Risikominimierung motiviert, welches besagt, dass nicht nur der Trainingsfehler sondern auch die Komplexität des verwendeten Modells die Generalisierungsfähigkeit eines Klassifizieres bestimmen. In der Mitte der 1990er Jahre gelang den SVMs der Durchbruch und zahlreiche Weiterentwicklungen und Modifikationen wurden in den letzten Jahren veröffentlicht.

Literatur

Software

Quellen

  1. LEO - dictForum - Diskussion über die Übersetzung von support vector machine.
  2. S. Bickel, U. Brefeld, M. Brückner. Text Mining und Anwendungen: Einführung. Präsentation am Institut für Informatik der Humboldt Universität Berlin, 2005.
  3. Schölkopf, Smola: Learning with Kernels, MIT Press, 2001
  4. Rosenblatt, F. (1958), "The Perceptron, a Probabilistic Model for Information Storage and Organisation in the Brain", in Psychological Review, 62/386
  5. Vapnik und Chervonenkis, Theory of Pattern Recognition,1979