Semidefinite Programmierung
In der Semidefiniten Programmierung (SDP, auch Semidefinite Optimierung) werden Optimierungsprobleme untersucht, deren Variablen keine Vektoren, sondern symmetrische Matrizen sind. Als Nebenbedingung wird verlangt, dass diese Matrizen positiv (oder negativ) semidefinit sind, woraus sich der Name der Problemstellung ergibt.
Anwendungen gibt es auf dem Gebiet der Approximationstheorie, der Kontrolltheorie, der kombinatorischen Optimierung und auch in der Technik.
Problemformulierung
Gegeben sei der reelle Vektorraum der reellen, symmetrischen Matrizen versehen mit dem Frobenius-Skalarprodukt
- .
Hierbei ist die Spur einer Matrix.
Des Weiteren sei der Kegel der symmetrischen, positiv semidefiniten Matrizen und die durch diesen Kegel definierte verallgemeinerte Ungleichung.
Normalform
Das Optimierungsproblem
mit ein lineares semidefinites Programm oder einfach semidefinites Programm (kurz SDP) ind Normalform. Gesucht wird also eine reelle, symmetrische Matrix , die positiv semidefinit ist, deren Skalarprodukt mit vorgegebenen Matrizen einen bestimmten Wert annimmt und die maximal bezüglich des Frobenius-Skalarprodukts ist. Manchmal werden auch die Gleichungsnebenbedingungen zusammengefasst durch eine Lineare Funktion , die durch
definiert ist. Dann lauten die Ungleichungsnebenbedingungen mit .
Ungleichungsform
Analog zu linearen Optimierungsproblemen existiert auch die Ungleichungsform eines SDPs:
wobei und sind. Gelegentlich wird die Ungleichungsform auch geschrieben als
Hierbei entspricht der Einführung einer Schlupfvariable. Diese Form wird gerne gewählt, um Analogien zu den linearen Programmen klar zu machen. Auch hier wird gelegentlich eine lineare Funktion definiert durch
- ,
um die Notation zu vereinfachen und spätere Dualitätsaussagen klarer zu machen.
Ohne verallgemeinerte Ungleichungen
Formuliert man SDP ohne verallgemeinerte Ungleichungen, so werden die Bedingungen (Normalform) und (Ungleichungsform mit Schlupfvariable) meist ausgeschrieben als " (bzw- ) ist positiv semidefinit".
Nichtlineare Semidefinite Programme
Gelegentlich werden auch nichtlineare semidefinite Programme betrachtet, diese haben dann entweder keine lineare Zielfunktion mehr oder nichtlineare Restriktionen.
Klassifikation und Spezialfälle
Als konvexe Optimierungsprobleme
Semidefinite Programme sind immer konvexe Optimierungsprobleme. Dies folgt daraus, dass alle Gleichungsrestriktionen immer affin-linear sind und alle Ungleichungsrestriktionen (unter Verwendung von verallgemeinerten Ungleichungen) immer affin-linear sind und damit auch immer K-konvexe Funktionen sind. Damit ist die Restriktionsmenge konvex. Da außerdem die Zielfunktion immer linear ist, handelt es sich immer um ein (abstraktes oder verallgemeinertes) konvexes Problem, unabhängig ob es als Minimierungsproblem oder als Maximierungsproblem formuliert ist.
Als konisches Programm
Semidefinite Programme sind konische Programme auf dem Vektorraum der symmetrischen reellen Matrizen versehen mit dem Frobenius-Skalarprodukt und unter Verwendung des Kegels der positiv semidefiniten Matrizen. Der lineare Unterraum des wird in der Normalform durch den Kern der Abbildung , also durch die lösungsmenge der Gleichung , beschreiben. In der Ungleichungsform mit Schlupfvariable wird der Unterraum durch das Bild der Abbildung beschrieben.
Spezialfall lineare Programme
Ein Spezialfall eines semidefiniten Programmes ist ein lineares Programm. Dazu ersetzt man alle auftretenden Matrizen durch Diagonalmatrizen. Dadurch reduziert sich die Anforderung, dass positiv semidefinit sein soll, zu , das Frobenius-Skalarprodukt geht zum Standardskalarprodukt über und damit werden die Gleichungsrestriktionen zu einem linearen Gleichungssystem.
Beispiel
Will man eine symmetrische Matrix finden, für die die Summe der k größten Eigenwerte so klein wie möglich ist, kann man das als Problem der semidefiniten Programmierung formulieren. Dabei minimiert man als Zielfunktion die Variable t, von der man in einer Nebenbedingung fordert, dass sie größer oder gleich der Summe der k größten Eigenwerte von X ist. Diese Nebenbedingung ist sehr schwierig zu handhaben, weil es keine leicht zu berechnende Funktion gibt, die zu einer Matrix die Eigenwerte angibt, schon gar nicht in einer sortierten Form. Allerdings kann man die Nebenbedingung äquivalent durch die folgenden drei Bedingungen ausdrücken:[1]
- .
Dabei ist E die Einheitsmatrix, t und s sind reelle Variablen, X und Z sind Matrixvariablen. Diese Bedingungen sind mathematisch leichter zu behandeln, obwohl sie auf den ersten Blick schwieriger aussehen. Alle lassen sich einfach berechnen, da sie linear in den Variablen sind. Auch die Berechnung der Spur ist einfach. Für die Überprüfung auf positive Semidefinitheit für die zweite und dritte Bedingung gibt es spezielle Verfahren, die dann zur Lösung des Problems herangezogen werden.
Lagrange-Dualität
Ist ein SDP in Normalform gegeben durch
- ,
so lässt sich das duale Problem bezüglich der Lagrange-Dualität auf zwei Arten formulieren. Will man das duale Problem wieder als Minimierngsproblem und damit als klassischen SDP formulieren, so formuliert man die Gleichungsnebenbedingungen um als . Damit erhält man als Lagrange-Funktion
- .
und unter Ausnutzung der selbstdualität des Semidefiniten Kegels das duale Problem
- .
fungiert hier als Schlupfvariable. Dies ist ein SDP in Ungleichungsform.
Will man das duale Problem jedoch wie in der Lagrange-Dualität üblich als Maximierungsproblem formulieren, auch um Parallelen zu den linearen Programmen zu betonen, so löst man die Gleichungsrestriktionen auf als . Damit ist die Lagrange-Funktion
- ,
und das duale Problem Lautet
- ,
diesmal ohne Schlupfvariable dargestellt. Die beiden Darstellungen gehen durch ineinander über.
Umgekehrt ist das duale Problem eines SDPs in Ungleichungsform wieder ein SDP in Normalform.
Literatur
- Florian Jarre, Josef Stoer: Optimierung. Springer, Berlin 2004, ISBN 3-540-43575-1.
- Johannes Jahn: Introduction to the Theory of Nonlinear Optimization. 3. Auflage. Springer, Berlin 2007, ISBN 978-3-540-49378-5.
Einzelnachweise
- ↑ Florian Jarre, Josef Stoer: Optimierung. Springer, Berlin 2004, S. 419.
Weblinks
- Christoph Helmberg: Seite mit vielen weiterführenden Links. Abgerufen am 19. Juli 2008 (englisch).