Das Gebiet der Optimierung in der angewandten Mathematik beschäftigt sich damit, optimale Parameter eines - meist komplexen - Systems zu finden. "Optimal" bedeutet, dass eine Zielfunktion minimiert oder maximiert wird. Optimierungsprobleme stellen sich in der Wirtschaftsmathematik, Statistik, Operations Research, in allen Wissenschaftsgebieten, in denen mit unbekannten Parametern gearbeitet wird, insbesondere Physik, Chemie, Meteorologie usw. Ein Synonym für Optimierung ist "Mathematisches Programmieren".

Beispiel eines einfachen Optimierungsproblems
Das einfachste Optimierungsproblem ist das Auffinden eines Minimums oder Maximums einer analytischen eindimensionalen Funktion f(x), was in der Regel durch Auffinden der Nullstellen der ersten Ableitung gelingt.
Beispiele für Optimierungsprobleme
- Wirtschaftsmathematik: Die Zielfunktion stellt hier meist der Gewinn oder der Umsatz einer Firma dar, Parameter sind Rohstoffe, Personal-, Maschineneinsatz, Preise usw.. Die Zielfunktion soll maximiert werden. Im Grunde genommen handelt es sich um eine vereinfachte Formalisierung eines grundlegenden Managementproblems. Seine systematische Fundierung erhält es in der Operations Research.
- Statistik, Data Mining: Statistische Modelle enthalten offene Parameter, die geschätzt werden. Ein Parametersatz ist optimal, wenn dann das Modell die Datenbeziehungen (welche Werte y1,y2,... treten auf, wenn x1,x2,... auftreten?) optimal darstellt, d.h. die Abweichungen der modellierten Daten ym1,ym2,... von den empirischen Daten y1,y2,... optimal gering ist. Die Zielfunktion kann hier unterschiedlich gewählt werden, z.B. als Least Square oder als Likelihood-Funktion.
- Klimaforschung: Klimamodelle stellen vereinfachte numerische Systeme der eigentlichen hydrodynamischen Prozesse in der Atmosphäre dar. Innerhalb der Gitterzellen müssen die Wechselwirkungen durch Gleichungen approximiert werden. Die Gleichungen können dabei entweder aus grundlegenden hydrodynamischen Gesetzen abgeleitet werden oder es werden empirische Gleichungen verwendet, also im Grunde statistische Modelle, deren Parameter so optimiert werden müssen, dass die Klimamodelle die tatsächlichen Prozesse möglichst gut darstellen.
- Spieltheorie: Erreicht eine Spielerpopulation in einem Superspiel ein Populationsoptimum? Oder wenigstens ein Pareto-Optimum? Ist dieses Gleichgewicht stabil?
Abgrenzung
Verwandt zur Optimierung ist das Gebiet der Approximation in der Numerik. Man kann umgekehrt sagen: Ein Approximationsproblem ist das Problem, den Abstand (die Metrik) zweier Funktionen zu minimieren.
Begriffe: Zielfunktion, Nebenbedingungen, zulässige Menge, lokale und globale Optimierung
Es sei im Folgenden eine Miniminierungsaufgabe angenommen. Das, was minimiert werden soll, z. B. einen Abstand, nennt man Zielfunktion. Das, was variiert wird, sind die Parameter oder Variablen der Zielfunktion. Bei einer zweidimensionalen Optimierungsaufganbe (also zwei unabhängige Parameter) kann man sich die Zielfunktion räumlich vorstellen, indem die Parameter die Längen- und Tiefenachse aufspannen. Die Höhe ist dann der Zielfunktionswert. Im Allgemeinen ensteht so ein „Gebirge“ mit Bergen und Tälern. Falls es sich bei der Optimierungsaufgabe tatsächlich um ein Approximationsproblem handelt, dann spricht man bei dem „Gebirge“ mitunter auch von der Fittopologie.
Da die Zielfunktion ein „Gebirge“ darstellt, ist das Optimierungsproblem damit gleichzusetzen, in diesem Gebirge das tiefste Tal (Minimierung) oder den höchsten Gipfel (Maximum) zu finden. Der Aufwand zur Lösung der Aufgabe hängt entscheidend von der Form des „Gebirges“ ab. Extrembeispiel für eine Minimierungsaufgabe wäre die Form eine Billiardtisches, also einer absolut flachen Ebene, aus dem an zufälligen Punkten einzelne nadelförmige Spitzen herausragen. In diesem Fall hilft keinerlei Suchalgorithmus, man kann nur zufällig suchen (Monte Carlo-Methode) oder systematisch die gesamte Fläche abrastern. Der einfachste Fall einer zweidimensionalen Optimierierungsaufgabe wäre es, wenn das Gebirge die Form einer (nach unten geöffneten) um die Höhenachse rotierten Parabel hätte, dessen Spitze man finden müsste.
Besteht die Optimierungsaufgabe darin, von einem gegebenen Punkt im Gebirge aus das nächste relative (lokale) Minimum oder Maximum in der Nachbarschaft zu finden, dann spricht man von lokaler Optimierung. Besteht die Aufgabe darin, das absolute Minimum oder Maximum im gesamten Gebirge zu finden, dann spricht man von globaler Optimierung. Beide Aufgaben sind ungleich schwierig: Für die lokale Optimierung gibt es zahlreiche Methoden, die alle mehr oder weniger schnell, in allen nicht allzuschwierigen Fällen mit großer Sicherheit zum Ziel führen. Bei der globalen Optimierung hängt die Lösbarkeit der Aufgabe im Rahmen eines gegebenen oder realisierbaren Rechenbudgets sehr stark von der Zielfunktionstopologie ab.
Häufig ist man nur an solchen Werten für die Parameter interessiert die zusätzliche Nebenbedingungen erfüllen. Diese Nebenbedingungen können in Form von Gleichungen oder Ungleichungen beschrieben sein, oder explizit eine Menge beschreiben (z.B. nur ganzzahlige Lösungen). Die Menge aller Parameterwerte die die Nebenbedingungen erfüllen bezeichnet man als zulässige Menge
Klassifikation
Ein Optmierungsproblem lässt sich mathematisch darstellen als
- minimiere/maximiere wobei
dabei ist und . Nicht in dieses Schema passt z.B. die Pareto-Optimierung bei der mehrere Zielfunktionen gleichzeitig optimiert werden. Häufig ist die zulässige Menge durch eine Funktion gegeben, d.h.
In diesem Fall spricht man von Nebenbedingungen. Je nach Form von lassen sich Optimierungsprobleme wie folgt klassifizieren:
- Variationsproblem: ist unendlichdimensional, speziell ein Funktionenraum.
- Lineares Programm: ist affin, ist linear.
- Quadratisches Programm: wie oben, nur ist eine quadratische Funktion.
- Nichtlineares Programm: sind beliebige Funktionen.
- Ganzzahliges Programm (auch diskretes Programm): Zusätzlich sind die zulässigen x auf ganzzahlige (oder allgemeiner diskrete Werte) beschränkt.
- Stochastisches Programm: Einige Parameter in der Beschreibung von sind unbekannt (aber ihre Zufallsverteilung ist bekannt).
- Konvexes Programm: ist konvex und ist konvex (konkav) falls minimiert (maximiert) wird.
Jedes dieser Teilgebiete der Optimierung hat speziell darauf abgestimmte Lösungsverfahren.
Bei der linearen Optimierung handelt es sich um einen Spezialfall: Die Zielfunktion ist linear und die Nebenbedingungen sind durch ein lineares Gleichungssystem darstellbar. Jedes lokale Optimum ist automatisch auch globales Optimum. Es gibt Methoden, um das globale Optimum im Prinzip exakt zu berechnen, die bekannteste ist das Simplex-Verfahren (nicht zu verwechseln mit dem Downhill-Simplex-Verfahren weiter unten). Seit den 1990er Jahren gibt es allerdings auch effiziente Innere-Punkte-Verfahren, die es mit dem Simplex-Verfahren aufnehmen können.
Schwieriger ist der Fall der nichtlinearen Optimierung, bei der entweder die Zielfunktion oder die Nebenbedingungen oder sogar beide nichtlinear sind:
Methoden der lokalen nichtlinearen Optimierung ohne Nebenbedingungen
Bei der lokalen Optimierung hängt die Wahl der Methode von der genauen Problemstellung ab: Handelt es sich um eine beliebig exakt bestimmte Zielfunktion? (Das ist bei stochastischen Zielfunktionen oft nicht der Fall) Ist die Zielfunktion in der Umgebung streng monoton, nur monoton oder könnte es "unterwegs" sogar kleine relative Extrema geben? Wie hoch sind die Kosten, einen Gradienten zu bestimmen?
Beispiele für Methoden:
Ableitungsfreie Methoden
- Intervallhalbierungsverfahren, goldener Schnitt und andere Verfahren der Liniensuche.
- Sekantenverfahren
- Downhill-Simplex-Verfahren
Diese Methoden kosten viele Iterationen, sind aber (teilweise) relativ robust gegenüber Problemen in der Zielfunktion, z.B. kleine relative Extrema und sie verlangen nicht die Berechnung eines Gradienten. Letzteres kann sehr kostspielig sein, wenn lediglich ein relativ ungenaues Ergebnis angestrebt wird.
Verfahren, für die die 1. Ableitung benötigt wird
Diese Methoden sind schneller als die ableitungsfreien Methoden, sofern ein Gradient schnell berechnet werden kann und sie sind ähnlich robust wie die ableitungsfreien Methoden.
Verfahren, für die die 2. Ableitung benötigt wird
- Newton-Verfahren, bzw. Newton-Raphson-Verfahren.
Gemeinhin ist das Newton-Verfahren als Verfahren zur Bestimmung einer Nullstelle bekannt und benötigt die erste Ableitung. Dementsprechend lässt es sich auch auf die Ableitung einer Zielfunktion anwenden, da die Optimierungsaufgabe auf die Bestimmung der Nullstellen der 1. Ableitung hinausläuft. Das Newton-Verfahren ist sehr schnell, aber sehr wenig robust. Wenn man sich der "Gutartigkeit" seines Optimierungsproblems nicht sicher ist, muß man zusätzlich Globalisierungsstrategien wie Schrittweitensuche oder Trust-Region Methoden verwenden.
Methoden der globalen nichtlinearen Optimierung
Im Gegensatz zur lokalen Optimierung ist die globale Optimierung ein quasi ungelöstes Problem der Mathematik: Es gibt praktisch keinerlei Methoden, bei deren Anwendung man in den meisten Fällen als Ergebnis einen Punkt erhält, der mit Sicherheit oder auch nur großer Wahrscheinlichkeit das absolute Extremum darstellt.
Allen Methoden zur globalen Optimierung gemein ist, dass sie wiederholt nach einem bestimmten System lokale Minima/Maxima aufsuchen.
Am häufigsten werden hier Evolutionäre Algorithmen angewandt. Diese liefern besonders dann ein gutes Ergebnis, wenn die Anordnung der relativen Minima und Maxima eine gewisse Gesetzmäßigkeit aufweisen, deren Kenntnis vererbt werden kann. Gibt es keine Regelmässigkeiten in der Anordnung der Minima und Maxima, hilft auch die Genetik nichts. Eine ganz gute Methode kann auch sein, die Ausgangspunkte für die Suche nach lokalen Minima/Maxima zufällig zu wählen, um dann mittels statistischer Methoden die Suchergebnisse nach Regelmässigkeiten zu untersuchen.
Oft wird allerdings in der Praxis das eigentliche Suchkriterium nicht genügend reflektiert. So ist es oft viel wichtiger, nicht das globale Optimum zu finden, sondern ein Parametergebiet, innerhalb dem sich möglichst viele relative Minima befinden. Hier eignen sich dann Methoden der Clusteranalyse oder neuronale Netze.
Weitere Methoden der nichtlinearen globalen Optimierung:
- Bergsteigeralgorithmus (hill climbing)
- Metropolisalgorithmus
- simulierte Abkühlung (simulated annealing)
- Schwellenakzeptanz (threshold accepting)
Theoretische Aussagen
Bei der Optimierung einer (differenzierbaren) Funktion ohne Nebenbedingungen ist bekannt, dass Minima/Maxima nur an Stellen mit sein können. Diese Bedingung wird bei der Konstruktion vieler Lösungsverfahren ausgenutzt. In dem Fall der Optimierung mit Nebenbedingungen gibt es analoge theoretische Aussagen: Dualität und Lagrange-Multiplikatoren.
Dualität
Das zu einem Optimierungsproblem zugeordnete (Lagrange-)duale Problem ist
wobei die dem Problem zugeordnete Lagrange Funktion ist. Die heissen hierbei Lagrange-Multiplikatoren auch duale Variables oder Schattenpreise. Anschaulich erlaubt man die Nebenbedingungen zu verletzten, wobei pro Einheit zusätzliche Kosten entstehen. Der Wert von für den es sich nicht lohnt die Nebenbedingungen zu verletzten (das Maximum über alle ) ist die Lösung des dualen Problems. Für konvexe Probleme (Bedeutender Spezialfall: lineare Probleme) ist der Wert des dualen Problems gleich dem Wert des Ursprungsproblems. Für lineare und konvexe quadratische Probleme, lässt sich die innere Minimierung geschlossen lösen, und das duale Problem ist wieder ein lineares oder konvexes quadratisches Problem.
Der Lagrange Multiplikatorsatz besagt, dass Lösungen des restringierten Optimierungsproblems nur an Stellen zu finden sind an denen es Lagrange-Multiplikatoren gibt, die die Bedingung
erfüllen. Diese Bedingung ist die direkte Verallgemeinerung der obigen Ableitungsbedingung. Wie diese gibt der Lagrange Multiplikatorensatz eine notwendige Bedingung für ein Minimum/Maximum. Eine hinreichende Bedingung kann durch Betrachtung der zweiten Ableitungen gewonnen werden.
Der Lagrange Multiplikatorensatz gilt nur für den Fall dass die Nebenbedingungen durch Gleichungen gegeben sind. Die Verallgemeinerung auf Ungleichungen gibt der Satz von Karush-Kuhn-Tucker.
Literatur
- R. Fletcher, Practical Methods of Optimization, Wiley, 1987
- J. Nocedal, S.J. Wright, Numerical Optimization, Springer, 1999
- R. Horst and P.M. Pardalos (eds.), Handbook of Global Optimization, Kluwer, Dordrecht 1995
- Alt, Walter.: Nichtlineare Optimierung - Eine Einführung in Theorie, Verfahren und Anwendungen, Vieweg, 2002, Druckfehler im Buch --> [1]
- W.H. Press et al.: Numerical Recipes, Cambridge: University Press.