Zum Inhalt springen

Automatisches Differenzieren

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 9. Dezember 2007 um 06:28 Uhr durch 129.206.101.136 (Diskussion) (Kleinigkeiten am Text). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Das automatische Differenzieren bzw. Differenzieren von Algorithmen ist ein Verfahren der Informatik und angewandten Mathematik. Zu einer Funktion in mehreren Variablen, die als Prozedur in einer Programmiersprache oder als Berechnungsgraph gegeben ist, wird eine erweiterte Prozedur erzeugt, die sowohl die Funktion als auch einen oder beliebig viele Gradienten, bis hin zur vollen Jacobi-Matrix, auswertet. Wenn das Ausgangsprogramm Schleifen enthält darf die Anzahl der Schleifendurchläufe nicht von den unabhängigen Variablen abhängig sein.

Diese Ableitungen werden z.B. für das Lösen von nichtlinearen Gleichungssystemen mittels Newton-Verfahren und für Methoden der nichtlinearen Optimierung benötigt.

Das wichtigste Hilfsmittel dabei ist die Kettenregel sowie die Tatsache, dass zu den im Computer verfügbaren Elementarfunktionen wie sin, cos, exp, log die Ableitungen bekannt und genauso exakt berechenbar sind. Damit wird der Aufwand zur Berechnung der Ableitungen proportional (mit kleinem Faktor) zum Aufwand der Auswertung der Ausgangsfunktion.


Berechnung von Ableitungen

Aufgabe: Gegeben eine Funktion

Wie erhält man Code/Funktion für Richtungsableitungen oder die volle Jacobi-Matrix

Verschiedene Ansätze hierfür sind:

1.) Versuche, eine geschlossene, analytische Form für f zu finden und bestimme durch Differentiation „auf Papier“. Implementiere dann den Code für von Hand.
Problem: Zu schwierig, zeitaufwendig, fehleranfällig
2.) Erzeuge die Berechnungsvorschrift für f in einem Computeralgebrasystem und wende die dort zur Verfügung stehenden Mittel zum symbolischen Differenzieren an. Exportiere dann den Code für in seine eigentliche Umgebung.
Problem: Zeitaufwendig, skaliert nicht, zu kompliziert für größerer Programme/Funktionen
3.) Bestimme eine numerische Approximation der Ableitung. Es gilt für kleines h
.
Problem: wie findet man eine optimale Schrittweite h?
4) Stelle die Berechnungsvorschrift als Berechnungsbaum, d.h. als arithmetisches Netzwerk, dar und erweitere diesen unter Verwendung der Kettenregel zu einem Berechnungsbaum für Funktionswert und Ableitung .

Die Idee der Automatischen Differentiation (AD)

Jedes Programm, das eine Funktion auswertet, kann als eine Abfolge von Zwischenschritten beschrieben werden, in welchen Zwischenergebnisse auf elementare Weise umgewandelt werden. Man kann sich dies so vorstellen, dass es eine (potentiell unendliche) Folge von Zwischenwerten gibt und Funktionen , die aber nur von ein oder zwei Variablen wirklich abhängen. Die Funktion wird ausgewertet, indem am Anfang gesetzt wird und nacheinander

bestimmt wird. Dies kann so eingerichtet werden, dass die Funktionswerte von f sich in den zuletzt ausgewerteten Zwischenergebnissen befinden, d.h. am Ende wird noch zugeordnet.


AD beschreibt eine Menge von Verfahren, deren Ziel es ist ein neues Programm zu erzeugen, welches die Jacobimatrix von f, auswertet. Die Eingabevariablen x heißen unabhängige Variablen, die Ausgabevariable(n) y abhängige Variablen. Bei AD unterscheidet man mindestens zwei Verschiedene Modi.

  1. Vorwärtsmodus (FM engl Forward Mode)
  2. Rückwärtsmodus (BM engl Backward Mode)

Vorwärtsmodus

Im Vorwärtsmodus berechnet man eine Matrix

mit einer beliebigen Matrix S (Seedmatrix) und einem näher zu bestimmenden Parameter p

Beispiel

AD berechnet J
Im Vorwärtsmodus werden Richtungsableitungen entlang des Kontrollflusses der Berechnung von f transportiert. Für jede skalare Variable v wird in dem AD-erzeugten Code ein Vektor Dv erzeugt, dessen i-te Komponente die Richtungsableitung entlang der i-ten unabhängigen Variablen enthält.

Beispiel

Berechne eine Funktion

 

Eine Automatische Differentiation im Vorwärtsmodus hätte eine Funktion zum Ergebnis:

 

Rückwärtsmodus

Der Rückwärtsmodus besteht aus zwei Phasen.

  1. Das Originalprogramm wird ausgeführt und gewisse Daten werden abgespeichert
  2. Das Originalprogramm wird rückwärts ausgeführt. Dabei werden Richtungsableitungen transportiert und es werden die Daten aus Phase 1 verwendet.

In Phase 2 wird für jede skalare Variable v ein Vektor a_v eingeführt. Dieser Vektor enthält in der i-ten Komponente die i-te Richtungsableitung (in Richtung von v). Die Saatmatrix befindet sich in a_y. Im Rückwärtsmodus erhält man als Ergebnis ein Produkt

Beispiel 1

   AD berechnet J

Für jede Rechenvorschriftszeile werden die Ableitungen von u und v auf folgendem Wege von s ergänzt:

  

Beispiel 2

Gesucht sind die - und -Ableitungen von . Diese werden jeweils als und bezeichnet. Der Wert wird mit 1 initialisiert, alle anderen -Werte werden mit 0 initialisiert.

  

Effizienzbetrachtungen

Die Effizienz von AD-Algorithmen hängt vom Modus und dem Parameter p ab. Die Wahl des Modus und des Parameters p hängt davon ab, wofür die Jacobimatrix berechnet wird. Es gelte

die Zeit f zu berechnen
der Speicherbedarf dieser Rechnung
die Zeit f und JS zu berechnen
der Speicherbedarf dieser Rechnung
die Zeit f und SJ zu berechnen
der Speicherbedarf dieser Rechnung

Für die beiden vorgestellten Modi gilt

  1. Vorwärtsmodus:
  2. Rückwärtsmodus:

Die Berechnung als Kette von Berechnung

Gegeben: , Frage: Wie verändert sich die Ableitug von s während der 2ten Phase, um die Ableitungen von u und v zu erhalten?

  
  

f(x) wird als Sequenz von Programmen interpretiert. Im Beispiel "Optimierung eines Tragflügels" umfasst die Berechnung die folgenden Schritte.

  • Überlagerung des Tragflügels mit sogenannten "Mode-Funktionen"
  • Berechnung eines Gitters, das um den Tragflügel herum gelegt wird
  • Lösung der Navier-Stokes-Gleichungen auf dem Gitter und Berechnung der Integrals der selbigen.

.

Insgesamt ergibt sich die Funktion

  

Mit einem naivem Ansatz würde man drei Matrizen ,, berechnen und dann zwei Matrix-Matrix Multiplikationen durchführen. Der Nachteil des Vorwärtsmodus ist allerdings:

  

im Rückwärtsmodus würde analog

  

gelten. Ein besserer Ansatz ist, das Ergebnis einer Berechnung jeweils als Saatzmatrix der folgenden einzusetzen.

  1. Wähle als Saatmatrix der ersten Rechnung
  2. Das Ergebnis der ersten Rechnung als Saatmatrix der zweiten Rechnung
  3. Das Ergebnis der zweiten Rechnung als Saatmatrix der dritten Rechnung

also

Da die Zeilenzahl jeder Matrix 8 (p=8) ist erhöht sich der Zeit- und Speicherbedarf ebenfalls um höchstens 8.