Newtonverfahren

Näherungsverfahren für die Nullstellen einer Funktion
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 19. Oktober 2006 um 18:33 Uhr durch 81.62.71.139 (Diskussion). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Das Newtonsche Näherungsverfahren, auch Newton-Raphsonsche Methode, (benannt nach Sir Isaac Newton 1669 und Joseph Raphson 1690) ist in der Mathematik das Standardverfahren zur numerischen Lösung von nichtlinearen Gleichungen und Gleichungssystemen. Im Falle einer Gleichung mit einer Variablen lassen sich zu einer gegebenen stetig differenzierbaren Funktion Näherungswerte zu Lösungen der Gleichung , d.h. Näherungen der Nullstellen dieser Funktion finden. Die grundlegende Idee dieses Verfahrens ist, die Funktion in einem Ausgangspunkt zu linearisieren, d.h. ihre Tangente zu bestimmen, und die Nullstelle der Tangente als verbesserte Näherung der Nullstelle der Funktion zu verwenden. Die erhaltene Näherung kann wieder als Ausgangspunkt für einen weiteren Verbesserungsschritt dienen. Diese Iteration wird so oft wiederholt, bis die Änderung in der Näherungslösung eine festgesetzte Schranke unterschreitet. Das unendlich oft fortgesetzte Iterations-Verfahren konvergiert im günstigsten Fall mit quadratischer Konvergenzordnung, die Zahl der korrekten Dezimalstellen verdoppelt sich dann in jedem Schritt. und ich bin der könig von china

Newton-Verfahren für reelle Funktionen einer Veränderlichen

Historisches über das Newtonverfahren

Isaac Newton verfasste im Zeitraum 1664-1671 die Arbeit „Methodus fluxionum et serierum infinitarum“ (latein für: Von der Methode der Fluxionen und unendlichen Folgen). Darin erklärt er einen neuen Algorithmus zum Lösen einer polynomialen Gleichung am Beispiel  . Dazu kann man leicht den Punkt   als erste Näherung raten. Newton machte den Ansatz   mit einem als "klein" angenommenen   und setzte diesen in die Gleichung ein:

Nach den binomischen Formeln gilt
 
 
 .

Da   "klein" sein soll, können die Terme höherer Ordnung gegen den linearen und konstanten vernachlässigt werden, womit   bzw.   übrig bleibt. Wir können nun dieses Vorgehen wiederholen und   ansetzen, in die zweite Gleichung einsetzen, höhere Terme weglassen und   erhalten.

Joseph Raphson beschrieb 1690 in der Arbeit „Analysis Aequationum universalis“ diesen Rechenprozess formal und illustrierte den Formalismus an der allgemeinen Gleichung 3. Grades, wobei er die nachfolgende Iterationsvorschrift fand. (Nach Quelle [1].)

Die abstrakte Form des Verfahrens mit Benutzung der Ableitung   stammt von Thomas Simpson.

Konstruktion am Graphen

Anschaulich gelangt man wie folgt zu diesem Verfahren: Sei   eine stetig differenzierbare reelle Funktion, von der wir eine Stelle   im Definitionsbereich mit „kleinem“ Funktionswert kennen. Wir wollen einen Punkt   nahe   finden, der eine verbesserte Näherung der Nullstelle darstellt. Dazu linearisieren wir die Funktion   an der Stelle  , d.h. wir ersetzen sie durch ihre Tangente im Punkt   mit Anstieg  .

 

Die Tangente ist durch die Funktion   gegeben, setzen wir   ein, so erhalten wir

 .

Wir wählen als   die einzige Nullstelle dieser linearen Funktion,

 .

Wenden wir diese Konstruktion mehrfach an, so erhalten wir aus einer ersten Stelle   eine unendliche Folge von Stellen  , die durch die Rekursionsvorschrift

 

definiert ist. Diese Vorschrift wird auch als Newton-Iteration bezeichnet, die Funktion   als Newton-Operator. Die Newton-Iteration ist ein spezieller Fall einer Fixpunktiteration, falls die Folge gegen   konvergiert, so gilt   und daher  .

Die Kunst der Anwendung des Newtonverfahrens besteht darin, geeignete Startwerte   zu finden. Je mehr über die Funktion   bekannt ist, desto kleiner lässt sich die notwendige Menge von Startwerten gestalten.

Viele nichtlineare Gleichungen haben mehrere Lösungen, so hat ein Polynom  -ten Grades bis zu   Nullstellen. Will man alle Nullstellen in einem bestimmten Bereich   ermitteln, so muss zu jeder Nullstelle ein passender Startwert in   gefunden werden, für den die Newton-Iteration konvergiert. Dazu könnte man z.B. per Bisektion genügend kleine isolierende Intervalle zu jeder Nullstelle bestimmen.

Erstes Beispiel

Die Quadratwurzel einer Zahl   sind die Nullstellen der Funktion  . Diese Funktion hat die Ableitung  , die Newton-Iteration erfolgt also nach der Vorschrift

  

Der Vorteil dieser Vorschrift gegenüber dem Wurzelziehen nach Heron (siehe unten) ist, dass es divisionsfrei ist, sobald einmal der Kehrwert von   bestimmt wurde. Als Startwert wurde in der Tabelle   gewählt. Die Iterierten wurden an der ersten ungenauen Stelle abgeschnitten. Es ist zu erkennen, dass nach wenigen Schritten die Anzahl gültiger Stellen schnell wächst.

n   bei     bei     bei  
0      
1      
2      
3      
4      
5      
6      
7      
8      

Betrachten wir die Differenz   zum Grenzwert im  -ten Schritt, so kann mittels der binomischen Formeln die Differenz im  -ten Schritt zweimal abgespalten werden:

 
 

Nach der Ungleichung vom arithmetischen und geometrischen Mittel gilt  , so dass der zweite Faktor sinnvoll durch   beschränkt werden kann. Ist die Differenz im  -ten Schritt eine kleine Zahl, so ist die Differenz im  -ten Schritt proportional zum Quadrat davon, also wesentlich kleiner. So entsteht durch Quadrieren eines Fehlers   eine Fehlerabschätzung proportional zu  . Deshalb spricht man davon, dass sich die Anzahl der gültigen Stellen in jedem Schritt der Newton-Iteration in etwa verdoppelt.

Konvergenzbetrachtungen

Das Newton-Verfahren ist ein so genanntes lokal konvergentes Verfahren. Konvergenz der in der Newton-Iteration erzeugten Folge zu einer Nullstelle ist also nur garantiert, wenn der Startwert, d.h. das 0-te Glied der Folge, schon „ausreichend nahe“ an der Nullstelle liegt. Ist der Startwert zu weit weg, kann alles passieren:

  • Die Folge divergiert, der Abstand zur Nullstelle wächst über alle Grenzen.
  • Die Folge divergiert, bleibt aber beschränkt. Sie kann z.B. periodisch werden, d.h. endlich viele Punkte wechseln sich in immer derselben Reihenfolge ab. Man sagt auch, dass die Folge oszilliert.
  • Die Folge konvergiert trotz der Distanz zur Nullstelle, kann jedoch, falls die Funktion mehrere Nullstellen hat, gegen eine andere als die gewünschte Nullstelle (falls man weiß, welche man will) konvergieren.
 
Newton-Fraktal für p(z)=z³-1

Ist der Startwert   so gewählt, dass das Newton-Verfahren konvergiert, so ist die Konvergenz allerdings quadratisch, also mit der Konvergenzordnung 2 (falls die Ableitung an der Nullstelle nicht verschwindet). Die Menge der Startpunkte, für die das Newton-Verfahren gegen eine bestimmte Nullstelle konvergiert, bildet den Einzugsbereich dieser Nullstelle. Färbt man für eine Polynomfunktion, mit reellen oder komplexen Koeffizienten, die Einzugsbereiche verschiedener Nullstellen in der komplexen Ebene verschieden ein, so ergibt sich ein Newton-Fraktal. In diesem ist zu erkennen, dass die Einzugsbereiche Bassins, d.h. Kreisscheiben um die Nullstellen enthalten, aus welchen heraus die Newton-Iteration stabil gegen die Nullstelle im Zentrum konvergiert. Aber es ist auch zu erkennen, dass die Ränder der Einzugsbereiche „ausgefranst“ sind, sie haben sogar eine fraktale Struktur. Geringe Abweichungen im Startpunkt können also zu verschiedenen Nullstellen führen. Falls es jedoch im Intervall   genau eine Nullstelle gibt, in   durchweg   sowie   gilt und der Startwert   links von der Nullstelle   gewählt wird, dann konvergiert das Newton-Verfahren stets, und zwar streng monoton wachsend (siehe Abbildung unten bzw. die Tabelle oben ab  ).

Beispiele für Nicht-Konvergenz

  1. Oszillierendes Verhalten ergibt sich für das Polynom   (siehe Quelle [2]) mit  . Der Punkt   mit   und   wird durch den Newton-Operator auf den Punkt   abgebildet, der Punkt   wiederum, mit   und  , wird auf   abgebildet, so dass die Newton-Iteration mit einem dieser Punkte als Startwert eine periodische Folge ergibt, diese beiden Punkte wechseln sich zyklisch ab. Des Weiteren ist dieser Zyklus stabil, er bildet einen Attraktor der Newton-Iteration. Das bedeutet, es gibt eine kleine Umgebung beider Punkte, so dass Startpunkte in dieser Umgebung gegen den Zyklus konvergieren und somit je einen der Punkte 0 und 1 als Grenzwert der Teilfolge mit geradem Index und der mit ungeradem Index haben.
  2. Divergenz bzw. beliebig weites Entfernen vom Startpunkt ergibt sich für   mit   und  . Es gibt eine Stelle   mit  . Man überzeugt sich, dass dann   gilt. Dieses Verhalten ist nicht stabil, denn bei leichter Variation des Anfangswertes, wie sie zum Beispiel durch die numerische Berechnung entsteht, entfernt sich die Newton-Iteration immer weiter von der idealen divergierenden Folge. Selbst bei schließlicher Konvergenz wird die gefundene Nullstelle sehr weit vom Startwert entfernt sein.

Lokale quadratische Konvergenz

Sei   eine zweimal stetig differenzierbare reelle Funktion und   eine Nullstelle von  , in welcher die Ableitung keine Nullstelle hat. Das bedeutet, dass der Graph der Funktion transversal, d.h. nicht-berührend, die x-Achse schneidet. Dann kann die Wirkung des Newton-Operators in der Nähe von   angenähert werden durch

 .

Eine mathematisch exaktere Formulierung dieses Sachverhaltes besagt, dass es eine Konstante   und ein Intervall   gibt, so dass innerhalb dieses Intervalls gilt

  für alle  .

Ist also  , so konvergiert die Folge   der Newton-Iteration gegen  , denn die Folge   mit   erfüllt  , nach vollständiger Induktion also  , was für   eine Nullfolge ist.

Ist die Differenz   eine sehr kleine Zahl, so kann auch die Näherungsformel verwendet werden, es gilt dann

 .

Je nach Vorzeichen der ersten beiden Ableitungen konvergiert die Folge der Newton-Iteration also von links oder rechts.

Die aus diesen Abschätzungen folgende Konvergenzgeschwindigkeit wird als quadratisch bezeichnet, die (logarithmische) Genauigkeit bzw. Anzahl gültiger Stellen verdoppelt sich in jedem Schritt. Die Abschätzung des Abstands   zur Nullstelle wird oft linear in   angegeben, so gilt z.B.

  • für   durch  -faches Einsetzen
 ,
wodurch sich die Anzahl der gültigen Stellen im Binärsystem abschätzen lässt, oder
  • für   gilt
 ,
d.h. nahe genug an der Nullstelle ergibt sich die schon oben angesprochene Verdopplung der Dezimalstellen in jedem Schritt.

Bemerkungen

  • Der lokale Konvergenzbeweis basiert auf der Taylor-Entwicklung des Grades 2, ist im mehrdimensionalen Fall allerdings technisch schwierig. Für diesen Fall wurde er zuerst von Leonid Kantorowitsch geführt und ist als Satz von Kantorowitsch bekannt.
  • Um einen geeigneten Startpunkt zu finden, verwendet man gelegentlich andere ("gröbere") Verfahren. Beispielsweise kann man mit dem Gradientenverfahren eine ungefähre Lösung ermitteln und diese dann mit dem Newton-Verfahren verfeinern.
  • Bei unbekanntem Startpunkt kann man mittels einer Homotopie die Funktion  , von der man eine Nullstelle sucht, zu einer einfacheren Funktion   deformieren, von der (mindestens) eine Nullstelle bekannt ist. Man durchläuft dann die Deformation rückwärts in Form einer endlichen Folge sich nur "wenig" unterscheidender Funktionen. Von der ersten Funktion   kennt man eine Nullstelle. Als Startwert der Newton-Iteration zur gerade aktuellen Funktion der Folge verwendet man die Näherung einer Nullstelle der in der Folge vorhergehenden Funktion.
Als Beispiel mag die "Flutungshomotopie" dienen: mit einem willkürlichen   bilden wir die Ausgangsfunktion   mit bekannter Nullstelle   . Wir haben den "Wasserspiegel" vom "Nullpegel" auf die Höhe   geflutet. Nun senken wir schrittweise den Wasserstand,  ,  ,  . In jedem Schritt wird eine Näherung   einer Nullstelle bestimmt, wobei   gesetzt wird. Es ist   und somit   eine der gesuchten Näherungslösungen.

 

Abbruchkriterien

Mögliche Abbruchkriterien bezüglich einer Restgröße (zum Beispiel Rechner-Arithmetik) sind:

 

Wobei   die Qualität der "Nullstelle" bestimmt. In beiden Fällen kann es vorkommen, dass das Abbruchkriterium zu einem "schlechten" Zeitpunkt erfüllt ist.

Weitere Anwendungsbeispiele

Berechnung der Quadratwurzel

Ein Spezialfall des Newtonschen Näherungsverfahrens ist das Babylonische Wurzelziehen, auch bekannt als Heronverfahren nach Heron von Alexandria:

Wendet man die Iterationsformel zur Nullstellenbestimmung auf die Funktion

 

an, so erhält man wegen   für die Lösung   das Näherungsverfahren

 .

Dieses Verfahren konvergiert für jedes   und für jeden beliebigen Anfangswert  .

Schnittpunkt zweier Funktionen

Auf ähnliche Weise lässt sich auch der   -Wert des Schnittpunktes zweier Funktionen   und   bestimmen:

Da man die beiden Funktionen zur Lösung des Problems gleichsetzt, lässt sich immer durch Umformung folgende Form, auf die das Newtonsche Näherungsverfahren angewendet werden kann, bestimmen:

 

Trigonometrische Funktion

Gesucht sei die positive Lösung eines Problems   wobei  . Das Problem kann umformuliert werden als  .

Wir haben nun  . Da   für alle   gilt und   für  , wissen wir, dass die Nullstelle zwischen 0 und 1 liegt. Wir starten die Iteration mit dem Wert   .

 

Damit haben wir die ersten zwölf Ziffern der Nullstelle.

Das folgende Programm in JavaScript bestimmt diese Nullstelle. Um es auszuführen, kopieren Sie den Programmtext inklusive der Marken in eine neue Textdatei und speichern Sie sie mit dem Dateityp .html ab. Öffnen Sie dann die Datei mit einem Webbrowser.

<script>
 function NewtonIterationFnct(x) {
    return  x - (Math.cos(x) - x*x*x) / (-Math.sin(x) - 3*x*x)     
 }  

 x = 0.5
 
 for (i=0; i<=99; i++) {
       document.write("Iteration " + i + ": ")
       document.write(x)
       document.write('<br>')
       xold = x
       x = NewtonIterationFnct(x) 
       if (x == xold) break 
 }
</script>

Das Newton-Verfahren im Mehrdimensionalen

Das Newton-Verfahren kann auch benutzt werden, um Nullstellen von mehrdimensionalen Funktionen   zu bestimmen. Ein konkreter Anwendungsfall ist die Kombination mit der Gaußschen Fehlerquadratmethode im Gauß-Newton-Verfahren. Für den allgemeinen Fall ist der Ausgangspunkt der Iteration die obige Fixpunktgleichung:

 

die das Newton-Verfahren inspiriert:

 ,

wobei   die Jacobi-Matrix, also die Matrix der partiellen Ableitungen von  , ist.

 

Da die Berechnung der Inversen einer Matrix sehr aufwändig ist, wird auf die Aufstellung von   verzichtet und statt dessen folgender Weg gewählt: Man berechnet den Wert

 

indem man das lineare Gleichungssystem

 

löst, und hat dann

 

Statt die Inverse auszurechnen, wird also ein lineares Gleichungssystem gelöst. Häufig kann man hier Eigenschaften der Jacobi-Matrix ausnutzen, um schnell und effizient zu einer Lösung zu kommen. Die weiteren Eigenschaften des Newton-Verfahrens (lokale, quadratische Konvergenz) sind im mehrdimensionalen genau wie im eindimensionalen Fall.

Varianten des Newton-Verfahrens

Das größte Problem bei der Anwendung des Newton-Verfahrens liegt darin, dass man die erste Ableitung der Funktion benötigt. Die Berechnung dieser ist meist aufwändig und in vielen Anwendungen ist eine Funktion auch nicht explizit, sondern beispielsweise nur durch ein Computerprogramm gegeben (siehe auch Automatisches Differenzieren). Im eindimensionalen ist dann die Regula Falsi vorzuziehen, bei der die Sekante und nicht die Tangente benutzt wird. Im Mehrdimensionalen muss man andere Alternativen suchen. Hier ist das Problem auch dramatischer, da die Ableitung eine Matrix mit   Einträgen ist, der Aufwand der Berechnung steigt also quadratisch mit der Dimension.

Das vereinfachte Newton-Verfahren

Statt die Ableitung in jedem Newton-Schritt auszurechnen, ist es auch möglich, sie nur in jedem  -ten Schritt zu berechnen. Dies senkt die Kosten für einen Iterationsschritt drastisch, der Preis ist ein Verlust an Konvergenzgeschwindigkeit. Die Konvergenz ist dann nicht mehr quadratisch, es kann aber weiterhin superlineare Konvergenz erreicht werden.

Inexakte Newton-Verfahren

Eine ähnliche Idee besteht darin, in jedem Schritt eine Approximation der Ableitung zu berechnen, beispielsweise über finite Differenzen. Eine quantitative Konvergenzaussage ist in diesem Fall schwierig, als Faustregel lässt sich jedoch sagen, dass die Konvergenz schlechter wird, je schlechter die Approximation der Ableitung ist.

Newton-Krylow-Verfahren

Für die numerische Lösung nichtlinearer partieller Differentialgleichungen bietet sich prinzipiell das Newton-Verfahren als Grundlöser an. Die entsprechende Jacobi-Matrix ist immer dünnbesetzt und so bieten sich Krylow-Unterraum-Verfahren zur Lösung der linearen Gleichungsysteme an. Man spricht dann von Newton-Krylow-Verfahren. Im Krylow-Verfahren selbst tritt die Jacobi-Matrix nur in Matrix-Vektorprodukten auf, welche als Richtungsableitungen interpretiert werden können. Approximiert man diese durch Finite Differenzen, so erhält man komplett matrixfreie Verfahren.

Beweise zur lokalen Konvergenz

Newton-Verfahren als Fixpunktiteration

Als zweite Motivation, neben der oben gezeigten graphischen, soll das Newton-Verfahren direkt als Fixpunktiteration abgeleitet werden. Aus dieser Ableitung ergibt sich auch recht leicht die Begründung der unten angegebenen Varianten.

Sei   eine stetig differenzierbare reelle Funktion, von der wir eine Nullstelle bestimmen möchten. Wir versuchen, die Voraussetzungen des Banachschen Fixpunktsatzes zu erfüllen. Dazu konstruieren wir aus   eine Fixpunktgleichung. Eine allgemeine Form dafür ist  , wobei   eine zusätzliche, ebenfalls stetig differenzierbare Funktion ist. Jede Nullstelle   von  ,  , ist Fixpunkt von  :

 .

Wir benötigen, nach den Voraussetzungen des Fixpunktsatzes, ein Intervall  , welches die Nullstelle   enthält, und dass die Abbildung   auf diesem Intervall kontraktiv ist. Dazu ist es ausreichend, dass die Ableitung   für   nur Werte im Intervall  ,  , annimmt, denn für   gilt

 

bzw. mit  

 .

Insbesondere kann man fordern, dass der Wert der Ableitung   von   in   einen möglichst kleinen Betrag habe. Die Ableitung von   ist

 ,

wählt man also immer  , und gibt es eine Umgebung von  , in der   zweimal differenzierbar ist und   nirgends Null wird, so ist  .

Wir gelangen somit wieder zur Fixpunktgleichung

 

mit dem Newton-Operator  , welche als Fixpunktiteration wieder die Newton-Iteration ergibt:

 

bei "geeigneter" Wahl eines Startpunktes  . Von dieser muss die Konvergenz gegen eine Nullstelle exakt nachgewiesen werden.

Lineare Konvergenz

Satz 1: Sei   einmal stetig differenzierbar,   eine Nullstelle von  . Sei   ebenfalls einmal stetig differenzierbar mit  . Dann gibt es eine Umgebung   von  , so dass die Iteration   für jeden Startpunkt   aus   gegen   konvergiert.

Bemerkungen:

  1.   kann also von der Inversen der Ableitung abweichen.
  2. Dieser Satz ist nicht-konstruktiv, d.h. er enthält keine Aussage darüber, wie dieses Intervall um die Nullstelle zu finden ist.
  3. Vorausgesetzt,   liegt nahe genug an der Nullstelle, kann konstant   gewählt werden.
  4. Eine besonders große Schrittweite ergibt sich bei  , eine besonders kleine bei  . Die große Schrittweite erweist sich bei fast linearen Funktionen   als günstig, eine eher kleine Schrittweite bei dicht beieinanderliegenden oder mehrfachen Nullstellen.

Beweis: Wegen der Stetigkeit von N'(x)=1-g'(x)f(x)-g(x)f'(x) und wegen |N'(ξ)|<0,5 laut Voraussetzung gibt es ein r>0, so dass

-0.75 ≤ N'(x) ≤ 0.75

für alle Stellen x aus dem Intervall I:=[ξ-r,ξ+r] gilt. (q=0.75 als Beispiel eines q∈(0,5; 1) )

Wählen wir den Startwert x0∈I in diesem Intervall, so liegt auch jedes nachfolgende Glied der Folge in diesem Intervall. Denn mit xn∈I folgt aus den Fixpunkteigenschaften und dem Mittelwertsatz der Differentialrechnung:

 

mit einem Zwischenpunkt xn* zwischen xn und ξ,

 .

Wir lesen daraus nicht nur ab, dass auch xn+1∈I gilt, sondern sogar, dass die Differenzfolge (xn-ξ) eine Nullfolge mit geometrischer Majorante ist:

 .
            

Diese Art der Konvergenzgeschwindigkeit nennt man linear (im Exponenten).

Ist   zweimal stetig differenzierbar und  , so ergibt sich die lokale Konvergenz des Newton-Verfahrens für die spezielle Wahl  . Dann kann allerdings auch eine bessere Abschätzung des Konvergenzverhaltens angegeben werden.

Quadratische Konvergenz

Satz 2: Sei   zweimal stetig differenzierbar und   eine Nullstelle von  . Dann gibt es eine Konstante  , so dass die Newton-Iteration mit Startpunkt im Intervall   gegen   konvergiert, genauer gilt  .

Näherungsweise gilt   und damit  .

Beweis: Die Ableitung N'f(x) bestimmt sich mit der Quotientenregel des Differenzierens zu:

 .

Ist die Funktion f "gutartig" oder das Intervall I "klein genug", so sind die Ableitungen f'(x) und f"(x) fast konstant auf I, der Funktionswert f(x) jedoch nahezu linear mit Nullstelle in ξ und Anstieg f'(ξ). Wir können also (wieder mit dem Mittelwertsatz) einen weiteren Faktor (x-ξ) aus f(x)=f(x)-f(ξ) abspalten:

 

mit einem Zwischenpunkt x* zwischen x und ξ. Für x nahe ξ gilt damit näherungsweise

 ,

Integration von ξ bis x ergibt

 .

Dies entspricht der Behauptung über das näherungsweise Konvergenzverhalten. Je kleiner das Intervall I ist, desto besser wird durch diese Näherung die Konvergenz beschrieben.

Um zu einer exakten Abschätzung der Konvergenzgeschwindigkeit zu gelangen, können wir die zwei "komplizierten" Faktoren in N'f(x) gegen ihre Maxima über I abschätzen:

 .

Dabei wurde mit K die Konstante, die das Produkt der beiden Maxima ist, bezeichnet. Wir erhalten für die Rekursionsfolge der Newton-Iteration die folgenden Abschätzungen (dabei sei hn:=xn)

 ,
 .

Die rekursive Ungleichung   hat die Lösung

 ,

wovon man sich mittels vollständiger Induktion überzeugt.

Ist also K/2|x0-ξ|<1, so konvergiert die Folge (xn) mit quadratischer Konvergenzgeschwindigkeit gegen ξ.

            

Literatur

  • P. Deuflhard, A. Hohmann: Numerische Mathematik I. Eine algorithmisch orientierte Einführung. 3. überarbeitete und erweiterte Auflage. de Gruyter, Berlin, New York 2002, ISBN 3110171821
  • P. Deuflhard: Newton Methods for Nonlinear Problems. Affine Invariance and Adaptive Algorithms., Springer, Berlin 2004, ISBN 3-540-21099-7 (Reihe: Springer Series in Computational Mathematics, Vol. 35)
  • J. M. Ortega, W. C. Rheinboldt: Iterative Solution of Nonlinear Equations in Several Variables., Society for Industrial & Applied Mathematics, 2000, ISBN 0-898-71461-3 (Reihe Classics in Applied Mathematics)

Kursiver Text