Gauß-Seidel-Verfahren

Algorithmus zur näherungsweisen Lösung von linearen Gleichungssystemen
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 22. November 2009 um 19:50 Uhr durch P. Birken (Diskussion | Beiträge) (So eher nicht richtig, bei dünnbesetzten Matrizen die aus PDEs stammen taugt Jacobi im wesentlichen gar nichts). Sie kann sich erheblich von der aktuellen Version unterscheiden.

In der numerischen Mathematik ist das Gauß-Seidel-Verfahren oder Einzelschrittverfahren, (nach Carl Friedrich Gauß und Ludwig Seidel) ein Algorithmus zur näherungsweisen Lösung von linearen Gleichungssystemen. Es ist, wie das Jacobi-Verfahren und das SOR-Verfahren, ein spezielles Splitting-Verfahren. Das Verfahren wurde zuerst von Gauß entwickelt, aber nicht veröffentlicht, später wurde es, bevor seine Anwendung durch Gauß bekannt war, von Seidel veröffentlicht.

Entwickelt wurde das Verfahren, da das Gaußsche Eliminationsverfahren, ein exakter Löser, für Rundungsfehler sehr anfällig ist. Eine iterative Vorgehensweise hat diesen Nachteil nicht.

Beschreibung des Verfahrens

Gegeben ist ein lineares Gleichungssystem in   Variablen mit den   Gleichungen

 

Um dieses zu lösen, wird die  -te Gleichung nach der  -ten Variablen   aufgelöst, d.h. für den  -ten Iterationsschritt:

 

wobei die vorher berechneten Werte des aktuellen Iterationsschritts mit verwendet werden, im Gegensatz zum Jacobi-Verfahren. Diese Ersetzung wird, ausgehend von einer willkürlichen Startbelegung der Variablen, sukzessive wiederholt. Als minimale Bedingung lässt sich hier festhalten, dass die Diagonalelemente   von Null verschieden sein müssen.

Als Algorithmusskizze mit Abbruchbedingung ergibt sich:

wiederhole
 
für   bis  
 
 
nächstes  
 
bis  

Dabei wurde die Erstbelegung des Variablenvektors und eine Fehlerschranke als Eingangsgrößen des Algorithmus angenommen, die Näherungslösung ist die vektorielle Rückgabegröße. Die Fehlerschranke misst hier, welche Größe die letzte Änderung des Variablenvektors hatte.

Bei dünnbesetzten Matrizen reduziert sich der Aufwand des Verfahrens pro Iteration deutlich.

Herleitung des Verfahrens

Beschreibung des Verfahrens in Matrixschreibweise

Die Matrix   des linearen Gleichungssystems   wird hierzu in eine Diagonalmatrix  , eine strikte obere Dreiecksmatrix   und eine strikte untere Dreiecksmatrix   zerlegt, so dass gilt:

 .

In jedem Iterationsschritt gilt dann  . Nach Umstellen ergibt sich formal

  und daraus  .

Man legt dann einen Startvektor   fest und setzt ihn in die Iterationsvorschrift ein:

 .

Da es der erste Iterationsschritt ist, hat dabei   den Wert Null. Das Ergebnis der Rechnung ist ein erster Näherungswert   für den gesuchten Lösungsvektor  . Diesen Näherungswert kann man seinerseits in die Iterationsvorschrift einsetzen und gewinnt einen besseren Näherungswert  , den man wieder einsetzen kann. Wiederholt man diesen Vorgang, gewinnt man eine Folge von Werten, die sich dem Lösungsvektor immer mehr annähern, wenn die Konvergenzbedingungen (s. unten) erfüllt sind:

 

Diagonaldominanz und Konvergenz

Die Konvergenzgeschwindigkeit des Verfahrens hängt vom Spektralradius der Iterationsmatrix   ab. Dieser sollte so klein wie möglich sein, muss aber immer kleiner als 1 sein. In diesem Falle ist der Fixpunktsatz von Banach bzw. der Konvergenzsatz der Neumann-Reihe (auf eine hinreichend große Potenz von  ) anwendbar und das Verfahren konvergiert. Im gegenteiligen Fall divergiert das Verfahren, wenn die rechte Seite des Gleichungssystems ein Eigenvektor zu einem Eigenwert mit Betrag größer als 1 ist.

Die Bestimmung des Spektralradius ist für den praktischen Einsatz meist ungeeignet. Man gibt daher auch hinreichende Konvergenzbedingungen für „bequeme“ Matrixnormen an. Allgemein muss die Matrixnorm der Verfahrensmatrix   kleiner als 1 sein. Diese Matrixnorm ist gleichzeitig die Kontraktionskonstante im Sinne des banachschen Fixpunktsatzes.

Im Falle, dass sowohl   als auch   "kleine" Matrizen bzgl. der gewählten Matrixnorm sind, gibt es die folgende Abschätzung der Matrixnorm für   (siehe Neumann-Reihe für den ersten Faktor):

 

Der letzte Ausdruck ist für   ebenfalls kleiner als 1. Obwohl die Konvergenzbedingung diejenige des Jabobi-Verfahrens ist, ist die so erhaltene Abschätzung der Kontraktionskonstante   des Gauß-Seidel-Verfahrens immer kleinergleich der entsprechenden Abschätzung der Kontraktionskonstante des Jabobi-Verfahrens.

Das einfachste und gebräuchlichste hinreichende Konvergenzkriterium der Diagonaldominanz ergibt sich für die Supremumsnorm   der Vektoren und deren induzierter Matrixnorm  . Es verlangt die Erfüllung des Zeilensummenkriteriums, also der Ungleichung

  für  .

Je größer die kleinste Differenz zwischen rechten und linken Seiten der Ungleichung ist, desto schneller konvergiert das Verfahren. Man kann versuchen, diese Differenz mittels Zeilen- und Spaltenvertauschungen zu vergrößern, d.h. durch Umnummerieren der Zeilen und Spalten. Dabei kann man beispielsweise anstreben, die betragsgrößten Elemente der Matrix auf die Diagonale zu bringen. Die Zeilenvertauschungen müssen natürlich auch auf der rechten Seite des Gleichungssystems vollzogen werden.

Anwendungen

Für moderne Anwendungen wie die Lösung großer dünnbesetzter Gleichungssysteme, die aus der Diskretisierung partieller Differentialgleichungen stammen, ist das Verfahren ungeeignet. Es wird jedoch mit Erfolg als Vorkonditionierer in Krylow-Unterraum-Verfahren oder als Glätter in Mehrgitterverfahren eingesetzt.

Literatur