Zum Inhalt springen

Eigenwerte und Eigenvektoren

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 28. Februar 2006 um 00:14 Uhr durch Stefan Birkner (Diskussion | Beiträge) (rev Version vom 16:25, 20. Feb 2006 wiederhergestellt (Ansichtssache)). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Die Begriffe Eigenwert und Eigenvektor treten immer gemeinsam in der Linearen Algebra auf. Die im Folgenden beschriebene mathematische Problemstellung nennt sich spezielles Eigenwertproblem.

Eigenvektoren eines linearen Operators (etwa durch eine Matrix dargestellt) sind Vektoren, auf welche die Anwendung des Operators (etwa die Multiplikation mit der Matrix) ein skalares Vielfaches ihrer selbst ergeben. Den entsprechenden Skalar nennt man Eigenwert. Der Nullvektor wird nicht als Eigenvektor bezeichnet, obwohl er diese Eigenschaft für jeden Skalar erfüllt.

Formal ausgedrückt heißt das:

  • Ist eine -Matrix, so heißt ein Eigenvektor zum Eigenwert , wenn gilt:


Hinweis: Operatoren, die die Dimension des Vektors verändern, haben offenbar keine Eigenwerte. Das bedeutet, dass Eigenvektoren und Eigenwerte nur bei quadratischen Matrizen auftreten.


Berechnung der Eigenwerte

Äquivalent zu obiger Gleichung erhalten wir folgendes homogenes lineares Gleichungssystem:

In dieser Gleichung ist eine -Matrix und die -Einheitsmatrix.

Da wir voraussetzen, erhalten wir genau dann Lösungen, wenn

Expandiert man die Determinante auf der linken Seite, so erhält man ein Polynom -ten Grades in . Diese wird als charakteristische Polynom (siehe dort zur Herleitung) bezeichnet und dessen Nullstellen sind die Eigenwerte .

Mehrfache Vorkommen eines bestimmten Eigenwertes fasst man zusammen und erhält so nach Umbenennung die Aufzählung der verschiedenen Eigenwerte mit ihren Vielfachheiten . Dabei ist und .

Die eben dargestellte Vielfachheit eines Eigenwertes als Nullstelle des charakteristischen Polynoms bezeichnet man als algebraische Vielfachheit.

Die Menge der Eigenwerte wird Spektrum genannt und geschrieben. Es gilt also:

Kennt man die Eigenwerte und ihre Vielfachheiten (die algebraische und die später erklärte geometrische), kann man die Jordansche Normalform der Matrix erstellen.

Zahlenbeispiel

Gegeben sei die quadratische Matrix

.

Subtraktion der mit multiplizierten Einheitsmatrix von A:

Ausrechnen der Determinante dieser Matrix (mit Hilfe der Regel von Sarrus):

Es ergeben sich die Eigenwerte

Der Eigenwert 2 hat algebraische Vielfachheit 2, da er doppelte Nullstelle des charakteristischen Polynoms ist.

Berechnung der Eigenvektoren

Für einen Eigenwert lassen sich die Eigenvektoren aus der Gleichung

bestimmen. Die Eigenvektoren spannen einen Raum auf, dessen Dimension mit geometrischer Vielfachheit des Eigenwertes bezeichnet wird. Für einen Eigenwert der geometrischen Vielfachheit lassen sich also Eigenvektoren finden, so dass die Menge aller Eigenvektoren zu gleich der Menge der Linearkombinationen von ist. heißt dann Basis von Eigenvektoren zum Eigenwert .

Die geometrische Vielfachheit eines Eigenwertes kann man also auch als die maximale Anzahl linear unabhängiger Eigenvektoren zu diesem Eigenwert definieren.

Die geometrische Vielfachheit ist immer kleiner oder gleich der algebraischen Vielfachheit.

Zahlenbeispiel

Gegeben ist die quadratische Matrix A:

Lösen des Ansatzes mit den Eigenwerten (s.o.:"–2,2"):


> V:= [eigenvectors(A)];

        V := [[-2, 1, {[-3/2, 2, 1]}], [2, 2, {[1, 0, -2]}]]

Erster Eigenwert "–2" mit der algebraischen Vielfachheit "1", der geometrischen Vielfachheit "d1=n-Rang(A+2E)" und dem Eigenvektor v1 = [–3/2,2,1].

Zweiter Eigenwert "2" mit der algebraischen Vielfachheit "2", der geometrischen Vielfachheit "d2=n-Rang(A-2E)" und dem Eigenvektor v2 = [1,0,–2].

Berechnung der Eigenwerte großer Matrizen

Während die Lösung des charakteristischen Polynoms für Matrizen der Dimension 3 schon nicht so einfach ist, wird es für große Matrizen nahezu unmöglich. Hierzu gibt es Verfahren, die sowohl von der numerischen Stabilität her, als auch vom Rechenaufwand wesentlich besser sind. Dazu gehören Methoden für dichtbesetzte kleine bis mittlere Matrizen, wie

sowie spezielle Methoden für symmetrische Matrizen, als auch Methoden für dünnbesetzte große Matrizen, wie

Online-Tool zum Berechnen von Eigenwerten etc. auch großer Matrizen

Eigenschaften

  • Ist ein Eigenwert der regulären Matrix , so ist Eigenwert der inversen Matrix von .
  • Sind die Eigenwerte der Matrix , so gilt
und ,
wobei bei mehrfachen Eigenwerten die Vielfachheit zu beachten ist.
  • Die Eigenwerte von symmetrische Matrizen sind reell.
  • Die Matrix mit den normierten Eigenvektoren als Spaltenvektoren dreht die Ausgangsmatrix in den Eigenwertraum.

Praktische Beispiele

Durch Lösung eines Eigenwertproblems berechnet man

  • Eigenfrequenzen, Eigenformen und gegebenenfalls auch Dämpfungscharakteristik eines schwingfähigen Systems,
  • Knicklast eines Knickstabs,
  • Beulversagen eines leeren Rohres unter Außendruck,
  • Die Hauptkomponenten einer Punktmenge, z.B. zur Kompression von Bildern oder Bestimmung von Faktoren in der Psychologie. (Hauptkomponentenanalyse).
  • Hauptspannungen in der Festigkeitslehre: Umrechnung der Spannungen in ein Koordinatensystem, in dem es keine Schubspannungen gibt,
  • Hauptträgheitsachsen eines unsymmetrischen Querschnitts, um einen Balken (Träger oder ähnliches) in diesen beiden Richtungen unabhängig voneinander zu berechnen,
  • vielfältige andere technische Problemstellungen, die mit der jeweils anders definierten Stabilität eines Systems zu tun haben.

Eigenwerte spielen eine besondere Rolle in der Quantenmechanik. Physikalische Größen, wie z.B. der Drehimpuls werden hier durch Operatoren repräsentiert. Messbar sind nur die Eigenwerte der Operatoren. Hat z.B. der Hamiltonoperator, der die Energie eines quantenmechanischen Systems repräsentiert, ein diskretes Spektrum, so kann die Energie nur diskrete Werte annehmen, was z.B. für die Energieniveaus in einem Atom typisch ist. Auch die Unmöglichkeit der gleichzeitigen präzisen Messung gewisser Größen (z.B. Ort und Impuls), wie von der Heisenbergschen Unschärferelation ausgedrückt, ist letztlich auf die Unmöglichkeit in diesem Fall zurückzuführen, dass für die jeweiligen Operatoren kein gemeinsames System von Eigenvektoren gefunden werden kann.