Matrix (Mathematik)

Anordnung von Zahlen oder anderen mathematischen Objekten in Tabellenform
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 20. Mai 2005 um 00:37 Uhr durch Tom1200 (Diskussion | Beiträge) (Design ist stark verbesserungswürdig). Sie kann sich erheblich von der aktuellen Version unterscheiden.

In der linearen Algebra ist eine Matrix (Plural: Matrizen) eine Anordnung von Zahlenwerten (aber auch anderen Objekten wie Operatoren) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix, und bezeichnet selbige auch als Vektoren (d.h. Zeilenvektoren und Spaltenvektoren). Die Objekte, die in der Matrix angeordnet sind, nennt man Komponenten oder Elemente der Matrix.

Die Bezeichnung "Matrix" wurde 1850 von James Joseph Sylvester eingeführt.

Eine streng formale Definition der Matrix ist wie folgt geben:

Unter einer Matrix mit Werten in einer Menge versteht man eine Abbildung

Wenn die Matrix Zeilen und Spalten besitzt, spricht man von einer -Matrix, und nennt und die Dimensionen der Matrix. Ist spricht man von einer oder quadratischen Matrix. Die Komponente, die in der -ten Zeile an -ter Stelle steht, hat die Indizes . Eine allgemeine Matrix sieht zum Beispiel so aus:

  • Die Menge aller -Matrizen über einer Menge bezeichnet man mit oder , selten auch mit .
  • Hat eine Matrix nur eine einzige Spalte oder Zeile, dann nennt man sie Vektor. Man unterscheidet dabei zwischen einem Zeilenvektor (mit nur einer Zeile) oder einem Spaltenvektor (mit nur einer Spalte). Oft benötigt man diese Unterscheidung nicht (wenn man sie nicht mit Matrizen multiplizieren muss) und bezeichnet die Menge aller -stelligen Vektoren über einer Menge mit statt oder .
  • Das besondere an Matrizen ist der Zusammenhang zu linearen Abbildungen. Jeder linearen Abbildung läßt sich eine Matrix zuordnen und jede Matrix entspricht einer linearen Abbildung. Diesen Zusammenhang bezeichnet man auch als Isomorphismus. Zwischen der Menge der linearen Matrizen und der Menge der linearen Abbildungen besteht eine Bijektion.
  • Zwei Matrizen und gleicher Dimension mit Komponenten in einer Zahlenmenge (z.B. den reellen Zahlen) kann man komponentenweise addieren.
  • Stimmt dagegen die Spaltenanzahl von mit der Zeilenanzahl von überein, dann kann man das Matrixprodukt berechnen. Siehe dazu die folgenden Beispiele.


Rechnen mit Matrizen

Addieren von Matrizen

Zwei Matrizen   und   werden addiert, indem man die in den Matrizen an entsprechender Stelle stehenden Komponenten addiert:

 

Genauso werden auch Vektoren addiert.

 
 

Die Matrizen müssen die gleichen Dimensionen aufweisen.

Vervielfachen von Matrizen (Skalarmultiplikation)

Eine Matrix oder ein Vektor   wird mit einer Zahl   vervielfacht (multipliziert), indem man jede Komponente von   mit   multipliziert:


 


Diese Rechenoperation nennt man Skalarmultiplikation, das Ergebnis ist ein skalares Produkt, es ist zu unterscheiden vom Skalarprodukt zweier Vektoren.

Multiplizieren von Matrizen

Zwei Matrizen   und   werden miteinander multipliziert, indem jeweils die Zeilenelemente der ersten Matrix mit den entsprechenden Spaltenelementen der zweiten Matrix multipliziert werden. Die Multiplikation von Matrizen ist nur dann möglich, wenn die Länge der Zeilen (= die Anzahl der Spalten) der ersten Matrix mit der Länge der Spalten (= Anzahl der Zeilen) der zweiten Matrix übereinstimmt. Ist   eine  -Matrix und   eine  -Matrix, so ist das Produkt eine  -Matrix.
Aber Achtung: Bei der Multiplikation von Matrizen gilt das Kommutativgesetz NICHT!


 


Dabei können   und   auch Vektoren sein, solange die Formate passen (siehe dazu auch den Abschnitt Vektor-Vektor-Produkte).

Formal definiert ist die Matrixmultiplikation für Matrizen   und   der Formate   und   als die Matrix   mit den Komponenten


 


Bei der Berechnung des Produktes von Hand wird häufig auf das Falksche Schema zurückgegriffen.

Die inverse Matrix

Ist   ein Ring, dann bildet die Menge   der quadratischen Matrizen vom Format   ebenfalls einen Ring mit der oben definierten Matrixaddition und -multiplikation. Das Nullelement ist die Nullmatrix 0, deren Komponenten alle 0 sind. Hat   ein Einselement 1, dann ist die Einheitsmatrix   das Einselement des Matrixrings. Die Einheitsmatrix ist eine quadratische Matrix auf deren Hauptdiagonale nur 1 vorkommt und deren sonstige Elemente 0 sind.

Ist   ein Körper (wie beispielsweise die reellen oder komplexen Zahlen), dann sind im Ring   genau diejenigen Matrizen invertierbar (regulär), deren Determinante ungleich 0 ist. Nicht invertierbare Matrizen nennt man singulär. Man kann die zur Matrix   inverse Matrix   zum Beispiel mit dem Gauß-Algorithmus bestimmen. Dazu löst man das lineare Gleichungssystem  . Die Matrix   ist die Einheitsmatrix, die Matrix   ist dann das Inverse von  .

 

Es entsteht ein Lineares Gleichungssystem mit 9 Unbekannten und 9 Gleichungen:

 


Bei näherer Betrachtung stellt man aber sehr schnell fest, dass man dieses Gleichungssystem immer auch als drei getrennte Gleichungssysteme mit je drei Gleichungen und Unbekannte zerlegen kann:

 
 
 

Es muss also dreimal dasselbe Gleichungssystem mit unterschiedlichen rechten Seiten (nämlich den drei Einheitsvektoren) gelöst werden. Dies gilt analog bei Matrizen höherer Dimension. Effizient geht dies über elementare Zeilenumformungen, also über das Gaußsche Eliminationsverfahren. Das Ergebnis sollte lauten:

 

Berechnung der Inversen mittels elementarer Zeilenumformungen (auch Gaußsches Eliminationsverfahren genannt):

Wir schreiben rechts neben die zu invertierende Matrix die Einheitsmatrix, z.B.

 

Jetzt formen wir die Matrix so lange mit Elementaren Zeilenumformungen um, bis auf der linken Seite die Einheitsmatrix steht. Das ist nicht besonders kompliziert, im oben angegebenen Beispiel geht das z.B. folgendermaßen:

Im ersten Schritt ziehen wir dazu die erste Zeile 4 mal von der zweiten ab, und 7 mal von der dritten:

 

Jetzt ziehen wir die zweite Zeile 2 mal von der dritten ab, und erhalten so links eine obere Dreiecksmatrix:

 

Nun normieren wir die Zeilen um auf der Diagonalen 1er zu erhalten, indem wir die zweite mit -1/3 Multiplizieren, die dritte mit -1/2

 

Von der ersten Zeile ziehen wir 2 mal die zweite ab und addieren die dritte 1 mal, anschließend ziehen wir die dritte Zeile 2 mal von der zweiten ab:

 

Auf der rechten Seite steht jetzt die Inverse der ursprünglichen Matrix.

Welche elementaren Zeilenumformungen man verwendet ist hierbei egal, es empfielt sich jedoch ein zielgerichtetes Arbeiten, wie eben gezeigt (Spalte für Spalte auf obere Dreiecksmatrix bringen, anschließend die Diagonale auf 1en normieren. Anschließend ist es meistens am einfachsten, wenn man (anders als eben gezeigt) von unten anfangend die Einheitsmatrix herstellt. (Im eben gezeigten Beispiel hätte man dazu statt des letzten Schritts erst die letzte Zeile 2 mal von der vorletzten abgezogen, anschließend die letzte 3 mal und die mittlere Zeile 2 mal von der ersten)

Online-Tool zum Überprüfen von Ergebnissen: Berechnung der Inversen

Berechnung der Inversen mit Hilfe der Determinanten

Die Inverse lässt sich auch mit Hilfe der Determinanten der Matrix berechnen:

 ,

wobei   die komplementäre Matrix ist.


Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)

Hat man zwei Spaltenvektoren   und   der Länge  , dann ist das Matrixprodukt   nicht definiert, aber die beiden Produkte   und   existieren.

Das erste Produkt ist eine  -Matrix, die als Zahl interpretiert wird, sie wird das kanonische Skalarprodukt von   und   genannt und mit   bezeichnet.

 

Das zweite Produkt ist eine  -Matrix und heißt das dyadische Produkt oder Tensorprodukt von   und  .

 

Umformen von Matrizengleichungen

Speziell in den Multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.

Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt. Es wird von der Gleichung

 

ausgegangen mit   ,  als  -Matrix.

Addieren und Subtrahieren

Die Gleichung kann von links und rechts mit einer  -Matrix   additiv erweitert werden zu

 

bzw.

  .

Multiplizieren mit einer Matrix

Die Gleichung kann multiplikativ von links durch die  -Matrix   oder von rechts durch die  -Matrix   erweitert werden:

 

bzw.

 


"Division" durch eine Matrix  

Die Gleichung wird mit der Inversen der Matrix   multipliziert, wobei   invertierbar sein muss. Zu beachten ist hier wieder, dass zwischen der links- und rechtsseitigen Multiplikation zu unterscheiden ist.

Beispiele

Lineares Gleichungssystem als einfache Umformung

Gesucht ist der Lösungsvektor   eines linearen Gleichungssystems

 

mit   als  -Koeffizientenmatrix. Man erweitert von links

 

und erhält die Lösung

 .

Eine etwas aufwendigere Umformung erfordert ein

Orthogonalitätsbeweis im Multiplen Regressionsmodell

Im Multiplen Regressionsmodell geht man davon aus, dass eine abhängige Variable   durch   vorgegebene Variablen   mit   erklärt werden kann. Man schätzt mit Hilfe der Methode der kleinsten Quadrate die Regressionskoeffizienten als

 

und erhält mit der Schätzung das Gleichungssystem

 

mit   als ( )-Vektor der    -Werte,   als ( )-Vektor der Residuen,   als ( )-Vektor der Regressionskoeffizienten und der ( )-Datenmatrix  .

Es soll gezeigt werden, dass   ist: Es ist zunächst

 

Wegen

 

mit

 

als idempotenter Matrix, d.h.

  .

erhält man

 

was wegen   das Skalar 0 ergibt.

Die Regressionshyperebene   steht auf   senkrecht, was man so interpretieren kann, dass in den Residuen keine verwertbare Information von   bzw.   mehr enthalten ist.

Spezielle Formen von Matrizen

Die transponierte Matrix

"Kippt" man die Matrix   an der Hauptdiagonalen, vorausgesetzt sie ist quadratisch, dann erhält man die zu   transponierte Matrix  . Die Transponierte der Matrix   vom Format   ist die Matrix   vom Format  .
Allgemein:

 
 

Beispiel:

 

Die Matrix   heißt symmetrisch, wenn gilt:

 

Beispiel:

 

Die schiefsymmetrische Matrix

Eine Matrix   heißt schiefsymmetrisch, wenn gilt:

 

Jede   Matrix der Form

 

ist also eine schiefsymmetrische Matrix.

Beispiel:

  ist schiefsymmetrisch, da
 

Jede quadratische Matrix kann als Summe einer symmetrischen Matrix S und einer schiefsymmetrischen Matrix   geschrieben werden:

 
 
 

Eine reelle Matrix ist orthogonal, wenn gilt

 

bzw.

 

Der Winkel zwischen zwei Vektoren, die mit dieser Matrix multipliziert werden, bleibt erhalten.

Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix   wird mit   bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. Manchmal wird auch die komplementäre Matrix   als Adjunkte bezeichnet.

Die hermitesche Matrix

Eine Matrix   ist hermitesch oder selbstadjungiert, wenn gilt:

 

Eine komplexe Matrix   heißt unitär, wenn gilt:

 

Dies ist die komplexe Entsprechung einer orthogonalen Matrix.

Die komplementäre Matrix

Die komplementäre Matrix   einer quadratischen Matrix   setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten   werden die  -te Zeile und  -te Spalte von   gestrichen. Aus der resultierenden ( )-Matrix wird dann die Determinante   berechnet. Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.

Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix  .

Hesse-Matrix

Die Hesse-Matrix (nach Otto Hesse) fasst die partiellen zweiten Ableitungen einer Funktion   zusammen.

Verallgemeinerungen

Man kann auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen unendliche Reihen sind und nicht konvergieren müssten).

Werden analog zu den Matrizen mathematische Strukturen mit mehr als zwei Indizes definiert, so nennt man diese Tensoren.