Matrix (Mathematik)
In der linearen Algebra ist eine Matrix (Plural: Matrizen) eine Anordnung von Zahlenwerten (aber auch anderen Objekten wie Operatoren) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix, und bezeichnet selbige auch als Vektoren (d.h. Zeilenvektoren und Spaltenvektoren). Die Objekte, die in der Matrix angeordnet sind, nennt man Komponenten oder Elemente der Matrix.
Die Bezeichnung "Matrix" wurde 1850 von James Joseph Sylvester eingeführt.
Eine streng formale Definition der Matrix ist wie folgt geben:
- Unter einer Matrix mit Werten in einer Menge versteht man eine Abbildung
Wenn die Matrix Zeilen und Spalten besitzt, spricht man von einer -Matrix, und nennt und die Dimensionen der Matrix. Ist spricht man von einer oder quadratischen Matrix. Die Komponente, die in der -ten Zeile an -ter Stelle steht, hat die Indizes . Eine allgemeine Matrix sieht zum Beispiel so aus:
- Die Menge aller -Matrizen über einer Menge bezeichnet man mit oder , selten auch mit .
- Hat eine Matrix nur eine einzige Spalte oder Zeile, dann nennt man sie Vektor. Man unterscheidet dabei zwischen einem Zeilenvektor (mit nur einer Zeile) oder einem Spaltenvektor (mit nur einer Spalte). Oft benötigt man diese Unterscheidung nicht (wenn man sie nicht mit Matrizen multiplizieren muss) und bezeichnet die Menge aller -stelligen Vektoren über einer Menge mit statt oder .
- Das besondere an Matrizen ist der Zusammenhang zu linearen Abbildungen. Jeder linearen Abbildung läßt sich eine Matrix zuordnen und jede Matrix entspricht einer linearen Abbildung. Diesen Zusammenhang bezeichnet man auch als Isomorphismus. Zwischen der Menge der linearen Matrizen und der Menge der linearen Abbildungen besteht eine Bijektion.
- Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang (Mathematik) und die Determinante einer Matrix.
- Zwei Matrizen und gleicher Dimension mit Komponenten in einer Zahlenmenge (z.B. den reellen Zahlen) kann man komponentenweise addieren.
- Stimmt dagegen die Spaltenanzahl von mit der Zeilenanzahl von überein, dann kann man das Matrixprodukt berechnen. Siehe dazu die folgenden Beispiele.
Rechnen mit Matrizen
Addieren von Matrizen
Zwei Matrizen und werden addiert, indem man die in den Matrizen an entsprechender Stelle stehenden Komponenten addiert:
Genauso werden auch Vektoren addiert.
Die Matrizen müssen die gleichen Dimensionen aufweisen.
Vervielfachen von Matrizen (Skalarmultiplikation)
Eine Matrix oder ein Vektor wird mit einer Zahl vervielfacht (multipliziert), indem man jede Komponente von mit multipliziert:
Diese Rechenoperation nennt man Skalarmultiplikation, das Ergebnis ist ein skalares Produkt, es ist zu unterscheiden vom Skalarprodukt zweier Vektoren.
Multiplizieren von Matrizen
Zwei Matrizen und werden miteinander multipliziert, indem jeweils die Zeilenelemente der ersten Matrix mit den entsprechenden Spaltenelementen der zweiten Matrix multipliziert werden. Die Multiplikation von Matrizen ist nur dann möglich, wenn die Länge der Zeilen (= die Anzahl der Spalten) der ersten Matrix mit der Länge der Spalten (= Anzahl der Zeilen) der zweiten Matrix übereinstimmt. Ist eine -Matrix und eine -Matrix, so ist das Produkt eine -Matrix.
Aber Achtung: Bei der Multiplikation von Matrizen gilt das Kommutativgesetz NICHT!
Dabei können und auch Vektoren sein, solange die Formate passen (siehe dazu auch den Abschnitt Vektor-Vektor-Produkte).
Formal definiert ist die Matrixmultiplikation für Matrizen und der Formate und als die Matrix mit den Komponenten
Bei der Berechnung des Produktes von Hand wird häufig auf das Falksche Schema zurückgegriffen.
Die inverse Matrix
Ist ein Ring, dann bildet die Menge der quadratischen Matrizen vom Format ebenfalls einen Ring mit der oben definierten Matrixaddition und -multiplikation. Das Nullelement ist die Nullmatrix 0, deren Komponenten alle 0 sind. Hat ein Einselement 1, dann ist die Einheitsmatrix das Einselement des Matrixrings. Die Einheitsmatrix ist eine quadratische Matrix auf deren Hauptdiagonale nur 1 vorkommt und deren sonstige Elemente 0 sind.
Ist ein Körper (wie beispielsweise die reellen oder komplexen Zahlen), dann sind im Ring genau diejenigen Matrizen invertierbar (regulär), deren Determinante ungleich 0 ist. Nicht invertierbare Matrizen nennt man singulär. Man kann die zur Matrix inverse Matrix zum Beispiel mit dem Gauß-Algorithmus bestimmen. Dazu löst man das lineare Gleichungssystem . Die Matrix ist die Einheitsmatrix, die Matrix ist dann das Inverse von .
Es entsteht ein Lineares Gleichungssystem mit 9 Unbekannten und 9 Gleichungen:
Bei näherer Betrachtung stellt man aber sehr schnell fest, dass man dieses
Gleichungssystem immer auch als drei getrennte Gleichungssysteme mit je drei Gleichungen und Unbekannte zerlegen kann:
Es muss also dreimal dasselbe Gleichungssystem mit unterschiedlichen rechten Seiten (nämlich den drei Einheitsvektoren) gelöst werden. Dies gilt analog bei Matrizen höherer Dimension. Effizient geht dies über elementare Zeilenumformungen, also über das Gaußsche Eliminationsverfahren. Das Ergebnis sollte lauten:
Berechnung der Inversen mittels elementarer Zeilenumformungen (auch Gaußsches Eliminationsverfahren genannt):
Wir schreiben rechts neben die zu invertierende Matrix die Einheitsmatrix, z.B.
Jetzt formen wir die Matrix so lange mit Elementaren Zeilenumformungen um, bis auf der linken Seite die Einheitsmatrix steht. Das ist nicht besonders kompliziert, im oben angegebenen Beispiel geht das z.B. folgendermaßen:
Im ersten Schritt ziehen wir dazu die erste Zeile 4 mal von der zweiten ab, und 7 mal von der dritten:
Jetzt ziehen wir die zweite Zeile 2 mal von der dritten ab, und erhalten so links eine obere Dreiecksmatrix:
Nun normieren wir die Zeilen um auf der Diagonalen 1er zu erhalten, indem wir die zweite mit -1/3 Multiplizieren, die dritte mit -1/2
Von der ersten Zeile ziehen wir 2 mal die zweite ab und addieren die dritte 1 mal, anschließend ziehen wir die dritte Zeile 2 mal von der zweiten ab:
Auf der rechten Seite steht jetzt die Inverse der ursprünglichen Matrix.
Welche elementaren Zeilenumformungen man verwendet ist hierbei egal, es empfielt sich jedoch ein zielgerichtetes Arbeiten, wie eben gezeigt (Spalte für Spalte auf obere Dreiecksmatrix bringen, anschließend die Diagonale auf 1en normieren. Anschließend ist es meistens am einfachsten, wenn man (anders als eben gezeigt) von unten anfangend die Einheitsmatrix herstellt. (Im eben gezeigten Beispiel hätte man dazu statt des letzten Schritts erst die letzte Zeile 2 mal von der vorletzten abgezogen, anschließend die letzte 3 mal und die mittlere Zeile 2 mal von der ersten)
Online-Tool zum Überprüfen von Ergebnissen: Berechnung der Inversen
Berechnung der Inversen mit Hilfe der Determinanten
Die Inverse lässt sich auch mit Hilfe der Determinanten der Matrix berechnen:
- ,
wobei die komplementäre Matrix ist.
Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)
Hat man zwei Spaltenvektoren und der Länge , dann ist das Matrixprodukt nicht definiert, aber die beiden Produkte und existieren.
Das erste Produkt ist eine -Matrix, die als Zahl interpretiert wird, sie wird das kanonische Skalarprodukt von und genannt und mit bezeichnet.
Das zweite Produkt ist eine -Matrix und heißt das dyadische Produkt oder Tensorprodukt von und .
Umformen von Matrizengleichungen
Speziell in den Multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.
Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt. Es wird von der Gleichung
ausgegangen mit , als -Matrix.
Addieren und Subtrahieren
Die Gleichung kann von links und rechts mit einer -Matrix additiv erweitert werden zu
bzw.
- .
Multiplizieren mit einer Matrix
Die Gleichung kann multiplikativ von links durch die -Matrix oder von rechts durch die -Matrix erweitert werden:
bzw.
"Division" durch eine Matrix
Die Gleichung wird mit der Inversen der Matrix multipliziert, wobei invertierbar sein muss. Zu beachten ist hier wieder, dass zwischen der links- und rechtsseitigen Multiplikation zu unterscheiden ist.
Beispiele
Lineares Gleichungssystem als einfache Umformung
Gesucht ist der Lösungsvektor eines linearen Gleichungssystems
mit als -Koeffizientenmatrix. Man erweitert von links
und erhält die Lösung
- .
Eine etwas aufwendigere Umformung erfordert ein
Orthogonalitätsbeweis im Multiplen Regressionsmodell
Im Multiplen Regressionsmodell geht man davon aus, dass eine abhängige Variable durch vorgegebene Variablen mit erklärt werden kann. Man schätzt mit Hilfe der Methode der kleinsten Quadrate die Regressionskoeffizienten als
und erhält mit der Schätzung das Gleichungssystem
mit als ( )-Vektor der -Werte, als ( )-Vektor der Residuen, als ( )-Vektor der Regressionskoeffizienten und der ( )-Datenmatrix .
Es soll gezeigt werden, dass ist: Es ist zunächst
Wegen
mit
als idempotenter Matrix, d.h.
- .
erhält man
was wegen das Skalar 0 ergibt.
Die Regressionshyperebene steht auf senkrecht, was man so interpretieren kann, dass in den Residuen keine verwertbare Information von bzw. mehr enthalten ist.
Spezielle Formen von Matrizen
Die transponierte Matrix
"Kippt" man die Matrix an der Hauptdiagonalen, vorausgesetzt sie ist quadratisch, dann erhält man die zu transponierte Matrix .
Die Transponierte der Matrix vom Format ist die Matrix vom Format .
Allgemein:
Beispiel:
Die Matrix heißt symmetrisch, wenn gilt:
Beispiel:
Die schiefsymmetrische Matrix
Eine Matrix heißt schiefsymmetrisch, wenn gilt:
Jede Matrix der Form
ist also eine schiefsymmetrische Matrix.
Beispiel:
- ist schiefsymmetrisch, da
Jede quadratische Matrix kann als Summe einer symmetrischen Matrix S und einer schiefsymmetrischen Matrix geschrieben werden:
Eine reelle Matrix ist orthogonal, wenn gilt
bzw.
Der Winkel zwischen zwei Vektoren, die mit dieser Matrix multipliziert werden, bleibt erhalten.
Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix wird mit bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. Manchmal wird auch die komplementäre Matrix als Adjunkte bezeichnet.
Die hermitesche Matrix
Eine Matrix ist hermitesch oder selbstadjungiert, wenn gilt:
Die unitäre Matrix
Eine komplexe Matrix heißt unitär, wenn gilt:
Dies ist die komplexe Entsprechung einer orthogonalen Matrix.
Die komplementäre Matrix
Die komplementäre Matrix einer quadratischen Matrix setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten werden die -te Zeile und -te Spalte von gestrichen. Aus der resultierenden ( )-Matrix wird dann die Determinante berechnet. Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.
Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix .
Hesse-Matrix
Die Hesse-Matrix (nach Otto Hesse) fasst die partiellen zweiten Ableitungen einer Funktion zusammen.
Verallgemeinerungen
Man kann auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen unendliche Reihen sind und nicht konvergieren müssten).
Werden analog zu den Matrizen mathematische Strukturen mit mehr als zwei Indizes definiert, so nennt man diese Tensoren.