Matrix (Mathematik)
In der linearen Algebra ist eine Matrix (pl.: Matrizen) eine 2-dimensionale Anordnung von Zahlenwerten (aber auch anderen Objekten wie Operatoren) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix, und bezeichnet selbige auch als Vektoren (d.h. Zeilenvektoren und Spaltenvektoren). Die Objekte, die in der Matrix angeordnet sind, nennt man Komponenten oder Elemente der Matrix.
Wenn die Matrix m Zeilen und n Spalten besitzt, spricht man von einer m × n-Matrix, und nennt m und n die Dimensionen der Matrix. Ist m = n spricht man von einer n × n oder quadratischen Matrix. Die Komponente, die in der i-ten Zeile an j-ter Stelle steht, hat die Indices i,j. Eine allgemeine 2 × 3 Matrix A sieht zum Beispiel so aus:
Die Menge aller m × n-Matrizen über einer Menge K bezeichnet man mit Km×n oder Km,n, selten auch mit mKn.
Hat eine Matrix nur eine einzige Spalte oder Zeile, dann nennt man sie Vektor. Man unterscheidet dabei zwischen einem Zeilenvektor (mit nur einer Zeile) oder einem Spaltenvektor (mit nur einer Spalte). Oft benötigt man diese Unterscheidung nicht (wenn man sie nicht mit Matrizen multiplizieren muss) und bezeichnet die Menge aller n-stelligen Vektoren über einer Menge K mit Kn statt K1×n oder Kn×1.
Im Zusammenhang mit Matrizen oft auftretenden Begriffe sind der Rang und die Determinante einer Matrix.
"Kippt" man die Matrix A an der Hauptdiagonalen (die von links oben nach rechts unten geht, ihre Komponenten sind aii), dann erhält man die zu A transponierte Matrix AT.
Zwei Matrizen A und B gleicher Dimension mit Komponenten in einer Zahlenmenge (z.B. den reellen Zahlen) kann man komponentenweise addieren. Stimmt dagegen die Zeilenanzahl von A mit der Spaltenanzahl von B überein, dann kann man das Matrixprodukt A*B berechnen. Siehe dazu die folgenden Beispiele.
Rechnen mit Matrizen
Addieren von Matrizen
Zwei Matrizen A und B werden addiert, indem man die in den Matrizen an entsprechender Stelle stehenden Komponenten addiert:
Genauso werden auch Vektoren addiert.
Die Matritzen müssen die selben Dimensionen aufweisen.
Vervielfachen von Matrizen (Skalarmultiplikation)
Eine Matrix oder ein Vektor A wird mit einer Zahl r vervielfacht (multipliziert), indem man jede Komponente von A mit r multipliziert:
Diese Rechenoperation nennt man Skalarmultiplikation, das Ergebnis ist ein skalares Produkt, es ist zu unterscheiden vom Skalarprodukt zweier Vektoren.
Multiplizieren von Matrizen
Zwei Matrizen A und B werden miteinander multipliziert, indem jeweils die Zeilenelemente der ersten Matrix mit den entsprechenden Spaltenelementen der zweiten Matrix multipliziert werden. Die Multiplikation von Matrizen ist nur dann möglich, wenn die Länge der Zeilen (= die Anzahl der Spalten) der ersten Matrix mit der Länge der Spalten (= Anzahl der Zeilen) der zweiten Matrix übereinstimmt. Ist A eine l×m-Matrix und B eine m×n-Matrix, so ist das Produkt eine l×n-Matrix. Aber Achtung: Bei Matrizen gilt Kommutativgesetz NICHT!
Dabei können A und B auch Vektoren sein, solange die Formate passen (siehe dazu auch den Abschnitt Vektor-Vektor-Produkte).
Formal definiert ist die Matrixmultiplikation für Matrizen A = (aij) und B = (bij) der Formate l×m und m×n als die Matrix C = (cij) mit den Komponenten
Die transponierte Matrix
Die Transponierte der Matrix A = (aij) vom Format m×n ist die Matrix AT = (aji) vom Format n×m.
Die inverse Matrix
Ist (R,+,*,0) ein Ring, dann bildet die Menge Rn×n der quadratischen Matrizen vom Format n×n ebenfalls einen Ring mit der oben definierten Matrixaddition und -multiplikation. Das Nullelement ist die Nullmatrix 0, deren Komponenten alle 0 sind. Hat R ein Einselement 1, dann ist die Einheitsmatrix E das Einselement des Matrixrings. Sie hat auf der Hauptdiagonalen 1 und sonst 0.
Ist K ein Körper, dann sind im Ring Kn×n genau diejenigen Matrizen invertierbar (regulär), deren Determinante ungleich 0 ist. Man kann die zur Matrix A inverse Matrix A-1 zum Beispiel mit dem Gauss-Algorithmus bestimmen. Dazu löst man das lineare Gleichungssystem A*X = E. Die Matrix E ist die Einheitsmatrix, die Matrix X ist dann das Inverse von A.
Es entsteht ein LGS mit 9 Unbekannten und 9 Gleichungen:
Bei näherer Betrachtung stellt man aber sehr schnell fest, dass man dieses Gleichungssystem immer auch als drei getrennte Gleichungssysteme mit je drei Gleichungen und Unbekannte zerlegen kann:
Es muss also dreimal dasselbe Gleichungssystem mit unterschiedlichen rechten Seiten (nämlich den drei Einheitsvektoren) gelöst werden. Dies gilt analog bei Matrizen höherer Dimension. Effizient geht dies über elementare Zeilenumformungen, also über das Gauß-Verfahren. Das Ergebnis sollte lauten:
Berechnung der Inversen mittels elementarer Zeilenumformungen:
Wir schreiben rechts neben die zu invertierende Matrix die Einheitsmatrix, z.B.
Jetzt formen wir die Matrix so lange mit Elementaren Zeilenumformungen um, bis auf der linken Seite die Einheitsmatrix steht. Das ist nicht besonders kompliziert, im oben angegebenen Beispiel geht das z.B. folgendermaßen:
Im ersten Schritt ziehen wir dazu die erste Zeile 4 mal von der zweiten ab, und 7 mal von der dritten:
Jetzt ziehen wir die zweite Zeile 2 mal von der dritten ab, und erhalten so links eine obere Dreiecksmatrix:
Nun normieren wir die Zeilen um auf der Diagonalen 1er zu erhalten, indem wir die zweite mit -1/3 Multiplizieren, die dritte mit -1/2
Von der ersten Zeile ziehen wir 2 mal die zweite ab und addieren die dritte 1 mal, anschließend ziehen wir die dritte Zeile 2 mal von der zweiten ab:
Auf der rechten Seite steht jetzt die Inverse der ursprünglichen Matrix.
Welche elementaren Zeilenumformungen man verwendet ist hierbei egal, es empfielt sich jedoch ein zielgerichtetes Arbeiten, wie eben gezeigt (Spalte für Spalte auf obere Dreiecksmatrix bringen, anschließend die Diagonale auf 1en normieren. Anschließend ist es meistens am einfachsten, wenn man (anders als eben gezeigt) von unten anfangend die Einheitsmatrix herstellt. (Im eben gezeigten Beispiel hätte man dazu statt dem letzten Schritt erst die letzte Zeile 2 mal von der vorletzten abgezogen, anschließend die letzte 3 mal und die mittlere Zeile 2 mal von der ersten)
Vektor-Vektor-Produkte (Skalarprodukt)
Hat man zwei Spaltenvektoren v und w der Länge n, dann ist das Matrixprodukt v*w nicht definiert, aber die beiden Produkte vT*w und v*wT existieren.
Das erste Produkt ist eine 1×1-Matrix, die als Zahl interpretiert wird, sie wird das kanonische Skalarprodukt von v und w genannt und mit <v,w> bezeichnet.
Das zweite Produkt ist eine n×n-Matrix und heißt das dyadische Produkt von v und w.
Umformen von Matrizengleichungen
Speziell in den Multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.
Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt. Es wird von der Gleichung
ausgegangen mit X,Y als n×m-Matrix.
Addieren und Subtrahieren
Die Gleichung kann von links und rechts mit einer n×m-Matrix A additiv erweitert werden zu
bzw.
- .
Multiplizieren mit einer Matrix
Die Gleichung kann multiplikativ von links durch die r×n-Matrix A oder von rechts durch die m×s-Matrix B erweitert werden:
bzw.
"Division" durch eine Matrix A
Die Gleichung wird mit der Inversen der Matrix A multipliziert, wobei A invertierbar sein muss.
Beispiele
Lineares Gleichungssystem als einfache Umformung
Gesucht ist der Lösungsvektor x eines linearen Gleichungssystems
mit A als n×m-Koeffizientenmatrix. Man erweitert von links
und erhält die Lösung
- .
Eine etwas aufwendigere Umformung erfordert ein
Orthogonalitätsbeweis im Multiplen Regressionsmodell
Im Multiplen Regressionsmodell geht man davon aus, dass eine abhängige Variable y durch p vorgegebene Variablen xj (j=1,...,p) erklärt werden kann. Man schätzt mit Hilfe der Methode der kleinsten Quadrate die Regressionskoeffizienten als
und erhält mit der Schätzung das Gleichungssystem
mit y als (n×1)-Vektor der n y-Werte, d als (n×1)-Vektor der Residuen, b als ((p+1)×1)-Vektor der Regressionskoeffizienten und der (n× (p+1))-Datenmatrix X.
Es soll gezeigt werden, dass dTXb = 0 ist: Es ist zunächst
Wegen
mit
als idempotenter Matrix, d.h.
.
erhält man
was wegen MM=M das Skalar 0 ergibt.
Die Regressionshyperebene Xb steht auf d senkrecht, was man dahingehend interpretieren kann, dass in den Residuen keine verwertbare Information von X bzw. Xb mehr enthalten ist.
Verallgemeinerungen
Man kann auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen unendliche Reihen sind und nicht konvergieren müssten).
Lässt man mehr als zwei Indices zu, erhält man Strukturen, die man sich als drei- oder höherdimensionale Tabellen denken kann. Diese Strukturen sind spezielle Tensoren.