Matrix (Mathematik)
In der linearen Algebra ist eine Matrix (Plural: Matrizen) eine Anordnung von Elementen (meist Zahlenwerten) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix, und bezeichnet selbige auch als Vektoren (d.h. Zeilenvektoren und Spaltenvektoren). Die Objekte, die in der Matrix angeordnet sind, nennt man Komponenten oder Elemente der Matrix.
Die Bezeichnung "Matrix" wurde 1850 von James Joseph Sylvester eingeführt.
Als Notation hat sich die Aneinanderreihung der Elemente in Zeilen und Spalten mit einer großen öffnenden und schließenden Klammer durchgesetzt; z.B. steht die Notation
für eine Matrix mit 2 Zeilen und 3 Spalten.
Definition
Seien eine Menge und natürliche Zahlen. Jede Abbildung heißt Matrix. Genauer spezifiziert spricht man von einer -Matrix mit Zeilen und Spalten. Deshalb nennt man auch die Zeilendimension und die Spaltendimension der Matrix.
Notation und erste Eigenschaften
Die Menge aller -Matrizen über der Menge wird in üblicher mathematischer Notation auch geschrieben; hierfür hat sich die Kurznotation eingebürgert (manchmal wird auch die Schreibweise , seltener benutzt).
Ist eine -Matrix über , so werden die einzelnen Funktionswerte von Indexpaaren (Komponenten) an Stelle der Funktionsschreibweise mit der Indexnotation oder noch kürzer geschrieben. Tabelliert man die Komponenten in Zeilen- / Spaltenanordnung, so erhält man die Schreibweise
Die Komponente steht also in der -ten Zeile und der -ten Spalte.
Stimmen Zeilen- und Spaltendimension überein, so spricht man von einer quadratischen Matrix.
Hat eine Matrix nur eine einzige Spalte oder Zeile, so nennt man sie einen Zeilenvektor (mit nur einer Zeile) bzw. einen Spaltenvektor (mit nur einer Spalte). Einen Vektor aus kann man je nach Kontext als einen Zeilen- oder Spaltenvektor auffassen (d.h. als Element aus oder ). Wir werden später bei der Matrixmultiplikation sehen, dass die Auffassung als Spaltenvektor die geschicktere Wahl darstellt.
Matrixaddition, Skalarmultiplikation und Matrixmultiplikation
Ist die Komponentenmenge ein Monoid , so wird die Menge der -Matrizen mit der komponentenweise erklärten Matrixaddition
ebenfalls ein Monoid. Das Nullelement ist die Nullmatrix 0, deren Komponenten alle 0 sind.
Ist die Komponentenmenge ein Ring , so ist die Menge der -Matrizen ein R-(Links-)Modul über R. Hierbei geschieht die Skalarmultiplikation einer Matrix komponentenweise:
- .
Die Matrixmultiplikation ist für eine -Matrix und eine -Matrix wie folgt erklärt:
- mit
Insbesondere ist die resultierende Matrix eine -Matrix. Besteht der Grundring aus den reellen Zahlen, so bildet die Matrixmultiplikation Skalarprodukte von Zeilenvektoren der linken Matrix mit Spaltenvektoren der rechten Matrix. Aus dieser Anschauung wird unmittelbar klar, dass die Spaltenanzahl der linken und die Zeilenanzahl der rechten Matrix übereinstimmen müssen, damit die Matrixmultiplikation überhaupt durchführbar ist.
Ist ein Ring, so bilden die quadratischen -Matrizen ebenfalls einen Ring mit der oben definierten Matrixaddition und -multiplikation. Ist unitär mit dem Einselement 1, dann ist die Einheitsmatrix
das Einselement des Matrizenrings, d.h. dieser ist auch unitär. Allerdings ist der Matrizenring für niemals kommutativ.
Rechenbeispiele
Matrixaddition
Zwei Matrizen und gleicher Dimension werden komponentenweise addiert:
Skalarmultiplikation von Matrizen
Auch die Skalarmultiplikation wird einfach komponentenweise durchgeführt:
Die Skalarmultiplikation darf nicht mit dem Skalarprodukt zweier Vektoren verwechselt werden.
Matrixmultiplikation
Zwei Matrizen und werden miteinander multipliziert, indem die Produktsummenformel des reellen Skalarprodukts auf Paare aus einem Zeilenvektor der ersten Matrix und einem Spaltenvektor der zweiten Matrix angewandt wird:
Dabei können und auch Vektoren sein, solange die Formate passen (siehe dazu auch den Abschnitt Vektor-Vektor-Produkte).
Bei der Berechnung des Produktes von Hand wird häufig auf das Falksche Schema zurückgegriffen.
Zusammenhang mit linearen Abbildungen
Das besondere an Matrizen über einem Ring ist der Zusammenhang zu linearen Abbildungen. Jeder linearen Abbildung mit einem Spaltenvektorraum als Definitionsbereich und einem Spaltenvektorraum als Wertebereich läßt sich genau eine -Matrix zuordnen und umgekehrt. Diesen Zusammenhang bezeichnet man auch als (kanonischen) Isomorphismus; er stellt bei vorgegebenem eine Bijektion zwischen der Menge der Matrizen und der Menge der linearen Abbildungen dar.
Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang und die Determinante einer Matrix.
Potenzieren von Matrizen
Quadratische Matrizen können mit sich selbst multipliziert werden; analog zum Fall der reellen Zahlen kürzt man mit , mit etc. in Potenzschreibweise ab. Damit ist es auch sinnvoll, quadratische Matrizen als Elemente in Polynomen einzusetzen. Zu weitergehenden Ausführungen hierzu siehe Charakteristisches Polynom.
Die inverse Matrix
Ist ein Körper (wie beispielsweise die reellen oder komplexen Zahlen), dann sind im Ring genau diejenigen Matrizen invertierbar (regulär), deren Determinante ungleich 0 ist. Nicht invertierbare Matrizen nennt man singulär. Man kann die zur Matrix inverse Matrix zum Beispiel mit dem Gauß-Algorithmus bestimmen. Dazu löst man das lineare Gleichungssystem . Die Matrix ist die Einheitsmatrix, die Matrix ist dann das Inverse von .
Es entsteht ein Lineares Gleichungssystem mit 9 Unbekannten und 9 Gleichungen:
Bei näherer Betrachtung stellt man aber sehr schnell fest, dass man dieses Gleichungssystem immer auch als drei getrennte Gleichungssysteme mit je drei Gleichungen und Unbekannte zerlegen kann:
|
|
|
Es muss also dreimal dasselbe Gleichungssystem mit unterschiedlichen rechten Seiten (nämlich den drei Einheitsvektoren) gelöst werden. Dies gilt analog bei Matrizen höherer Dimension. Effizient geht dies über elementare Zeilenumformungen, also über das Gaußsche Eliminationsverfahren. Das Ergebnis sollte lauten:
Berechnung der Inversen mittels elementarer Zeilenumformungen (auch Gaußsches Eliminationsverfahren genannt):
Wir schreiben rechts neben die zu invertierende Matrix die Einheitsmatrix, z.B.
Jetzt formen wir die Matrix so lange mit Elementaren Zeilenumformungen um, bis auf der linken Seite die Einheitsmatrix steht. Das ist nicht besonders kompliziert, im oben angegebenen Beispiel geht das z.B. folgendermaßen:
Im ersten Schritt ziehen wir dazu die erste Zeile 4 mal von der zweiten ab, und 7 mal von der dritten:
Jetzt ziehen wir die zweite Zeile 2 mal von der dritten ab, und erhalten so links eine obere Dreiecksmatrix:
Nun normieren wir die Zeilen um auf der Diagonalen 1er zu erhalten, indem wir die zweite mit -1/3 Multiplizieren, die dritte mit -1/2
Von der ersten Zeile ziehen wir 2 mal die zweite ab und addieren die dritte 1 mal, anschließend ziehen wir die dritte Zeile 2 mal von der zweiten ab:
Auf der rechten Seite steht jetzt die Inverse der ursprünglichen Matrix.
Welche elementaren Zeilenumformungen man verwendet ist hierbei egal, es empfielt sich jedoch ein zielgerichtetes Arbeiten, wie eben gezeigt (Spalte für Spalte auf obere Dreiecksmatrix bringen, anschließend die Diagonale auf 1en normieren. Anschließend ist es meistens am einfachsten, wenn man (anders als eben gezeigt) von unten anfangend die Einheitsmatrix herstellt. (Im eben gezeigten Beispiel hätte man dazu statt des letzten Schritts erst die letzte Zeile 2 mal von der vorletzten abgezogen, anschließend die letzte 3 mal und die mittlere Zeile 2 mal von der ersten)
Online-Tool zum Überprüfen von Ergebnissen: Berechnung der Inversen
Berechnung der Inversen mit Hilfe der Determinanten
Die Inverse lässt sich auch mit Hilfe der Determinanten der Matrix berechnen:
- ,
wobei die komplementäre Matrix ist.
Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)
Hat man zwei Spaltenvektoren und der Länge , dann ist das Matrixprodukt nicht definiert, aber die beiden Produkte und existieren.
Das erste Produkt ist eine -Matrix, die als Zahl interpretiert wird, sie wird das kanonische Skalarprodukt von und genannt und mit bezeichnet.
Das zweite Produkt ist eine -Matrix und heißt das dyadische Produkt oder Tensorprodukt von und .
Umformen von Matrizengleichungen
Speziell in den Multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.
Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt. Es wird von der Gleichung
ausgegangen mit , als -Matrix.
Addieren und Subtrahieren
Die Gleichung kann von links und rechts mit einer -Matrix additiv erweitert werden zu
bzw.
- .
Multiplizieren mit einer Matrix
Die Gleichung kann multiplikativ von links durch die -Matrix oder von rechts durch die -Matrix erweitert werden:
bzw.
"Division" durch eine Matrix
Die Gleichung wird mit der Inversen der Matrix multipliziert, wobei invertierbar sein muss. Zu beachten ist hier wieder, dass zwischen der links- und rechtsseitigen Multiplikation zu unterscheiden ist.
Beispiele
Lineares Gleichungssystem als einfache Umformung
Gesucht ist der Lösungsvektor eines linearen Gleichungssystems
mit als -Koeffizientenmatrix. Man erweitert von links
und erhält die Lösung
- .
Eine etwas aufwendigere Umformung erfordert ein
Orthogonalitätsbeweis im Multiplen Regressionsmodell
Im Multiplen Regressionsmodell geht man davon aus, dass eine abhängige Variable durch vorgegebene Variablen mit erklärt werden kann. Man schätzt mit Hilfe der Methode der kleinsten Quadrate die Regressionskoeffizienten als
und erhält mit der Schätzung das Gleichungssystem
mit als ( )-Vektor der -Werte, als ( )-Vektor der Residuen, als ( )-Vektor der Regressionskoeffizienten und der ( )-Datenmatrix .
Es soll gezeigt werden, dass ist: Es ist zunächst
Wegen
mit
als idempotenter Matrix, d.h.
- .
erhält man
was wegen das Skalar 0 ergibt.
Die Regressionshyperebene steht auf senkrecht, was man so interpretieren kann, dass in den Residuen keine verwertbare Information von bzw. mehr enthalten ist.
Spezielle Matrizen
Die transponierte Matrix
Spiegelt man die Matrix an der Hauptdiagonalen, dann erhält man die zu transponierte Matrix . Die Transponierte der Matrix vom Format ist die Matrix vom Format , d.h. zu
ist die Transponierte
Beispiel:
Es gilt zusätzlich:
Die Matrix heißt symmetrisch, wenn gilt:
Beispiel:
Die schiefsymmetrische Matrix
Eine Matrix heißt schiefsymmetrisch, wenn gilt:
Beispiel:
- ist schiefsymmetrisch, da
Jede quadratische Matrix kann als Summe einer symmetrischen Matrix S und einer schiefsymmetrischen Matrix geschrieben werden:
Eine reelle Matrix ist orthogonal, wenn gilt
bzw.
Diese Matrizen stellen Spiegelungen und Drehungen dar.
Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix wird mit bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. Manchmal wird auch die komplementäre Matrix als adjungierte bezeichnet.
Die hermitesche Matrix
Eine Matrix ist hermitesch oder selbstadjungiert, wenn gilt:
Die unitäre Matrix
Eine komplexe Matrix heißt unitär, wenn gilt:
Dies ist die komplexe Entsprechung einer orthogonalen Matrix.
Die komplementäre Matrix
Die komplementäre Matrix (manchmal auch adjungierte genannt) einer quadratischen Matrix setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten werden die -te Zeile und -te Spalte von gestrichen. Aus der resultierenden -Matrix wird dann die Determinante berechnet. Die komplementäre Matrix hat dann die Einträge . Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.
Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix , denn nach dem Laplaceschen Entwicklungssatz gilt .
Hesse-Matrix
Die Hesse-Matrix (nach Otto Hesse) fasst die partiellen zweiten Ableitungen einer Funktion zusammen.
Projektionsmatrix
Eine Matrix ist eine Projektionsmatrix, falls
d.h. die Matrix ist idempotent, was bedeutet, dass die mehrfache Anwendung einer Projketionsmatrix auf einen Vektor das Resultat unverändert lässt. Siehe dazu auch: Projektion (Mathematik).
Verallgemeinerungen
Man kann auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen unendliche Reihen sind und nicht konvergieren müssten).
Werden analog zu den Matrizen mathematische Strukturen mit mehr als zwei Indizes definiert, so nennt man diese Tensoren.