Matrix (Mathematik)

Anordnung von Zahlen oder anderen mathematischen Objekten in Tabellenform
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 12. August 2005 um 11:36 Uhr durch AmiUhle (Diskussion | Beiträge) (Zusammenhang mit linearen Abbildungen). Sie kann sich erheblich von der aktuellen Version unterscheiden.

In der linearen Algebra ist eine Matrix (Plural: Matrizen) eine Anordnung von Elementen (meist Zahlenwerten) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix, und bezeichnet selbige auch als Vektoren (d.h. Zeilenvektoren und Spaltenvektoren). Die Objekte, die in der Matrix angeordnet sind, nennt man Komponenten oder Elemente der Matrix.

Die Bezeichnung "Matrix" wurde 1850 von James Joseph Sylvester eingeführt.

Als Notation hat sich die Aneinanderreihung der Elemente in Zeilen und Spalten mit einer großen öffnenden und schließenden Klammer durchgesetzt; z.B. steht die Notation

für eine Matrix mit 2 Zeilen und 3 Spalten.

Definition

Seien   eine Menge und   natürliche Zahlen. Jede Abbildung   heißt Matrix. Genauer spezifiziert spricht man von einer  -Matrix mit   Zeilen und   Spalten. Deshalb nennt man auch   die Zeilendimension und   die Spaltendimension der Matrix.

Notation und erste Eigenschaften

Die Menge   aller  -Matrizen über der Menge   wird in üblicher mathematischer Notation auch   geschrieben; hierfür hat sich die Kurznotation   eingebürgert (manchmal wird auch die Schreibweise  , seltener   benutzt).

Ist   eine  -Matrix über  , so werden die einzelnen Funktionswerte von Indexpaaren (Komponenten) an Stelle der Funktionsschreibweise   mit der Indexnotation   oder noch kürzer   geschrieben. Tabelliert man die Komponenten in Zeilen- / Spaltenanordnung, so erhält man die Schreibweise

 

Die Komponente   steht also in der  -ten Zeile und der  -ten Spalte.

Stimmen Zeilen- und Spaltendimension überein, so spricht man von einer quadratischen Matrix.

Hat eine Matrix nur eine einzige Spalte oder Zeile, so nennt man sie einen Zeilenvektor (mit nur einer Zeile) bzw. einen Spaltenvektor (mit nur einer Spalte). Einen Vektor aus   kann man je nach Kontext als einen Zeilen- oder Spaltenvektor auffassen (d.h. als Element aus   oder  ). Wir werden später bei der Matrixmultiplikation sehen, dass die Auffassung als Spaltenvektor die geschicktere Wahl darstellt.

Matrixaddition, Skalarmultiplikation und Matrixmultiplikation

Ist die Komponentenmenge ein Monoid  , so wird die Menge der  -Matrizen mit der komponentenweise erklärten Matrixaddition

 

ebenfalls ein Monoid. Das Nullelement ist die Nullmatrix 0, deren Komponenten alle 0 sind.

Ist die Komponentenmenge ein Ring  , so ist die Menge der  -Matrizen ein R-(Links-)Modul über R. Hierbei geschieht die Skalarmultiplikation einer Matrix komponentenweise:

 .

Die Matrixmultiplikation ist für eine  -Matrix   und eine  -Matrix   wie folgt erklärt:

    mit   

Insbesondere ist die resultierende Matrix   eine  -Matrix. Besteht der Grundring aus den reellen Zahlen, so bildet die Matrixmultiplikation Skalarprodukte von Zeilenvektoren der linken Matrix mit Spaltenvektoren der rechten Matrix. Aus dieser Anschauung wird unmittelbar klar, dass die Spaltenanzahl der linken und die Zeilenanzahl der rechten Matrix übereinstimmen müssen, damit die Matrixmultiplikation überhaupt durchführbar ist.

Ist   ein Ring, so bilden die quadratischen  -Matrizen   ebenfalls einen Ring mit der oben definierten Matrixaddition und -multiplikation. Ist   unitär mit dem Einselement 1, dann ist die Einheitsmatrix

 

das Einselement des Matrizenrings, d.h. dieser ist auch unitär. Allerdings ist der Matrizenring   für   niemals kommutativ.

Rechenbeispiele

Matrixaddition

Zwei Matrizen   und   gleicher Dimension werden komponentenweise addiert:

 

Skalarmultiplikation von Matrizen

Auch die Skalarmultiplikation wird einfach komponentenweise durchgeführt:

 

Die Skalarmultiplikation darf nicht mit dem Skalarprodukt zweier Vektoren verwechselt werden.

Matrixmultiplikation

Zwei Matrizen   und   werden miteinander multipliziert, indem die Produktsummenformel des reellen Skalarprodukts auf Paare aus einem Zeilenvektor der ersten Matrix und einem Spaltenvektor der zweiten Matrix angewandt wird:

 


Dabei können   und   auch Vektoren sein, solange die Formate passen (siehe dazu auch den Abschnitt Vektor-Vektor-Produkte).

Bei der Berechnung des Produktes von Hand wird häufig auf das Falksche Schema zurückgegriffen.

Zusammenhang mit linearen Abbildungen

Das besondere an Matrizen über einem Ring   ist der Zusammenhang zu linearen Abbildungen. Jeder linearen Abbildung mit einem Spaltenvektorraum   als Definitionsbereich und einem Spaltenvektorraum   als Wertebereich läßt sich genau eine  -Matrix zuordnen und umgekehrt. Diesen Zusammenhang bezeichnet man auch als (kanonischen) Isomorphismus; er stellt bei vorgegebenem   eine Bijektion zwischen der Menge der Matrizen und der Menge der linearen Abbildungen dar.


Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang und die Determinante einer Matrix.

Potenzieren von Matrizen

Quadratische Matrizen   können mit sich selbst multipliziert werden; analog zum Fall der reellen Zahlen kürzt man   mit  ,   mit   etc. in Potenzschreibweise ab. Damit ist es auch sinnvoll, quadratische Matrizen als Elemente in Polynomen einzusetzen. Zu weitergehenden Ausführungen hierzu siehe Charakteristisches Polynom.

Die inverse Matrix

Ist   ein Körper (wie beispielsweise die reellen oder komplexen Zahlen), dann sind im Ring   genau diejenigen Matrizen invertierbar (regulär), deren Determinante ungleich 0 ist. Nicht invertierbare Matrizen nennt man singulär. Man kann die zur Matrix   inverse Matrix   zum Beispiel mit dem Gauß-Algorithmus bestimmen. Dazu löst man das lineare Gleichungssystem  . Die Matrix   ist die Einheitsmatrix, die Matrix   ist dann das Inverse von  .


 


Es entsteht ein Lineares Gleichungssystem mit 9 Unbekannten und 9 Gleichungen:

 

Bei näherer Betrachtung stellt man aber sehr schnell fest, dass man dieses Gleichungssystem immer auch als drei getrennte Gleichungssysteme mit je drei Gleichungen und Unbekannte zerlegen kann:

 
 
 

Es muss also dreimal dasselbe Gleichungssystem mit unterschiedlichen rechten Seiten (nämlich den drei Einheitsvektoren) gelöst werden. Dies gilt analog bei Matrizen höherer Dimension. Effizient geht dies über elementare Zeilenumformungen, also über das Gaußsche Eliminationsverfahren. Das Ergebnis sollte lauten:


 


Berechnung der Inversen mittels elementarer Zeilenumformungen (auch Gaußsches Eliminationsverfahren genannt):

Wir schreiben rechts neben die zu invertierende Matrix die Einheitsmatrix, z.B.

 

Jetzt formen wir die Matrix so lange mit Elementaren Zeilenumformungen um, bis auf der linken Seite die Einheitsmatrix steht. Das ist nicht besonders kompliziert, im oben angegebenen Beispiel geht das z.B. folgendermaßen:

Im ersten Schritt ziehen wir dazu die erste Zeile 4 mal von der zweiten ab, und 7 mal von der dritten:

 

Jetzt ziehen wir die zweite Zeile 2 mal von der dritten ab, und erhalten so links eine obere Dreiecksmatrix:

 

Nun normieren wir die Zeilen um auf der Diagonalen 1er zu erhalten, indem wir die zweite mit -1/3 Multiplizieren, die dritte mit -1/2

 

Von der ersten Zeile ziehen wir 2 mal die zweite ab und addieren die dritte 1 mal, anschließend ziehen wir die dritte Zeile 2 mal von der zweiten ab:

 

Auf der rechten Seite steht jetzt die Inverse der ursprünglichen Matrix.

Welche elementaren Zeilenumformungen man verwendet ist hierbei egal, es empfielt sich jedoch ein zielgerichtetes Arbeiten, wie eben gezeigt (Spalte für Spalte auf obere Dreiecksmatrix bringen, anschließend die Diagonale auf 1en normieren. Anschließend ist es meistens am einfachsten, wenn man (anders als eben gezeigt) von unten anfangend die Einheitsmatrix herstellt. (Im eben gezeigten Beispiel hätte man dazu statt des letzten Schritts erst die letzte Zeile 2 mal von der vorletzten abgezogen, anschließend die letzte 3 mal und die mittlere Zeile 2 mal von der ersten)

Online-Tool zum Überprüfen von Ergebnissen: Berechnung der Inversen

Berechnung der Inversen mit Hilfe der Determinanten

Die Inverse lässt sich auch mit Hilfe der Determinanten der Matrix berechnen:

 ,

wobei   die komplementäre Matrix ist.


Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)

Hat man zwei Spaltenvektoren   und   der Länge  , dann ist das Matrixprodukt   nicht definiert, aber die beiden Produkte   und   existieren.

Das erste Produkt ist eine  -Matrix, die als Zahl interpretiert wird, sie wird das kanonische Skalarprodukt von   und   genannt und mit   bezeichnet.

 

Das zweite Produkt ist eine  -Matrix und heißt das dyadische Produkt oder Tensorprodukt von   und  .

 

Umformen von Matrizengleichungen

Speziell in den Multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.

Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt. Es wird von der Gleichung

 

ausgegangen mit   ,  als  -Matrix.

Addieren und Subtrahieren

Die Gleichung kann von links und rechts mit einer  -Matrix   additiv erweitert werden zu

 

bzw.

  .

Multiplizieren mit einer Matrix

Die Gleichung kann multiplikativ von links durch die  -Matrix   oder von rechts durch die  -Matrix   erweitert werden:

 

bzw.

 


"Division" durch eine Matrix  

Die Gleichung wird mit der Inversen der Matrix   multipliziert, wobei   invertierbar sein muss. Zu beachten ist hier wieder, dass zwischen der links- und rechtsseitigen Multiplikation zu unterscheiden ist.

Beispiele

Lineares Gleichungssystem als einfache Umformung

Gesucht ist der Lösungsvektor   eines linearen Gleichungssystems

 

mit   als  -Koeffizientenmatrix. Man erweitert von links

 

und erhält die Lösung

 .

Eine etwas aufwendigere Umformung erfordert ein

Orthogonalitätsbeweis im Multiplen Regressionsmodell

Im Multiplen Regressionsmodell geht man davon aus, dass eine abhängige Variable   durch   vorgegebene Variablen   mit   erklärt werden kann. Man schätzt mit Hilfe der Methode der kleinsten Quadrate die Regressionskoeffizienten als

 

und erhält mit der Schätzung das Gleichungssystem

 

mit   als ( )-Vektor der    -Werte,   als ( )-Vektor der Residuen,   als ( )-Vektor der Regressionskoeffizienten und der ( )-Datenmatrix  .

Es soll gezeigt werden, dass   ist: Es ist zunächst

 

Wegen

 

mit

 

als idempotenter Matrix, d.h.

  .

erhält man

 

was wegen   das Skalar 0 ergibt.

Die Regressionshyperebene   steht auf   senkrecht, was man so interpretieren kann, dass in den Residuen keine verwertbare Information von   bzw.   mehr enthalten ist.

Spezielle Matrizen

Die transponierte Matrix

Spiegelt man die Matrix   an der Hauptdiagonalen, dann erhält man die zu   transponierte Matrix  . Die Transponierte der Matrix   vom Format   ist die Matrix   vom Format  , d.h. zu

 

ist die Transponierte

 

Beispiel:

 


Es gilt zusätzlich:

 

Die Matrix   heißt symmetrisch, wenn gilt:


 

Beispiel:

 

Die schiefsymmetrische Matrix

Eine Matrix   heißt schiefsymmetrisch, wenn gilt:


 

Beispiel:

  ist schiefsymmetrisch, da
 

Jede quadratische Matrix kann als Summe einer symmetrischen Matrix S und einer schiefsymmetrischen Matrix   geschrieben werden:

 
 
 

Eine reelle Matrix ist orthogonal, wenn gilt

 

bzw.

 

Diese Matrizen stellen Spiegelungen und Drehungen dar.

Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix   wird mit   bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. Manchmal wird auch die komplementäre Matrix   als adjungierte bezeichnet.

Die hermitesche Matrix

Eine Matrix   ist hermitesch oder selbstadjungiert, wenn gilt:

 

Eine komplexe Matrix   heißt unitär, wenn gilt:

 

Dies ist die komplexe Entsprechung einer orthogonalen Matrix.

Die komplementäre Matrix

Die komplementäre Matrix (manchmal auch adjungierte genannt)   einer quadratischen Matrix   setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten   werden die  -te Zeile und  -te Spalte von   gestrichen. Aus der resultierenden  -Matrix wird dann die Determinante   berechnet. Die komplementäre Matrix hat dann die Einträge  . Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.

Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix  , denn nach dem Laplaceschen Entwicklungssatz gilt  .

Hesse-Matrix

Die Hesse-Matrix (nach Otto Hesse) fasst die partiellen zweiten Ableitungen einer Funktion   zusammen.

Projektionsmatrix

Eine Matrix ist eine Projektionsmatrix, falls

 

d.h. die Matrix ist idempotent, was bedeutet, dass die mehrfache Anwendung einer Projketionsmatrix auf einen Vektor das Resultat unverändert lässt. Siehe dazu auch: Projektion (Mathematik).

Verallgemeinerungen

Man kann auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen unendliche Reihen sind und nicht konvergieren müssten).

Werden analog zu den Matrizen mathematische Strukturen mit mehr als zwei Indizes definiert, so nennt man diese Tensoren.