Zum Inhalt springen

Matrix (Mathematik)

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 20. Mai 2005 um 00:37 Uhr durch Tom1200 (Diskussion | Beiträge) (Design ist stark verbesserungswürdig). Sie kann sich erheblich von der aktuellen Version unterscheiden.

In der linearen Algebra ist eine Matrix (Plural: Matrizen) eine Anordnung von Zahlenwerten (aber auch anderen Objekten wie Operatoren) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix, und bezeichnet selbige auch als Vektoren (d.h. Zeilenvektoren und Spaltenvektoren). Die Objekte, die in der Matrix angeordnet sind, nennt man Komponenten oder Elemente der Matrix.

Die Bezeichnung "Matrix" wurde 1850 von James Joseph Sylvester eingeführt.

Eine streng formale Definition der Matrix ist wie folgt geben:

Unter einer Matrix mit Werten in einer Menge versteht man eine Abbildung

Wenn die Matrix Zeilen und Spalten besitzt, spricht man von einer -Matrix, und nennt und die Dimensionen der Matrix. Ist spricht man von einer oder quadratischen Matrix. Die Komponente, die in der -ten Zeile an -ter Stelle steht, hat die Indizes . Eine allgemeine Matrix sieht zum Beispiel so aus:

  • Die Menge aller -Matrizen über einer Menge bezeichnet man mit oder , selten auch mit .
  • Hat eine Matrix nur eine einzige Spalte oder Zeile, dann nennt man sie Vektor. Man unterscheidet dabei zwischen einem Zeilenvektor (mit nur einer Zeile) oder einem Spaltenvektor (mit nur einer Spalte). Oft benötigt man diese Unterscheidung nicht (wenn man sie nicht mit Matrizen multiplizieren muss) und bezeichnet die Menge aller -stelligen Vektoren über einer Menge mit statt oder .
  • Das besondere an Matrizen ist der Zusammenhang zu linearen Abbildungen. Jeder linearen Abbildung läßt sich eine Matrix zuordnen und jede Matrix entspricht einer linearen Abbildung. Diesen Zusammenhang bezeichnet man auch als Isomorphismus. Zwischen der Menge der linearen Matrizen und der Menge der linearen Abbildungen besteht eine Bijektion.
  • Zwei Matrizen und gleicher Dimension mit Komponenten in einer Zahlenmenge (z.B. den reellen Zahlen) kann man komponentenweise addieren.
  • Stimmt dagegen die Spaltenanzahl von mit der Zeilenanzahl von überein, dann kann man das Matrixprodukt berechnen. Siehe dazu die folgenden Beispiele.


Rechnen mit Matrizen

Addieren von Matrizen

Zwei Matrizen und werden addiert, indem man die in den Matrizen an entsprechender Stelle stehenden Komponenten addiert:

Genauso werden auch Vektoren addiert.

Die Matrizen müssen die gleichen Dimensionen aufweisen.

Vervielfachen von Matrizen (Skalarmultiplikation)

Eine Matrix oder ein Vektor wird mit einer Zahl vervielfacht (multipliziert), indem man jede Komponente von mit multipliziert:



Diese Rechenoperation nennt man Skalarmultiplikation, das Ergebnis ist ein skalares Produkt, es ist zu unterscheiden vom Skalarprodukt zweier Vektoren.

Multiplizieren von Matrizen

Zwei Matrizen und werden miteinander multipliziert, indem jeweils die Zeilenelemente der ersten Matrix mit den entsprechenden Spaltenelementen der zweiten Matrix multipliziert werden. Die Multiplikation von Matrizen ist nur dann möglich, wenn die Länge der Zeilen (= die Anzahl der Spalten) der ersten Matrix mit der Länge der Spalten (= Anzahl der Zeilen) der zweiten Matrix übereinstimmt. Ist eine -Matrix und eine -Matrix, so ist das Produkt eine -Matrix.
Aber Achtung: Bei der Multiplikation von Matrizen gilt das Kommutativgesetz NICHT!



Dabei können und auch Vektoren sein, solange die Formate passen (siehe dazu auch den Abschnitt Vektor-Vektor-Produkte).

Formal definiert ist die Matrixmultiplikation für Matrizen und der Formate und als die Matrix mit den Komponenten



Bei der Berechnung des Produktes von Hand wird häufig auf das Falksche Schema zurückgegriffen.

Die inverse Matrix

Ist ein Ring, dann bildet die Menge der quadratischen Matrizen vom Format ebenfalls einen Ring mit der oben definierten Matrixaddition und -multiplikation. Das Nullelement ist die Nullmatrix 0, deren Komponenten alle 0 sind. Hat ein Einselement 1, dann ist die Einheitsmatrix das Einselement des Matrixrings. Die Einheitsmatrix ist eine quadratische Matrix auf deren Hauptdiagonale nur 1 vorkommt und deren sonstige Elemente 0 sind.

Ist ein Körper (wie beispielsweise die reellen oder komplexen Zahlen), dann sind im Ring genau diejenigen Matrizen invertierbar (regulär), deren Determinante ungleich 0 ist. Nicht invertierbare Matrizen nennt man singulär. Man kann die zur Matrix inverse Matrix zum Beispiel mit dem Gauß-Algorithmus bestimmen. Dazu löst man das lineare Gleichungssystem . Die Matrix ist die Einheitsmatrix, die Matrix ist dann das Inverse von .

Es entsteht ein Lineares Gleichungssystem mit 9 Unbekannten und 9 Gleichungen:


Bei näherer Betrachtung stellt man aber sehr schnell fest, dass man dieses Gleichungssystem immer auch als drei getrennte Gleichungssysteme mit je drei Gleichungen und Unbekannte zerlegen kann:

Es muss also dreimal dasselbe Gleichungssystem mit unterschiedlichen rechten Seiten (nämlich den drei Einheitsvektoren) gelöst werden. Dies gilt analog bei Matrizen höherer Dimension. Effizient geht dies über elementare Zeilenumformungen, also über das Gaußsche Eliminationsverfahren. Das Ergebnis sollte lauten:

Berechnung der Inversen mittels elementarer Zeilenumformungen (auch Gaußsches Eliminationsverfahren genannt):

Wir schreiben rechts neben die zu invertierende Matrix die Einheitsmatrix, z.B.

Jetzt formen wir die Matrix so lange mit Elementaren Zeilenumformungen um, bis auf der linken Seite die Einheitsmatrix steht. Das ist nicht besonders kompliziert, im oben angegebenen Beispiel geht das z.B. folgendermaßen:

Im ersten Schritt ziehen wir dazu die erste Zeile 4 mal von der zweiten ab, und 7 mal von der dritten:

Jetzt ziehen wir die zweite Zeile 2 mal von der dritten ab, und erhalten so links eine obere Dreiecksmatrix:

Nun normieren wir die Zeilen um auf der Diagonalen 1er zu erhalten, indem wir die zweite mit -1/3 Multiplizieren, die dritte mit -1/2

Von der ersten Zeile ziehen wir 2 mal die zweite ab und addieren die dritte 1 mal, anschließend ziehen wir die dritte Zeile 2 mal von der zweiten ab:

Auf der rechten Seite steht jetzt die Inverse der ursprünglichen Matrix.

Welche elementaren Zeilenumformungen man verwendet ist hierbei egal, es empfielt sich jedoch ein zielgerichtetes Arbeiten, wie eben gezeigt (Spalte für Spalte auf obere Dreiecksmatrix bringen, anschließend die Diagonale auf 1en normieren. Anschließend ist es meistens am einfachsten, wenn man (anders als eben gezeigt) von unten anfangend die Einheitsmatrix herstellt. (Im eben gezeigten Beispiel hätte man dazu statt des letzten Schritts erst die letzte Zeile 2 mal von der vorletzten abgezogen, anschließend die letzte 3 mal und die mittlere Zeile 2 mal von der ersten)

Online-Tool zum Überprüfen von Ergebnissen: Berechnung der Inversen

Berechnung der Inversen mit Hilfe der Determinanten

Die Inverse lässt sich auch mit Hilfe der Determinanten der Matrix berechnen:

,

wobei die komplementäre Matrix ist.


Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)

Hat man zwei Spaltenvektoren und der Länge , dann ist das Matrixprodukt nicht definiert, aber die beiden Produkte und existieren.

Das erste Produkt ist eine -Matrix, die als Zahl interpretiert wird, sie wird das kanonische Skalarprodukt von und genannt und mit bezeichnet.

Das zweite Produkt ist eine -Matrix und heißt das dyadische Produkt oder Tensorprodukt von und .

Umformen von Matrizengleichungen

Speziell in den Multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.

Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt. Es wird von der Gleichung

ausgegangen mit , als -Matrix.

Addieren und Subtrahieren

Die Gleichung kann von links und rechts mit einer -Matrix additiv erweitert werden zu

bzw.

.

Multiplizieren mit einer Matrix

Die Gleichung kann multiplikativ von links durch die -Matrix oder von rechts durch die -Matrix erweitert werden:

bzw.


"Division" durch eine Matrix

Die Gleichung wird mit der Inversen der Matrix multipliziert, wobei invertierbar sein muss. Zu beachten ist hier wieder, dass zwischen der links- und rechtsseitigen Multiplikation zu unterscheiden ist.

Beispiele

Lineares Gleichungssystem als einfache Umformung

Gesucht ist der Lösungsvektor eines linearen Gleichungssystems

mit als -Koeffizientenmatrix. Man erweitert von links

und erhält die Lösung

.

Eine etwas aufwendigere Umformung erfordert ein

Orthogonalitätsbeweis im Multiplen Regressionsmodell

Im Multiplen Regressionsmodell geht man davon aus, dass eine abhängige Variable durch vorgegebene Variablen mit erklärt werden kann. Man schätzt mit Hilfe der Methode der kleinsten Quadrate die Regressionskoeffizienten als

und erhält mit der Schätzung das Gleichungssystem

mit als ()-Vektor der -Werte, als ()-Vektor der Residuen, als ()-Vektor der Regressionskoeffizienten und der ()-Datenmatrix .

Es soll gezeigt werden, dass ist: Es ist zunächst

Wegen

mit

als idempotenter Matrix, d.h.

.

erhält man

was wegen das Skalar 0 ergibt.

Die Regressionshyperebene steht auf senkrecht, was man so interpretieren kann, dass in den Residuen keine verwertbare Information von bzw. mehr enthalten ist.

Spezielle Formen von Matrizen

Die transponierte Matrix

"Kippt" man die Matrix an der Hauptdiagonalen, vorausgesetzt sie ist quadratisch, dann erhält man die zu transponierte Matrix . Die Transponierte der Matrix vom Format ist die Matrix vom Format .
Allgemein:

Beispiel:

Die Matrix heißt symmetrisch, wenn gilt:

Beispiel:

Die schiefsymmetrische Matrix

Eine Matrix heißt schiefsymmetrisch, wenn gilt:

Jede Matrix der Form

ist also eine schiefsymmetrische Matrix.

Beispiel:

ist schiefsymmetrisch, da

Jede quadratische Matrix kann als Summe einer symmetrischen Matrix S und einer schiefsymmetrischen Matrix geschrieben werden:




Eine reelle Matrix ist orthogonal, wenn gilt

bzw.

Der Winkel zwischen zwei Vektoren, die mit dieser Matrix multipliziert werden, bleibt erhalten.

Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix wird mit bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. Manchmal wird auch die komplementäre Matrix als Adjunkte bezeichnet.

Die hermitesche Matrix

Eine Matrix ist hermitesch oder selbstadjungiert, wenn gilt:

Eine komplexe Matrix heißt unitär, wenn gilt:

Dies ist die komplexe Entsprechung einer orthogonalen Matrix.

Die komplementäre Matrix

Die komplementäre Matrix einer quadratischen Matrix setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten werden die -te Zeile und -te Spalte von gestrichen. Aus der resultierenden ()-Matrix wird dann die Determinante berechnet. Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.

Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix .

Hesse-Matrix

Die Hesse-Matrix (nach Otto Hesse) fasst die partiellen zweiten Ableitungen einer Funktion zusammen.

Verallgemeinerungen

Man kann auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen unendliche Reihen sind und nicht konvergieren müssten).

Werden analog zu den Matrizen mathematische Strukturen mit mehr als zwei Indizes definiert, so nennt man diese Tensoren.