Matrix (Mathematik)

Anordnung von Zahlen oder anderen mathematischen Objekten in Tabellenform
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 19. Februar 2008 um 18:48 Uhr durch Dschanz (Diskussion | Beiträge) (Revert auf Version von Benutzer:HeikoTheissen (8. Feb. 2008, 08:19). Grund: Unfug). Sie kann sich erheblich von der aktuellen Version unterscheiden.

In der Mathematik ist eine Matrix (Plural: Matrizen) eine Tabelle von Zahlen oder anderen Größen, die addiert und multipliziert werden können. Matrizen unterscheiden sich von einfachen Tabellen dadurch, dass mit ihnen gerechnet werden kann. Wenn Matrizen von der Größe her zusammenpassen, ist es möglich, sie zu addieren oder sie miteinander zu multiplizieren.

Matrizen sind ein Schlüsselkonzept der linearen Algebra. Sie werden unter anderem dazu benutzt, lineare Gleichungssysteme zu beschreiben und lineare Abbildungen darzustellen.

Man spricht von den Zeilen und Spalten einer Matrix; diese bilden Zeilenvektoren und Spaltenvektoren. Die Elemente, die in einer Matrix angeordnet sind, nennt man Einträge oder Komponenten der Matrix.

Die Bezeichnung „Matrix“ wurde 1850 von James Joseph Sylvester eingeführt. Matrizen stellen Zusammenhänge, in denen insbesondere Linearkombinationen eine Rolle spielen, übersichtlich dar und erleichtern damit Rechen- und Gedankenvorgänge.

Notation und erste Eigenschaften

Als Notation hat sich die Aneinanderreihung der Elemente in Zeilen und Spalten mit einer großen öffnenden und schließenden Klammer durchgesetzt. Die Form der Klammern ist nicht festgelegt; es werden sowohl runde als auch eckige Klammern verwendet. Beispielhaft stehen die Notationen

  und  

für eine Matrix mit zwei Zeilen und drei Spalten. Allgemein spricht man von einer  -Matrix mit   Zeilen und   Spalten. Deshalb nennt man auch   die Zeilendimension und   die Spaltendimension der Matrix.

Die Einträge der Matrix entstammen einer Menge  . In der linearen Algebra ist diese in der Regel ein Körper; meistens verwendet man die reellen oder komplexen Zahlen. Man spricht in diesem Fall von einer reellen Matrix oder einer Matrix über   bzw. von einer komplexen Matrix oder einer Matrix über  . In der Algebra werden oft Matrizen mit Einträgen aus einem Ring betrachtet.

Formal kann eine Matrix als eine Funktion

 

aufgefasst werden, die jedem Indexpaar   einen Funktionswert   zuordnet. In den obigen Beispielmatrizen wird beispielsweise dem Indexpaar   der Funktionswert   zugeordnet. Allgemein ist der Funktionswert   der Eintrag in der  -ten Zeile und der  -ten Spalte. Die Indizes   und   entsprechen wieder der Anzahl der Zeilen bzw. Spalten. Nicht zu verwechseln mit dieser formalen Definition einer Matrix durch Funktionen ist, dass Matrizen selbst lineare Abbildungen beschreiben.

Die Menge   aller  -Matrizen über der Menge   wird in üblicher mathematischer Notation auch   geschrieben; hierfür hat sich die Kurznotation   eingebürgert (manchmal werden auch die Schreibweisen  ,  , oder seltener   benutzt).

Stimmen Zeilen- und Spaltenanzahl überein, so spricht man von einer quadratischen Matrix.

Hat eine Matrix nur eine Spalte, so nennt man sie einen Spaltenvektor; hat sie nur eine Zeile, so nennt man sie einen Zeilenvektor. Einen Vektor aus   kann man je nach Kontext als einzeilige oder einspaltige Matrix darstellen (also als Element aus   oder  ).

Addition und Multiplikation

Matrizenaddition

Die Summe zweier  -Matrizen berechnet sich, indem man jeweils die Einträge der beiden Matrizen addiert:

 

Rechenbeispiel:

 

Es können nur Matrizen mit der gleichen Anzahl an Zeilen und der gleichen Anzahl an Spalten addiert werden.

In der linearen Algebra sind die Einträge der Matrizen üblicherweise Elemente eines Körpers, wie z. B. der reellen oder komplexen Zahlen. In diesem Fall ist die Matrizenaddition assoziativ, kommutativ und besitzt mit der Nullmatrix ein neutrales Element. Im Allgemeinen besitzt die Matrizenaddition diese Eigenschaften jedoch nur, wenn die Einträge Elemente einer algebraischen Struktur sind, die diese Eigenschaften hat.

Skalarmultiplikation

Eine Matrix wird mit einem Skalar multipliziert, indem alle Einträge der Matrix mit dem Skalar multipliziert werden:

 

Rechenbeispiel:

 

Die Skalarmultiplikation darf nicht mit dem Skalarprodukt verwechselt werden. Um die Skalarmultiplikation durchführen zu dürfen, müssen der Skalar   und die Einträge der Matrix demselben Ring  entstammen. Die Menge der  -Matrizen ist in diesem Fall ein  -(Links-)Modul über  .

Matrizenmultiplikation

Zwei Matrizen   und   werden multipliziert, indem die Produktsummenformel, ähnlich dem Skalarprodukt, auf Paare aus einem Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird:

    und   

Rechenbeispiel:

 

Bei der Berechnung von Hand bietet das falksche Schema eine Hilfestellung. Bei der Berechnung mit dem Computer kann sich bei großen Matrizen der Einsatz des Strassen-Algorithmus lohnen.

Zu beachten ist, dass Matrizenmultiplikation im Allgemeinen nicht kommutativ ist, d. h. im Allgemeinen gilt  . Die Matrizenmultiplikation ist aber immer assoziativ:

 

Damit zwei Matrizen multipliziert werden können, müssen die Einträge einem Ring entstammen und die Spaltenanzahl der linken mit der Zeilenanzahl der rechten Matrix übereinstimmen. Ist nun   eine  -Matrix und   eine  -Matrix dann ist   eine  -Matrix.

Die Matrixaddition und Matrixmultiplikation genügen zudem den beiden Distributivgesetzen:

 

für alle  -Matrizen   und  -Matrizen   sowie

 

für alle  -Matrizen   und  -Matrizen  .

Eine besondere Rolle bezüglich der Matrizenmultiplikation spielen die quadratischen Matrizen über einem Ring  , also  . Diese bilden selbst mit der Matrizenaddition und -multiplikation wiederum einen Ring. Ist der Ring   unitär mit dem Einselement 1, dann ist die Einheitsmatrix

 

das Einselement des Matrizenrings, d. h. dieser ist auch unitär. Allerdings ist der Matrizenring   für   niemals kommutativ.

Zerlegt man Matrizen in Blockmatrizen, so können diese komponentenweise ausmultipliziert werden:

 

Hierbei ist   die  -Einheitsmatrix. Mit 0 ist die jeweils passende Matrix gemeint, deren Komponenten alle 0 sind.

Potenzieren von Matrizen

Quadratische Matrizen   können mit sich selbst multipliziert werden; analog zum Fall der reellen Zahlen führt man die abkürzende Potenzschreibweise   oder   etc. ein. Damit ist es auch sinnvoll, quadratische Matrizen als Elemente in Polynomen einzusetzen. Zu weitergehenden Ausführungen hierzu siehe unter charakteristisches Polynom. Zur einfacheren Berechnung kann hier die jordansche Normalform verwendet werden.

Quadratische Matrizen über   oder   kann man darüberhinaus sogar in Potenzreihen einsetzen, vgl. Matrixexponential.

Vektorräume von Matrizen

Die  -Matrizen über einem kommutativen Ring   mit 1 bilden mit der Matrizenaddition und der Skalarmultiplikation jeweils einen  -Modul. Die Spur des Matrizenprodukts  

 

ist dann ein Skalarprodukt auf dem Matrizenraum.

Im Spezialfall   handelt es sich bei diesem Matrizenraum um einen euklidischen Vektorraum. In diesem Raum stehen die symmetrischen Matrizen und die schiefsymmetrischen Matrizen senkrecht aufeinander. Ist   eine symmetrische und   eine schiefsymmetrische Matrix, so gilt  .

Im Spezialfall   ist die Spur des Matrizenproduktes  

 

ein Skalarprodukt, das Hilbert-Schmidt-Skalarprodukt, und der Matrizenraum wird zu einem unitären Vektorraum.

Weitere Rechenoperationen

Inverse Matrix

Hauptartikel: Inverse Matrix

Für manche quadratische Matrizen   gibt es eine Matrix  , für die

 

gilt, wobei   die Einheitsmatrix ist.   heißt inverse Matrix von  . Matrizen, die eine inverse Matrix besitzen, bezeichnet man als invertierbare oder reguläre Matrizen. Umgekehrt werden nicht-invertierbare Matrizen als singuläre Matrizen bezeichnet.

Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)

Hat man zwei Spaltenvektoren   und   der Länge  , dann ist das Matrixprodukt   nicht definiert, aber die beiden Produkte   und   existieren.

Das erste Produkt ist eine  -Matrix, die als Zahl interpretiert wird, sie wird das kanonische Skalarprodukt von   und   genannt und mit   bezeichnet.

 

Das zweite Produkt ist eine  -Matrix (vom Rang 1) und heißt das dyadische Produkt oder Tensorprodukt von   und  .

 

Die transponierte Matrix

Die Transponierte der Matrix   vom Format   ist die Matrix   vom Format  , d.h., zu

 

ist die Transponierte

 

Man schreibt also die erste Zeile als erste Spalte und die zweite Zeile als zweite Spalte usw. Die Matrix wird sozusagen an ihrer Hauptdiagonale ( ) gespiegelt.

Beispiel:

 

Es gelten die folgenden Rechenregeln:

 

Die transponierte Matrix wird gelegentlich auch gestürzte Matrix genannt.

Bei Matrizen über   ist die adjungierte Matrix genau die transponierte Matrix.

Anwendungen

Zusammenhang mit linearen Abbildungen

Das Besondere an Matrizen über einem Ring   ist der Zusammenhang zu linearen Abbildungen. Zu jeder Matrix   lässt sich eine lineare Abbildung mit Definitionsbereich   (Menge der Spaltenvektoren) und Wertebereich   definieren, indem man jeden Spaltenvektor   auf   abbildet; und jede lineare Abbildung mit diesem Definitions- und Wertebereich entspricht auf diese Weise genau einer  -Matrix. Diesen Zusammenhang bezeichnet man auch als (kanonischen) Isomorphismus

 

Er stellt bei vorgegebenem  ,  ,   eine Bijektion zwischen der Menge der Matrizen und der Menge der linearen Abbildungen dar. Das Matrizenprodukt geht hierbei über in die Komposition (Hintereinanderausführung) linearer Abbildungen. Weil die Klammerung bei der Hintereinanderausführung dreier linearer Abbildungen keine Rolle spielt, gilt dies dann auch für die Matrixmultiplikation, sie ist also assoziativ.

Ist   sogar ein Körper, kann man statt der Spaltenvektorräume beliebige endlichdimensionale  -Vektorräume   und   (der Dimension   bzw.  ) betrachten. (Falls   ein kommtutativer Ring mit 1 ist, dann kann man analog freie K-Moduln betrachten.) Diese sind nach Wahl von Basen   von   und  von   zu   bzw.   isomorph, weil zu einem beliebigen Vektor   eine eindeutige Zerlegung in Basisvektoren

 

existiert und die darin vorkommenden Körperelemente   den Koordinatenvektor

 

bilden. Jedoch hängt der Koordinatenvektor von der verwendeten Basis   ab, die daher auch in der Bezeichnung   vorkommt.

Analog verhält es sich im Vektorraum  . Ist eine lineare Abbildung   gegeben, so lassen sich die Bilder der Basisvektoren von   eindeutig in die Basisvektoren von   zerlegen in der Form

 

mit Koordinatenvektor

 

Die Abbildung ist dann vollständig festgelegt durch die sog. Abbildungsmatrix

 

denn für das Bild des o.g. Vektors   gilt

 

also   („Koordinatenvektor = Matrix mal Koordinatenvektor“). (Die Matrix   hängt von den verwendeten Basen   und   ab; bei der Multiplikation wird die Basis  , die links und rechts vom Malpunkt steht, „weggekürzt“, und die „außen“ stehende Basis   bleibt übrig.)

Die Hintereinanderausführung zweier linearer Abbildungen   und   (mit Basen  ,   bzw.  ) entspricht dabei der Matrixmultiplikation, also

 

(auch hier wird die Basis   „weggekürzt“).

Somit ist die Menge der linearen Abbildungen von   nach   wieder isomorph zu  . Der Isomorphismus   hängt aber von den gewählten Basen   und   ab und ist daher nicht kanonisch: Bei Wahl einer anderen Basis   für   bzw.   für   wird derselben linearen Abbildung nämlich eine andere Matrix zugeordnet, die aus der alten durch Multiplikation von rechts bzw. links mit einer nur von den beteiligten Basen abhängigen invertierbaren  - bzw.  -Matrix (sog. Basiswechselmatrix) entsteht. Das folgt durch zweimalige Anwendung der Multiplikationsregel aus dem vorigen Absatz, nämlich

 

(„Matrix = Basiswechselmatrix mal Matrix mal Basiswechselmatrix“). Dabei bilden die Identitätsabbildungen   und   jeden Vektor aus   bzw.   auf sich selbst ab.

Bleibt eine Eigenschaft von Matrizen unberührt von solchen Basiswechseln, so ist es sinnvoll, diese Eigenschaft auch basisunabhängig der entsprechenden linearen Abbildung zuzusprechen.

Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang und die Determinante einer Matrix. Der Rang ist (falls   ein Körper ist) im angeführten Sinne basisunabhängig, und man kann somit vom Rang auch bei linearen Abbildungen sprechen. Die Determinante ist nur für quadratische Matrizen definiert, die dem Fall   entsprechen; sie bleibt unverändert, wenn derselbe Basiswechsel im Definitions- und Wertebereich durchgeführt wird, wobei beide Basiswechselmatrizen zueinander invers sind:

 

In diesem Sinne ist also auch die Determinante basisunabhängig.

Umformen von Matrizengleichungen

Speziell in den multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.

Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt, wobei jedoch die Nichtkommutativität der Matrixmultiplikation sowie die Existenz von Nullteilern beachtet werden muss.

Beispiel: Lineares Gleichungssystem als einfache Umformung

Gesucht ist der Lösungsvektor   eines linearen Gleichungssystems

 

mit   als  -Koeffizientenmatrix. Wenn die inverse Matrix   existiert, kann man mit ihr von links erweitern:

 

und erhält die Lösung

 .

Siehe auch weitere Anwendungen.

Spezielle Matrizen

Eigenschaften von Endomorphismen

Die folgenden Eigenschaften quadratischer Matrizen entsprechen Eigenschaften von Endomorphismen, die durch sie dargestellt werden.

Orthogonale Matrizen
Eine reelle Matrix   ist orthogonal, wenn die zugehörige lineare Abbildung das Standard-Skalarprodukt erhält, d.h. wenn
 
gilt. Diese Bedingung ist äquivalent dazu, dass   die Gleichung
 
bzw.
 
erfüllt.
Diese Matrizen stellen Spiegelungen, Drehungen und Drehspiegelungen dar.
Unitäre Matrizen
Sie sind das komplexe Gegenstück zu den orthogonalen Matrizen. Eine komplexe Matrix   ist unitär, wenn die zugehörige Transformation die Normierung erhält, d.h. wenn
 
gilt. Diese Bedingung ist äquivalent dazu, dass   die Gleichung
 
erfüllt; dabei bezeichnet   die konjugiert-transponierte Matrix zu  .
Fasst man den  -dimensionalen komplexen Vektorraum als  -dimensionalen reellen Vektorraum auf, so entsprechen die unitären Matrizen genau denjenigen orthogonalen Matrizen, die mit der Multiplikation mit   vertauschen.
Projektionsmatrizen
Eine Matrix ist eine Projektionsmatrix, falls
 
gilt, sie also idempotent ist, d.h., die mehrfache Anwendung einer Projektionsmatrix auf einen Vektor lässt das Resultat unverändert. Eine idempotente Matrix hat keinen vollen Rang, es sei denn, sie ist die Einheitsmatrix.
Beispiel: Es sei   eine  -Matrix, und damit selbst nicht invertierbar. Dann ist die  -Matrix
 
idempotent. Diese Matrix wird beispielsweise in der Methode der kleinsten Quadrate verwendet.
Geometrisch entsprechen Projektionsmatrizen der Parallelprojektion entlang des Nullraumes der Matrix.
Nilpotente Matrizen
Eine Matrix   heißt nilpotent, falls eine Potenz   (und damit auch alle höheren Potenzen) die Nullmatrix ergibt.

Eigenschaften von Bilinearformen

Im folgenden sind Eigenschaften von Matrizen aufgelistet, die Eigenschaften der zugehörigen Bilinearform

 

entsprechen. Trotzdem können diese Eigenschaften auch für die dargestellten Endomorphismen eine eigenständige Bedeutung besitzen.

Symmetrische Matrizen
Eine Matrix   heißt symmetrisch, wenn sie gleich ihrer transponierten Matrix ist:
 
Anschaulich gesprochen sind die Einträge symmetrischer Matrizen symmetrisch zur Hauptdiagonalen.
Beispiel:
 
Symmetrische Matrizen entsprechen einerseits symmetrischen Bilinearformen:
 
andererseits den selbstadjungierten linearen Abbildungen:
 
Hermitesche Matrizen
Hermitesche Matrizen sind das komplexe Analogon der symmetrischen Matrizen. Sie entsprechen den hermiteschen Sesquilinearformen und den selbstadjungierten Endomorphismen.
Eine Matrix   ist hermitesch oder selbstadjungiert, wenn gilt:
 
Schiefsymmetrische Matrizen
Eine Matrix   heißt schiefsymmetrisch oder auch antisymmetrisch, wenn gilt:
 
Um diese Bedingung zu erfüllen muss die Hauptdiagonale in allen Stellen null sein; die restlichen Werte werden über die Hauptdiagonale gespiegelt und negiert.
Beispiel:
 
Schiefsymmetrische Matrizen entsprechen antisymmetrischen Bilinearformen:
 
und antiselbstadjungierten Endomorphismen:
 
Positiv definite Matrizen
Eine reelle Matrix ist positiv definit, wenn die zugehörige Bilinearform positiv definit ist, d.h. wenn für alle Vektoren   gilt:
 .
Positiv definite Matrizen definieren verallgemeinerte Skalarprodukte. Ist die Bilinearform größer gleich Null, heißt die Matrix positiv semidefinit, analog kann eine Matrix negativ definit beziehungsweise semidefinit heißen, wenn die obige Bilinearform immer kleiner beziehungsweise kleiner gleich Null ist. Matrizen, die keine dieser Eigenschaften erfüllen, heißen indefinit.

Weitere Konstruktionen

Konjugierte und Adjungierte Matrix
Enthält eine Matrix komplexe Zahlen, erhält man die konjugierte Matrix, indem man ihre Komponenten durch die konjugiert komplexen Elemente ersetzt. Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix   wird mit   bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. Manchmal wird auch die komplementäre Matrix   als adjungierte bezeichnet.
Adjunkte oder Komplementäre Matrix
Die komplementäre Matrix   einer quadratischen Matrix   setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten   werden die  -te Zeile und  -te Spalte von   gestrichen. Aus der resultierenden  -Matrix wird dann die Determinante   berechnet. Die komplementäre Matrix hat dann die Einträge  . Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.
Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix  , denn nach dem laplaceschen Entwicklungssatz gilt
 .
Damit ist die Inverse  , wenn  .

Verallgemeinerungen

Man könnte auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen unendliche Reihen sind und nicht konvergieren müssen). Die genaueren Betrachtungen solcher Fragestellungen führten zur Entstehung der Funktionalanalysis, die diese Begriffe behandelt.

Werden analog zu den Matrizen mathematische Strukturen mit mehr als zwei Indizes definiert, so nennt man diese Tensoren.

Vorlage:Link FA