In der linearen Algebra ist eine Matrix (Plural: Matrizen) eine Anordnung von Zahlenwerten (aber auch anderen Objekten wie Operatoren) in Tabellenform. Man spricht von den Spalten und Zeilen der Matrix, und bezeichnet selbige auch als Vektoren (d.h. Zeilenvektoren und Spaltenvektoren). Die Objekte, die in der Matrix angeordnet sind, nennt man Komponenten oder Elemente der Matrix.
Die Bezeichnung "Matrix" wurde 1850 von James Joseph Sylvester eingeführt.
Eine streng formale Definition der Matrix ist wie folgt geben:
- Unter einer Matrix
mit Werten in einer Menge
versteht man eine Abbildung

Wenn die Matrix
Zeilen und
Spalten besitzt, spricht man von einer
-Matrix, und nennt
und
die Dimensionen der Matrix. Ist
spricht man von einer
oder quadratischen Matrix. Die Komponente, die in der
-ten Zeile an
-ter Stelle steht, hat die Indizes
. Eine allgemeine
Matrix
sieht zum Beispiel so aus:

- Die Menge aller
-Matrizen über einer Menge
bezeichnet man mit
oder
, selten auch mit
.
- Hat eine Matrix nur eine einzige Spalte oder Zeile, dann nennt man sie Vektor. Man unterscheidet dabei zwischen einem Zeilenvektor (mit nur einer Zeile) oder einem Spaltenvektor (mit nur einer Spalte). Oft benötigt man diese Unterscheidung nicht (wenn man sie nicht mit Matrizen multiplizieren muss) und bezeichnet die Menge aller
-stelligen Vektoren über einer Menge
mit
statt
oder
.
- Das besondere an Matrizen ist der Zusammenhang zu linearen Abbildungen. Jeder linearen Abbildung läßt sich eine Matrix zuordnen und jede Matrix entspricht einer linearen Abbildung. Diesen Zusammenhang bezeichnet man auch als Isomorphismus. Zwischen der Menge der linearen Matrizen und der Menge der linearen Abbildungen besteht eine Bijektion.
- Zwei Matrizen
und
gleicher Dimension mit Komponenten in einer Zahlenmenge (z.B. den reellen Zahlen) kann man komponentenweise addieren.
- Stimmt dagegen die Spaltenanzahl von
mit der Zeilenanzahl von
überein, dann kann man das Matrixprodukt
berechnen. Siehe dazu die folgenden Beispiele.
Rechnen mit Matrizen
Addieren von Matrizen
Zwei Matrizen
und
werden addiert, indem man die in den Matrizen an entsprechender Stelle stehenden Komponenten addiert:

Genauso werden auch Vektoren addiert.


Die Matrizen müssen die gleichen Dimensionen aufweisen.
Vervielfachen von Matrizen (Skalarmultiplikation)
Eine Matrix oder ein Vektor
wird mit einer Zahl
vervielfacht (multipliziert), indem man jede Komponente von
mit
multipliziert:

Diese Rechenoperation nennt man Skalarmultiplikation, das Ergebnis ist ein skalares Produkt, es ist zu unterscheiden vom Skalarprodukt zweier Vektoren.
Multiplizieren von Matrizen
Zwei Matrizen
und
werden miteinander multipliziert, indem jeweils die Zeilenelemente der ersten Matrix mit den entsprechenden Spaltenelementen der zweiten Matrix multipliziert werden. Die Multiplikation von Matrizen ist nur dann möglich, wenn die Länge der Zeilen (= die Anzahl der Spalten) der ersten Matrix mit der Länge der Spalten (= Anzahl der Zeilen) der zweiten Matrix übereinstimmt. Ist
eine
-Matrix und
eine
-Matrix, so ist das Produkt eine
-Matrix.
Aber Achtung: Bei der Multiplikation von Matrizen gilt das Kommutativgesetz NICHT!

Dabei können
und
auch Vektoren sein, solange die Formate passen (siehe dazu auch den Abschnitt Vektor-Vektor-Produkte).
Formal definiert ist die Matrixmultiplikation für Matrizen
und
der Formate
und
als die Matrix
mit den Komponenten

Bei der Berechnung des Produktes von Hand wird häufig auf das Falksche Schema zurückgegriffen.
Die inverse Matrix
Ist
ein Ring, dann bildet die Menge
der quadratischen Matrizen vom Format
ebenfalls einen Ring mit der oben definierten Matrixaddition und -multiplikation. Das Nullelement ist die Nullmatrix 0, deren Komponenten alle 0 sind. Hat
ein Einselement 1, dann ist die Einheitsmatrix
das Einselement des Matrixrings. Die Einheitsmatrix ist eine quadratische Matrix auf deren Hauptdiagonale nur 1 vorkommt und deren sonstige Elemente 0 sind.
Ist
ein Körper (wie beispielsweise die reellen oder komplexen Zahlen), dann sind im Ring
genau diejenigen Matrizen invertierbar (regulär), deren Determinante ungleich 0 ist. Nicht invertierbare Matrizen nennt man singulär. Man kann die zur Matrix
inverse Matrix
zum Beispiel mit dem Gauß-Algorithmus bestimmen. Dazu löst man das lineare Gleichungssystem
. Die Matrix
ist die Einheitsmatrix, die Matrix
ist dann das Inverse von
.

Es entsteht ein Lineares Gleichungssystem mit 9 Unbekannten und 9 Gleichungen:

Bei näherer Betrachtung stellt man aber sehr schnell fest, dass man dieses
Gleichungssystem immer auch als drei getrennte Gleichungssysteme mit je drei Gleichungen und Unbekannte zerlegen kann:



Es muss also dreimal dasselbe Gleichungssystem mit unterschiedlichen rechten Seiten (nämlich den drei Einheitsvektoren) gelöst werden. Dies gilt analog bei Matrizen höherer Dimension. Effizient geht dies über elementare Zeilenumformungen, also über das Gaußsche Eliminationsverfahren. Das Ergebnis sollte lauten:

Wir schreiben rechts neben die zu invertierende Matrix die Einheitsmatrix, z.B.

Jetzt formen wir die Matrix so lange mit Elementaren Zeilenumformungen um, bis auf der linken Seite die Einheitsmatrix steht. Das ist nicht besonders kompliziert, im oben angegebenen Beispiel geht das z.B. folgendermaßen:
Im ersten Schritt ziehen wir dazu die erste Zeile 4 mal von der zweiten ab, und 7 mal von der dritten:

Jetzt ziehen wir die zweite Zeile 2 mal von der dritten ab, und erhalten so links eine obere Dreiecksmatrix:

Nun normieren wir die Zeilen um auf der Diagonalen 1er zu erhalten, indem wir die zweite mit -1/3 Multiplizieren, die dritte mit -1/2

Von der ersten Zeile ziehen wir 2 mal die zweite ab und addieren die dritte 1 mal, anschließend ziehen wir die dritte Zeile 2 mal von der zweiten ab:

Auf der rechten Seite steht jetzt die Inverse der ursprünglichen Matrix.
Welche elementaren Zeilenumformungen man verwendet ist hierbei egal, es empfielt sich jedoch ein zielgerichtetes Arbeiten, wie eben gezeigt (Spalte für Spalte auf obere Dreiecksmatrix bringen, anschließend die Diagonale auf 1en normieren. Anschließend ist es meistens am einfachsten, wenn man (anders als eben gezeigt) von unten anfangend die Einheitsmatrix herstellt. (Im eben gezeigten Beispiel hätte man dazu statt des letzten Schritts erst die letzte Zeile 2 mal von der vorletzten abgezogen, anschließend die letzte 3 mal und die mittlere Zeile 2 mal von der ersten)
Online-Tool zum Überprüfen von Ergebnissen: Berechnung der Inversen
Die Inverse lässt sich auch mit Hilfe der Determinanten der Matrix berechnen:
,
wobei
die komplementäre Matrix ist.
Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)
Hat man zwei Spaltenvektoren
und
der Länge
, dann ist das Matrixprodukt
nicht definiert, aber die beiden Produkte
und
existieren.
Das erste Produkt ist eine
-Matrix, die als Zahl interpretiert wird, sie wird das kanonische Skalarprodukt von
und
genannt und mit
bezeichnet.

Das zweite Produkt ist eine
-Matrix und heißt das dyadische Produkt oder Tensorprodukt von
und
.

Speziell in den Multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.
Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt. Es wird von der Gleichung

ausgegangen mit
,
als
-Matrix.
Addieren und Subtrahieren
Die Gleichung kann von links und rechts mit einer
-Matrix
additiv erweitert werden zu

bzw.
.
Multiplizieren mit einer Matrix
Die Gleichung kann multiplikativ von links durch die
-Matrix
oder von rechts durch die
-Matrix
erweitert werden:

bzw.

"Division" durch eine Matrix 
Die Gleichung wird mit der Inversen der Matrix
multipliziert, wobei
invertierbar sein muss. Zu beachten ist hier wieder, dass zwischen der links- und rechtsseitigen Multiplikation zu unterscheiden ist.
Beispiele
Lineares Gleichungssystem als einfache Umformung
Gesucht ist der Lösungsvektor
eines linearen Gleichungssystems

mit
als
-Koeffizientenmatrix. Man erweitert von links

und erhält die Lösung
.
Eine etwas aufwendigere Umformung erfordert ein
Orthogonalitätsbeweis im Multiplen Regressionsmodell
Im Multiplen Regressionsmodell geht man davon aus, dass eine abhängige Variable
durch
vorgegebene Variablen
mit
erklärt werden kann. Man schätzt mit Hilfe der Methode der kleinsten Quadrate die Regressionskoeffizienten als

und erhält mit der Schätzung das Gleichungssystem

mit
als (
)-Vektor der
-Werte,
als (
)-Vektor der Residuen,
als (
)-Vektor der Regressionskoeffizienten und der (
)-Datenmatrix
.
Es soll gezeigt werden, dass
ist: Es ist zunächst

Wegen

mit

als idempotenter Matrix, d.h.
.
erhält man

was wegen
das Skalar 0 ergibt.
Die Regressionshyperebene
steht auf
senkrecht, was man so interpretieren kann, dass in den Residuen keine verwertbare Information von
bzw.
mehr enthalten ist.
Die transponierte Matrix
"Kippt" man die Matrix
an der Hauptdiagonalen, vorausgesetzt sie ist quadratisch, dann erhält man die zu
transponierte Matrix
.
Die Transponierte der Matrix
vom Format
ist die Matrix
vom Format
.
Allgemein:


Beispiel:

Die Matrix
heißt symmetrisch, wenn gilt:

Beispiel:

Die schiefsymmetrische Matrix
Eine Matrix
heißt schiefsymmetrisch, wenn gilt:

Jede
Matrix der Form

ist also eine schiefsymmetrische Matrix.
Beispiel:
ist schiefsymmetrisch, da

Jede quadratische Matrix kann als Summe einer symmetrischen Matrix S und einer schiefsymmetrischen Matrix
geschrieben werden:



Eine reelle Matrix ist orthogonal, wenn gilt

bzw.

Der Winkel zwischen zwei Vektoren, die mit dieser Matrix multipliziert werden, bleibt erhalten.
Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix
wird mit
bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. Manchmal wird auch die komplementäre Matrix
als Adjunkte bezeichnet.
Die hermitesche Matrix
Eine Matrix
ist hermitesch oder selbstadjungiert, wenn gilt:

Eine komplexe Matrix
heißt unitär, wenn gilt:

Dies ist die komplexe Entsprechung einer orthogonalen Matrix.
Die komplementäre Matrix
einer quadratischen Matrix
setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten
werden die
-te Zeile und
-te Spalte von
gestrichen. Aus der resultierenden (
)-Matrix wird dann die Determinante
berechnet. Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.
Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix
.
Hesse-Matrix
Die Hesse-Matrix (nach Otto Hesse) fasst die partiellen zweiten Ableitungen einer Funktion
zusammen.
Verallgemeinerungen
Man kann auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen unendliche Reihen sind und nicht konvergieren müssten).
Werden analog zu den Matrizen mathematische Strukturen mit mehr als zwei Indizes definiert, so nennt man diese Tensoren.