„Matrix (Mathematik)“ – Versionsunterschied
[ungesichtete Version] | [gesichtete Version] |
K →Matrizenmultiplikation: Formulierung ein bisschen verständlicher gemacht. |
|||
(844 dazwischenliegende Versionen von mehr als 100 Benutzern, die nicht angezeigt werden) | |||
Zeile 1: | Zeile 1: | ||
[[Datei:Matrix german.svg|mini|Schema für eine allgemeine <math>m\times n</math>-Matrix]] |
|||
In der [[lineare Algebra|linearen Algebra]] ist eine '''Matrix''' (Plural: ''Matrizen'') eine Anordnung von Zahlen (oder anderen Objekten) in Tabellenform. Man spricht von den ''Spalten'' und ''Zeilen'' der Matrix; sie bilden ''Zeilen-'' bzw. ''Spalten[[Vektor (Mathematik)|vektoren]]''. Die Elemente, die in der Matrix angeordnet sind, nennt man ''Einträge'' oder ''[[Komponente]]n'' der Matrix. |
|||
[[Datei:MatrixBezeichnungen.svg|mini|Bezeichnungen]] |
|||
In der [[Mathematik]] versteht man unter einer '''Matrix''' (Plural ''Matrizen'') eine rechteckige Anordnung (Tabelle) von Elementen (meist [[Mathematisches Objekt|mathematischer Objekte]], etwa Zahlen). Rechteckig bedeutet, dass die Anordnung der Elemente in Zeilen und Spalten stattfindet. Die Zeilen und Spalten einer Matrix nennt man zusammengefasst auch Reihen. |
|||
Die Bezeichnung „Matrix“ wurde [[1850]] von [[James Joseph Sylvester]] eingeführt. |
|||
Matrizen stellen Zusammenhänge, in denen insbesondere [[Linearkombination]]en eine Rolle spielen, übersichtlich dar und erleichtern damit Rechen- und Gedankenvorgänge. |
|||
Das Element einer Matrix <math>A</math> in der <math>i</math>-ten Zeile und <math>j</math>-ten Spalte wird mit <math>a_{ij}</math> bezeichnet. Mit den Objekten einer Matrix lässt sich dann in bestimmter Weise rechnen, indem man Matrizen zum Beispiel addiert oder miteinander multipliziert. |
|||
==Notation und erste Eigenschaften== |
|||
Als Notation hat sich die Aneinanderreihung der Elemente in Zeilen und Spalten mit einer großen öffnenden und schließenden Klammer durchgesetzt. Die Form der Klammern ist nicht festgelegt; es werden sowohl runde als auch eckige Klammern verwendet. Beispielhaft steht die Notation |
|||
Matrizen sind ein Schlüsselkonzept der [[Lineare Algebra|linearen Algebra]] und tauchen in fast allen Gebieten der Mathematik auf. Sie stellen Zusammenhänge, in denen [[Linearkombination]]en eine Rolle spielen, übersichtlich dar und erleichtern damit Rechen- und Gedankenvorgänge. Sie werden insbesondere dazu benutzt, [[lineare Abbildung]]en darzustellen und [[Lineares Gleichungssystem|lineare Gleichungssysteme]] zu beschreiben und zu lösen. |
|||
Der Name „Matrix“ (lateinisch für „Muttertier“, „Gebärmutter“,<ref>[https://www.latein.me/mixed/matrix Latein.me]</ref> abgeleitet von mater – Mutter) wurde 1850 von [[James Joseph Sylvester]] geprägt.<ref>{{Literatur |Autor=James Joseph Sylvester |Titel=Additions to the articles in the September number of this journal, “On a new class of theorems,” and on Pascal’s theorem |Sammelwerk=The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science |Nummer=37 |Datum=1850 |Seiten=363–370 |Online=[https://books.google.de/books?id=CBhDAQAAIAAJ&pg=PA369&redir_esc=y#v=onepage&q=matrix&f=false Volltext]}}</ref> |
|||
Eine Anordnung, wie in nebenstehender Abbildung, von <math>m \cdot n</math> Elementen <math>a_{ij}</math> erfolgt in <math>m</math> Zeilen und <math>n</math> Spalten. |
|||
Die Verallgemeinerung auf mehr als zwei [[Indexmenge (Mathematik)|Indizes]] wird auch ''Hypermatrix'' genannt.<ref>{{MathWorld|id=Hypermatrix|title=Hypermatrix}}</ref> |
|||
== Begriffe und erste Eigenschaften == |
|||
=== Notation === |
|||
Als Notation hat sich die Anordnung der Elemente in Zeilen und Spalten zwischen zwei großen öffnenden und schließenden Klammern durchgesetzt. In der Regel verwendet man runde Klammern, es werden aber auch eckige verwendet. Zum Beispiel bezeichnen |
|||
:<math> |
:<math> |
||
\begin{pmatrix} |
\begin{pmatrix} |
||
a_{11} & a_{12} & a_{13} \\ |
a_{11} & a_{12} & a_{13} \\ |
||
a_{21} & a_{22} & a_{23} |
a_{21} & a_{22} & a_{23} |
||
\end{pmatrix} |
\end{pmatrix} |
||
</math> |
</math> und <math> |
||
\begin{bmatrix} |
\begin{bmatrix} |
||
a_{11} & a_{12} & a_{13} \\ |
a_{11} & a_{12} & a_{13} \\ |
||
a_{21} & a_{22} & a_{23} |
a_{21} & a_{22} & a_{23} |
||
\end{bmatrix} |
\end{bmatrix} |
||
</math> |
</math> |
||
für eine Matrix mit 2 Zeilen und 3 Spalten. Allgemein spricht man von einer <math> m \times n </math>-Matrix mit |
|||
<math> m </math> ''Zeilen'' und <math> n </math> ''Spalten''. Deshalb nennt man auch <math> m </math> die ''Zeilendimension'' und <math> n </math> die ''Spaltendimension'' der Matrix. |
|||
Matrizen mit zwei Zeilen und drei Spalten. Matrizen werden üblicherweise mit Großbuchstaben (manchmal fett gedruckt oder, handschriftlich, einfach oder doppelt unterstrichen), vorzugsweise <math>A</math>, bezeichnet. Eine Matrix mit <math>m</math> Zeilen und <math>n</math> Spalten nennt man eine Matrix vom Typ <math>(m,n)</math> oder kurz <math>(m,n)</math>-Matrix.<ref>{{Literatur |Hrsg=Walter Gellert, Herbert Kästner, Siegfried Neubert |Titel=Lexikon der Mathematik |Auflage=1 |Verlag=Bibliographisches Institut |Ort=Leipzig |Datum=1977 |Seiten=350 |Umfang=624}}</ref> Auch die Schreibweisen <math>m \times n</math>-Matrix und <math>(m \times n)</math>-Matrix sind verbreitet. Man schreibt sie |
|||
Die Einträge der Matrix entstammen einer Menge <math>\Bbb K</math>. In der linearen Algebra ist diese in der Regel ein [[Körper (Mathematik)|Körper]]; meistens verwendet man die reellen oder komplexen Zahlen. In der [[Algebra]] werden oft Matrizen mit Einträgen aus einem [[Ring (Mathematik)|Ring]] betrachtet. |
|||
:<math> |
|||
Formal ist eine Matrix eine [[Funktion (Mathematik)|Funktion]] |
|||
A=\boldsymbol A=\underline{A}=\begin{pmatrix} |
|||
:<math>A:\left\{\begin{matrix}\{1,\ldots,m\}\times\{1,\dots,n\}&\to&\Bbb K\\ |
|||
a_{11} & a_{12} & \cdots & a_{1n} \\ |
|||
(i,j)&\mapsto&A(i,j)\end{matrix}\right.</math> |
|||
a_{21} & a_{22} & \cdots & a_{2n} \\ |
|||
die jedem Indexpaar <math>(i,j)</math> einen Funktionswert <math>A(i,j)</math> zuordnet. In den obigen Beispielmatrizen wird beispielsweise dem Indexpaar <math>(1,2)</math> der Funktionswert <math>A(1,2) = a_{12}</math> zugeordnet. Allgemein ist der Funktionswert <math>A(i,j)</math> der Eintrag in der <math>i</math>-ten Zeile und der <math>j</math>-ten Spalte. Die Indizes <math>m</math> und <math>n</math> entsprechen wieder der Anzahl der Zeilen bzw. Spalten. Nicht zu verwechseln mit dieser formalen Definition einer Matrix durch Funktionen ist, dass einige Matrizen selbst [[lineare Abbildung]]en definieren. |
|||
\vdots & \vdots & & \vdots \\ |
|||
a_{m1} & a_{m2} & \cdots & a_{mn} \\ |
|||
\end{pmatrix} = (a_{ij})_{i=1, \dotsc, m; \ j=1, \dotsc, n} |
|||
</math>. |
|||
=== Elemente der Matrix === |
|||
Die Menge <math>\operatorname{Abb}(\{1,\ldots,m\}\times\{1,\ldots,n\},K)</math> aller <math> m \times n </math>-Matrizen über der Menge <math>K</math> wird in üblicher mathematischer Notation auch <math>K^{\{1,\ldots,m\}\times\{1,\ldots n\}}</math> geschrieben; hierfür hat sich die Kurznotation <math>K^{m\times n}</math> eingebürgert (manchmal wird auch die Schreibweise <math> K^{m,n} </math>, seltener <math> \,^m K^n </math> benutzt). |
|||
Ein <math>a_{ij}</math> nennt man ''Matrixelement'' oder kurz ''Element'',<ref name="Walz">Guido Walz (Hrsg.): ''Lexikon der Mathematik - Band 3''. Springer/Spektrum, 2-te Auflage 2017, S. 385.</ref><ref>Der Name ''Element'' ist der seit über hundert Jahren in der deutschen Fachliteratur etablierte Name. So ist im Gantmacher auf S. 19 zu lesen: „Die Zahlen, aus denen sich die Matrix zusammensetzt, werden ihre Elemente genannt.“</ref> neuerdings auch ''Matrixeintrag'' oder kurz ''Eintrag''.<ref>Den Namen ''Eintrag'' verwenden z. B. Schichl und Steinbauer auf S. 26. und Fischer auf S. 21. Bei Beutelspacher auf S. 63 findet sich die folgende Stelle, die illustriert, warum Autoren, vermutlich aus sprachlichen Gründen, inzwischen ''Eintrag'' bevorzugen: „Eine m × n-Matrix über dem Körper K ist ein rechteckiges Schema aus m Zeilen und n Spalten, deren ''Einträge Elemente aus K'' sind.“ Das Wort ''Eintrag'' ermöglicht hier, die sprachlich unschöne und konzeptionell verwirrende Doppelung des Wortes ''Element'' zu vermeiden, es sei denn, man benutzt das Wort ''Matrixelement'' anstelle von ''Eintrag''. Im Englischen wird das dem Wort ''Eintrag'' entsprechende ''Entry'' häufig verwendet. ''Eintrag'' hat sich insbesondere seit dem Erscheinen der Übersetzung des Lehrbuchs von Gilbert Strang im Jahr 2003 auch im Deutschen verbreitet.</ref> Auch die Begriffe ''Matrixkomponente'' oder kurz ''Komponente'' werden verwendet.<ref name="Walz" /> Insbesondere im Fall von <math>(m,1)</math>- oder <math>(1,n)</math>-Matrizen ist der Name ''Komponente'' verbreitet.<ref>Dmitrij K. Faddejew, Wera N. Faddejewa, 1978, S. 48.</ref> Bei [[Tensor]]en spricht man auch von ''Tensorkoordinate'' oder kurz ''Koordinate''.<ref>{{Literatur |Autor=Adalbert Duschek, August Hochrainer |Titel=Grundzüge der Tensorrechnung in analytischer Darstellung |Verlag=Springer |Ort=Wien |Datum=1955 |Umfang=VI, 250 |Seiten=48}}</ref> |
|||
Die Elemente können sowohl [[Reelle Zahlen|reelle]] als auch [[komplexe Zahlen]] sein, aber auch andere mathematische Objekte, z. B. [[Vektor]]en, [[Polynom]]e, [[Differential (Mathematik)|Differentiale]], andere [[Formel#Formeln in der Mathematik|Formeln]] oder selbst wieder Matrizen.<ref name="Gellert,_Kästner_1977">{{Literatur |Hrsg=Walter Gellert, Herbert Kästner, Siegfried Neubert |Titel=Lexikon der Mathematik |Auflage=1 |Verlag=Bibliographisches Institut |Ort=Leipzig |Datum=1977 |Seiten=350, 570 |Umfang=624}}</ref> |
|||
Stimmen Zeilen- und Spaltendimension überein, so spricht man von einer ''quadratischen Matrix''. |
|||
Ein bestimmtes Element beschreibt man durch zwei [[Index (Mathematik)|Indizes]], meist ist das Element in der ersten Zeile und der ersten Spalte durch <math>a_{11}</math> beschrieben. Allgemein bezeichnet <math>a_{ij}</math> das Element in der <math>i</math>-ten Zeile und der <math>j</math>-ten Spalte. Bei der Indizierung wird dabei stets als erstes der Zeilenindex und als zweites der Spaltenindex des Elements genannt. Merkregel: '''''Z'''eile '''z'''uerst, '''S'''palte '''s'''päter.'' |
|||
Hat eine Matrix nur eine Spalte, so nennt man sie einen ''Spaltenvektor''; hat sie nur eine Zeile, so nennt man sie einen ''Zeilenvektor''. (Das ist eine abgekürzte, ungenaue Sprechweise, denn eine einspaltige oder einzeilige Matrix kann nur eine ''Darstellung'' eines Vektors sein, abhängig vom [[Koordinatensystem]] – im Gegensatz zum Vektor selbst.) Einen [[Vektor (Mathematik)|Vektor]] aus <math> K^n </math> kann man je nach Kontext als einzeilige oder einspaltige Matrix darstellen (also als Element aus <math> K^{1 \times n } </math> oder <math> K^{n \times 1} </math>). Die Verwendung eines Spaltenvektors hat den Vorteil, dass man diesen direkt mit einer passenden Matrix multiplizieren kann. |
|||
Wenn Verwechslungsgefahr besteht, werden die beiden Indizes mit einem Komma abgetrennt. So wird zum Beispiel das Matrixelement in der ersten Zeile und der elften Spalte mit <math>a_{1,11}</math> bezeichnet. |
|||
Einzelne Zeilen und Spalten einer Matrix werden oft als ''Spalten-'' oder ''Zeilenvektoren'' bezeichnet. Ein Beispiel: |
|||
:<math>A = \begin{pmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{pmatrix},</math> hier sind <math>\begin{pmatrix} a_{11} \\ a_{21} \end{pmatrix}</math> und <math>\begin{pmatrix} a_{12} \\ a_{22} \end{pmatrix}</math> die Spalten oder Spaltenvektoren sowie <math>\begin{pmatrix} a_{11} & a_{12} \end{pmatrix}</math> und <math>\begin{pmatrix} a_{21} & a_{22} \end{pmatrix}</math> die Zeilen oder Zeilenvektoren. |
|||
Bei einzeln stehenden Zeilen- und Spaltenvektoren einer Matrix wird gelegentlich der unveränderliche Index weggelassen. Manchmal werden Spaltenvektoren zur kompakteren Darstellung als transponierte Zeilenvektoren geschrieben, also: |
|||
:<math>\begin{pmatrix} a_{11} \\ a_{21} \end{pmatrix}</math> oder <math>\begin{pmatrix} a_{1} \\ a_{2} \end{pmatrix}</math> als <math>\begin{pmatrix} a_{11} & a_{21} \end{pmatrix}^\mathsf{T}</math> oder <math>\begin{pmatrix} a_{1} & a_{2} \end{pmatrix}^\mathsf{T}</math> |
|||
=== Typ === |
|||
Der ''Typ'' einer Matrix ergibt sich aus der Anzahl ihrer Zeilen und Spalten. Eine Matrix mit <math>m</math> Zeilen und <math>n</math> Spalten nennt man eine <math>m \times n</math>-Matrix (sprich: ''m-mal-n-'' oder ''m-Kreuz-n-Matrix''). Stimmen Zeilen- und Spaltenanzahl überein, so spricht man von einer ''quadratischen Matrix.'' |
|||
Schreibweise für quadratische Matrix A: |
|||
<math>A\in M(n,R)</math> |
|||
Gesprochen: A ist eine Matrix der Menge (Matrizenring) der quadratischen Matrizen mit n Zeilen und Spalten über dem Ring R (in der Regel ist R ein Körper) |
|||
Eine Matrix, die aus nur einer Spalte oder nur einer Zeile besteht, wird üblicherweise als [[Vektor]] aufgefasst. Einen Vektor mit <math>n</math> Elementen kann man je nach Kontext als einspaltige <math>n \times 1</math>-Matrix oder einzeilige <math>1 \times n</math>-Matrix darstellen. Neben den Begriffen Spaltenvektor und Zeilenvektor sind hierfür die Begriffe ''Spaltenmatrix'' und ''Zeilenmatrix'' geläufig. Eine <math>1 \times 1</math>-Matrix ist sowohl Spalten- als auch Zeilenmatrix und wird als [[Skalar (Mathematik)|Skalar]] angesehen. |
|||
=== Formale Darstellung === |
|||
Eine Matrix ist eine doppelt indizierte [[Familie (Mathematik)|Familie]]. Formal ist dies eine [[Funktion (Mathematik)|Funktion]] |
|||
:<math>A\colon \{1, \dotsc, m\}\times\{1, \dotsc, n\} \to K,\quad (i,j) \mapsto a_{ij},</math> |
|||
die jedem Indexpaar <math>(i,j)</math> als Funktionswert das Element <math>a_{ij}</math> zuordnet. Beispielsweise wird dem Indexpaar <math>(1,2)</math> als Funktionswert das Element <math>a_{12}</math> zugeordnet. Der Funktionswert <math>a_{ij}</math> ist also das Element in der <math>i</math>-ten Zeile und der <math>j</math>-ten Spalte. Die Variablen <math>m</math> und <math>n</math> entsprechen der Anzahl der Zeilen bzw. Spalten. Nicht zu verwechseln mit dieser formalen Definition einer Matrix als Funktion ist, dass Matrizen selbst [[lineare Abbildung]]en beschreiben. |
|||
Die Menge <math>\operatorname{Abb}\left(\{1, \dotsc, m\}\times\{1, \dotsc, n\},K\right)</math> aller <math>m \times n</math>-Matrizen über der Menge <math>K</math> wird in üblicher mathematischer Notation auch <math>K^{\{1, \dotsc, m\}\times\{1, \dotsc, n\}}</math> geschrieben; hierfür hat sich die Kurznotation <math>K^{m\times n}</math> eingebürgert. Manchmal werden die Schreibweisen <math>K^{m,n},</math> <math>M(m \times n, K)</math> oder seltener <math>{}^m K^n</math> benutzt. |
|||
== Addition und Multiplikation == |
== Addition und Multiplikation == |
||
Auf dem Raum der Matrizen werden elementare Rechenoperationen definiert. |
|||
=== Matrizenaddition === |
=== Matrizenaddition === |
||
{{Hauptartikel|Matrizenaddition}} |
|||
Zwei Matrizen können addiert werden, wenn sie vom selben Typ sind, das heißt, wenn sie dieselbe Anzahl von Zeilen und dieselbe Anzahl von Spalten besitzen. |
|||
Die Summe zweier <math>m \times n</math>-Matrizen berechnet sich, indem man jeweils die Einträge der beiden Matrizen addiert: |
|||
Die Summe zweier <math>m \times n</math>-Matrizen ist komponentenweise definiert: |
|||
:<math>A+B = (a_{ij}+b_{ij})_{i=1 , \ldots , m; \ j=1 , \ldots , n}</math> |
|||
:<math>A+B := (a_{ij}+b_{ij})_{i=1, \dotsc, m; \ j=1, \dotsc, n}</math> |
|||
Rechenbeispiel: |
Rechenbeispiel: |
||
:<math> |
:<math> |
||
\begin{ |
\left( \begin{array}{r} |
||
1 & 3 & 2 \\ |
1 & -3 & 2 \\ |
||
1 & 2 & |
1 & 2 & 7 |
||
\end{ |
\end{array} \right) |
||
+ |
+ |
||
\begin{ |
\left( \begin{array}{r} |
||
0 & |
0 & 3 & 5 \\ |
||
2 & 1 & 1 |
2 & 1 & -1 |
||
\end{ |
\end{array} \right) |
||
= |
= |
||
\left( \begin{array}{r} |
|||
1+0 & 3+ |
1+0 & -3+3 & 2+5 \\ |
||
1+2 & 2+1 & |
1+2 & 2+1 & 7+(-1) |
||
\end{ |
\end{array} \right) |
||
= |
= |
||
\begin{pmatrix} |
\begin{pmatrix} |
||
1 & |
1 & 0 & 7 \\ |
||
3 & 3 & |
3 & 3 & 6 |
||
\end{pmatrix} |
\end{pmatrix} |
||
</math> |
</math> |
||
In der linearen Algebra sind die Matrixelemente üblicherweise Elemente eines [[Körper (Algebra)|Körpers]] ''(Körperelemente)'', wie der [[Reelle Zahl|reellen]] oder [[Komplexe Zahl|komplexen Zahlen]]. In diesem Fall ist die Matrizenaddition [[Assoziativgesetz|assoziativ]], [[Kommutativgesetz|kommutativ]] und besitzt mit der [[Nullmatrix]] ein neutrales Element. Im Allgemeinen besitzt die Matrizenaddition diese Eigenschaften jedoch nur, wenn die Matrixelemente Elemente einer [[Algebraische Struktur|algebraischen Struktur]] sind, die diese Eigenschaften hat. |
|||
Es können nur Matrizen mit der gleichen Anzahl an Zeilen und Spalten addiert werden. |
|||
In der linearen Algebra sind die Einträge der Matrizen üblicherweise Elemente eines [[Körper (Algebra)|Körpers]], wie z.B. der [[Reelle Zahl|reellen]] oder [[Komplexe Zahl|komplexen Zahlen]]. In diesem Fall ist die Matrizenaddition [[Assoziativgesetz|assoziativ]], [[Kommutativgesetz|kommutativ]] und besitzt mit der [[Nullmatrix]] ein neutrales Element. Im Allgemeinen besitzt die Matrizenaddition diese Eigenschaften jedoch nur, wenn die Einträge Elemente einer [[Algebraische Struktur|algebraischen Struktur]] sind, die diese Eigenschaften hat. |
|||
=== Skalarmultiplikation === |
=== Skalarmultiplikation === |
||
{{Hauptartikel|Skalarmultiplikation}} |
|||
Eine Matrix wird mit einem [[Skalar (Mathematik)|Skalar]] multipliziert, indem |
Eine Matrix wird mit einem [[Skalar (Mathematik)|Skalar]] multipliziert, indem jedes Element der Matrix mit dem Skalar multipliziert wird: |
||
:<math> |
:<math>c \cdot A := (c \cdot a_{ij})_{i=1, \dotsc, m; \ j=1, \dotsc, n}</math> |
||
Rechenbeispiel: |
Rechenbeispiel: |
||
:<math> |
:<math>5 \cdot |
||
\begin{ |
\left( \begin{array}{r} |
||
1 & 3 & 2 \\ |
1 & -3 & 2 \\ |
||
1 & 2 & |
1 & 2 & 7 |
||
\end{ |
\end{array} \right) |
||
= |
= |
||
\begin{pmatrix} |
\begin{pmatrix} |
||
5 \cdot 1 & 5 \cdot (-3) & 5 \cdot 2 \\ |
|||
5 \cdot 1 & 5 \cdot 2 & 5 \cdot 7 |
|||
\end{pmatrix} |
\end{pmatrix} |
||
= |
= |
||
\begin{ |
\left( \begin{array}{r} |
||
5 & -15 & 10 \\ |
|||
5 & 10 & 35 |
|||
\end{ |
\end{array} \right) |
||
</math> |
</math> |
||
Die Skalarmultiplikation darf nicht mit dem [[Skalarprodukt]] verwechselt werden. |
Die Skalarmultiplikation darf nicht mit dem [[Skalarprodukt]] verwechselt werden. |
||
Um die Skalarmultiplikation |
Um die Skalarmultiplikation durchführen zu dürfen, müssen der Skalar <math>c</math> und die Matrixelemente demselben Ring <math>(K,+,\cdot,0)</math> entstammen. Die Menge der <math>m \times n</math>-Matrizen ist in diesem Fall ein (Links-)[[Modul (Mathematik)|Modul]] über <math>K.</math> |
||
=== Matrizenmultiplikation === |
=== Matrizenmultiplikation === |
||
{{Hauptartikel|Matrizenmultiplikation}} |
|||
Zwei Matrizen können multipliziert werden, wenn die Spaltenanzahl der linken mit der Zeilenanzahl der rechten Matrix übereinstimmt. |
|||
Zwei Matrizen <math>A = (a_{ij})_{i=1\ldots l,\;j=1\ldots m}</math> und <math>B = (b_{ij})_{i=1\ldots m,\;j=1\ldots n}</math> werden multipliziert, indem die Produktsummenformel ähnlich dem Skalarprodukt auf Paare aus einem Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird: |
|||
Das Produkt einer <math>l \times m</math>-Matrix <math>A = (a_{ij})_{i=1, \dotsc, l,\;j=1, \dotsc, m}</math> und einer <math>m \times n</math>-Matrix <math>B = (b_{ij})_{i=1, \dotsc, m,\;j=1, \dotsc, n}</math> ist eine <math>l \times n</math>-Matrix <math>C = (c_{ij})_{i=1, \dotsc, l,\;j=1, \dotsc, n},</math> deren Elemente berechnet werden, indem die Produktsummenformel, ähnlich dem Skalarprodukt, auf Paare aus einem Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird: |
|||
:<math> |
:<math>c_{ij}=\sum_{k=1}^m a_{ik}\cdot b_{kj}</math> |
||
Die Matrizenmultiplikation ist nicht [[Kommutativität|kommutativ]], d. h., im Allgemeinen gilt <math>B \cdot A \neq A \cdot B</math>. Die Matrizenmultiplikation ist allerdings [[Assoziativgesetz|assoziativ]], d. h., es gilt stets: |
|||
Rechenbeispiel: |
|||
:<math>(A \cdot B) \cdot C = A \cdot (B \cdot C)</math> |
|||
Eine [[Matrix-Kettenmultiplikation|Kette von Matrix-Multiplikationen]] kann daher beliebig geklammert werden. Das Problem, eine Klammerung zu finden, die zu einer Berechnung mit der minimalen Anzahl von elementaren arithmetischen Operationen führt, ist ein [[Optimierungsproblem]]. Die Matrizenaddition und Matrizenmultiplikation genügen zudem den beiden [[Distributivgesetz]]en: |
|||
:<math>(A + B) \cdot C = A \cdot C + B \cdot C</math> |
|||
für alle <math>l \times m</math>-Matrizen <math>A, B</math> und <math>m \times n</math>-Matrizen <math>C</math> sowie |
|||
:<math>A \cdot (B + C) = A \cdot B + A \cdot C</math> |
|||
für alle <math>l \times m</math>-Matrizen <math>A</math> und <math>m \times n</math>-Matrizen <math>B, C.</math> |
|||
Quadratische Matrizen <math>A\in K^{n\times n}</math> können mit sich selbst multipliziert werden; analog zur Potenz bei den reellen Zahlen führt man abkürzend die [[Matrixpotenz]] <math>A^2=A\cdot A</math> oder <math>A^3=A\cdot A\cdot A</math> ein. Damit ist es auch sinnvoll, quadratische Matrizen als Elemente in Polynome einzusetzen. Zu weitergehenden Ausführungen hierzu siehe unter ''[[Charakteristisches Polynom]].'' Zur einfacheren Berechnung kann hier die [[jordansche Normalform]] verwendet werden. Quadratische Matrizen über <math>\R</math> oder <math>\mathbb C</math> kann man darüber hinaus sogar in Potenzreihen einsetzen, vgl. [[Matrixexponential]]. Eine besondere Rolle bezüglich der Matrizenmultiplikation spielen die quadratischen Matrizen über einem Ring <math>R</math>, also <math>R^{n \times n}</math>. Diese bilden selbst mit der Matrizenaddition und -multiplikation wiederum einen Ring, der [[Matrizenring]] genannt wird. |
|||
== Weitere Rechenoperationen == |
|||
=== Transponierte Matrix === |
|||
{{Hauptartikel|Transponierte Matrix}} |
|||
[[Datei:Matrix transpose.gif|200px|mini|Animation zur Transponierung der Matrix A]] |
|||
Die ''Transponierte'' einer <math>m\times n</math>-Matrix <math>A = \left(a_{ij}\right)</math> ist die <math>n\times m</math>-Matrix <math>A^\mathsf{T} = \left(a_{ji}\right)</math>, das heißt, zu |
|||
:<math> |
:<math> |
||
A= |
|||
\begin{pmatrix} |
\begin{pmatrix} |
||
a_{11} & \dots &a_{1n} \\ |
|||
\vdots & &\vdots \\ |
|||
a_{m1} & \dots &a_{mn} |
|||
\end{pmatrix} |
|||
\cdot |
|||
\begin{pmatrix} |
|||
6 & -1 \\ |
|||
3 & 2 \\ |
|||
0 & -3 |
|||
\end{pmatrix} |
|||
= |
|||
\begin{pmatrix} |
|||
1 \cdot 6 + 2 \cdot 3 + 3 \cdot 0 & |
|||
1 \cdot (-1) + 2 \cdot 2 + 3 \cdot (-3) \\ |
|||
4 \cdot 6 + 5 \cdot 3 + 6 \cdot 0 & |
|||
4 \cdot (-1) + 5 \cdot 2 + 6 \cdot (-3) \\ |
|||
\end{pmatrix} |
|||
= |
|||
\begin{pmatrix} |
|||
12 & -6 \\ |
|||
39 & -12 |
|||
\end{pmatrix} |
\end{pmatrix} |
||
</math> |
</math> |
||
ist |
|||
:<math> |
|||
Bei der Berechnung von Hand bietet das [[Falksches Schema|Falksche Schema]] eine Hilfestellung. Zu beachten ist, dass Matrizenmultiplikation im Allgemeinen nicht [[Kommutativität|kommutativ]] ist, d.h. im Allgemeinen gilt <math>B \cdot A \neq A \cdot B</math>. Die Matrizenmultiplikation ist aber immer [[assoziativ]]: |
|||
A^\mathsf{T} = |
|||
:<math>(A \cdot B) \cdot C = A \cdot (B \cdot C)</math> |
|||
Um zwei Matrizen zu multiplizieren, müssen die Einträge einem Ring entstammen und die Spaltenanzahl der linken mit der Zeilenanzahl der rechten Matrix übereinstimmen. Ist nun <math>A</math> eine <math>l \times m</math>-Matrix und <math>B</math> eine <math>m \times n</math>-Matrix dann ist <math>A \cdot B</math> eine <math>l \times n</math>-Matrix. |
|||
Eine besondere Rolle bezüglich der Matrizenmultiplikation spielen die quadratischen Matrizen über einem Ring <math>R</math>. Diese bilden selbst mit der Matrizenaddition und -multiplikation wiederum einen Ring. Ist der Ring <math>R</math> unitär mit dem Einselement 1, dann ist die Einheitsmatrix |
|||
:<math>E = |
|||
\begin{pmatrix} |
\begin{pmatrix} |
||
a_{11} & \dots &a_{m1} \\ |
|||
\vdots & &\vdots \\ |
|||
a_{1n} & \dots &a_{mn} |
|||
0 & 0 & \dots & 1 |
|||
\end{pmatrix} |
\end{pmatrix} |
||
</math> |
</math> |
||
die Transponierte. Man schreibt also die erste Zeile als erste Spalte, die zweite Zeile als zweite Spalte usw. Die Matrix wird an ihrer [[Hauptdiagonale]]n <math>a_{11}, a_{22}, \dotsc</math> gespiegelt. Es gelten die folgenden Rechenregeln: |
|||
das Einselement des Matrizenrings, d.h. dieser ist auch unitär. Allerdings ist der Matrizenring <math> K^{n \times n} </math> für <math>n>1</math> niemals kommutativ. |
|||
:<math>\begin{align} |
|||
(A+B)^\mathsf{T} &= A^\mathsf{T} + B^\mathsf{T} \\ |
|||
=== Potenzieren von Matrizen === |
|||
(c \cdot A)^\mathsf{T} &= c \cdot A^\mathsf{T} \\ |
|||
\left(A^\mathsf{T}\right)^\mathsf{T} &= A\\ |
|||
Quadratische Matrizen <math>A\in K^{n\times n}</math> können mit sich selbst multipliziert werden; analog zum Fall der reellen Zahlen führt man die abkürzende Potenzschreibweise <math>A^2=A\cdot A</math> oder <math>A^3=A\cdot A\cdot A</math> etc. ein. Damit ist es auch sinnvoll, quadratische Matrizen als Elemente in Polynomen einzusetzen. Zu weitergehenden Ausführungen hierzu siehe [[Charakteristisches Polynom]]. |
|||
(A \cdot B)^\mathsf{T} &= B^\mathsf{T} \cdot A^\mathsf{T} \\ |
|||
\left(A^{-1}\right)^\mathsf{T} &= \left(A^\mathsf{T}\right)^{-1} |
|||
== Vektorräume von Matrizen == |
|||
\end{align}</math> |
|||
Bei Matrizen über <math>\R</math> ist die [[adjungierte Matrix]] genau die transponierte Matrix. |
|||
Die <math>n \times m</math>-Matrizen über einem Körper <math>K</math> bilden mit der Matrizenaddition und der Skalarmultiplikation jeweils einen <math>K</math>-[[Vektorraum]]. Die [[Spur (Mathematik)|Spur]] des Matrizenprodukts <math>A^T \cdot B</math> |
|||
:<math>\left\langle A,B\right\rangle = \operatorname{spur}(A^TB) |
|||
=\sum_{i=1}^n\sum_{j=1}^m a_{ij}b_{ij}</math> |
|||
ist dann ein [[Skalarprodukt]] auf dem Matrizenraum. |
|||
Im Spezialfall <math>K=\R</math> handelt es sich bei diesem Matrizenraum um einen [[Euklidischer Vektorraum|Euklidischen Vektorraum]]. In diesem Raum stehen die [[symmetrische Matrix|symmetrische Matrizen]] und die [[schiefsymmetrische Matrix|schiefsymmetrische Matrizen]] senkrecht aufeinander. |
|||
Ist <math>A</math> eine symmetrische und <math>B</math> eine schiefsymmetrische Matrix, so gilt <math>\begin{matrix}\left\langle A,B\right\rangle=0\end{matrix}</math>. |
|||
Im Spezialfall <math>K=\mathbb C</math> ist die [[Spur (Mathematik)|Spur]] des Matrizenproduktes <math>\overline{A}^T \cdot B</math> |
|||
:<math>\left\langle A,B\right\rangle = \operatorname{spur}(\overline{A^T}B) |
|||
=\sum_{i=1}^n\sum_{j=1}^m \overline{a_{ij}}b_{ij}</math> |
|||
ein [[Skalarprodukt]], das [[Hilbert-Schmidt-Skalarprodukt]], und der Matrizenraum wird zu einem [[unitärer Vektorraum|unitären Vektorraum]]. |
|||
== Weitere Rechenoperationen == |
|||
=== Inverse Matrix === |
=== Inverse Matrix === |
||
{{Hauptartikel|Inverse Matrix}} |
|||
Falls die [[Determinante]] einer quadratischen <math>n\times n</math>-Matrix <math>A</math> über einem Körper <math>K</math> nicht gleich null ist, d. h., falls <math>\det(A) \neq 0</math>, so existiert die zur Matrix <math>A</math> ''inverse'' Matrix <math>A^{-1}</math>. Für diese gilt |
|||
''Hauptartikel:'' [[Inverse Matrix]] |
|||
:<math>A A^{-1} = A^{-1} A = E</math>, |
|||
wobei <math>E</math> die <math>n\times n</math>-[[Einheitsmatrix]] ist. Matrizen, die eine inverse Matrix besitzen, bezeichnet man als ''invertierbare'' oder [[Reguläre Matrix|''reguläre'' Matrizen]]. Diese haben vollen [[Rang (Lineare Algebra)|Rang]]. Umgekehrt werden nichtinvertierbare Matrizen als ''singuläre'' Matrizen bezeichnet. Eine Verallgemeinerung der Inversen für singuläre Matrizen sind sog. [[pseudoinverse]] Matrizen. |
|||
=== Vektor-Vektor-Produkte === |
|||
Für manche quadratische Matrizen <math>A</math> gibt es eine inverse Matrix <math>A ^{-1}</math> für die gilt |
|||
Das [[#Matrizenmultiplikation|Matrixprodukt]] <math>v \cdot w</math> zweier <math>n \times 1</math>-Vektoren <math>v</math> und <math>w</math> ist nicht definiert, da die Anzahl <math>1</math> der Spalten von <math>v</math> im Allgemeinen ungleich der Anzahl <math>n</math> der Zeilen von <math>w</math> ist. Die beiden Produkte <math>v^\mathsf{T} \cdot w</math> und <math>v \cdot w^\mathsf{T}</math> existieren jedoch. |
|||
:<math>A \cdot A^{-1} = A^{-1} \cdot A = E</math> |
|||
wobei <math>E</math> die [[Einheitsmatrix]] ist. Matrizen, die eine inverse Matrix besitzen, bezeichnet man als invertierbare oder [[Reguläre Matrix|reguläre Matrizen]], umgekehrt werden nicht invertierbare Matrizen als singuläre Matrizen bezeichnet. |
|||
===Vektor-Vektor-Produkte (Skalarprodukt und Tensorprodukt)=== |
|||
Hat man zwei Spaltenvektoren <math> v </math> und <math> w </math> der Länge <math> n </math>, dann ist das Matrixprodukt <math> v \cdot w </math> nicht definiert, aber die beiden Produkte <math> v^T \cdot w </math> und <math> v \cdot w^T </math> existieren. |
|||
Das erste Produkt ist eine <math> 1 \times 1 </math>-Matrix, die als Zahl interpretiert wird, sie wird das '''kanonische Skalarprodukt''' von <math> v </math> und <math> w </math> genannt und mit <math>\langle v ,w \rangle </math> bezeichnet. |
|||
Das erste Produkt <math>v^\mathsf{T} \cdot w</math> ist eine <math>1 \times 1</math>-Matrix, die als Zahl interpretiert wird; sie wird das [[Standardskalarprodukt]] von <math>v</math> und <math>w</math> genannt und mit <math>\langle v, w \rangle</math> oder <math>\vec v \cdot \vec w</math> bezeichnet. Geometrisch entspricht dieses Skalarprodukt in einem [[Kartesisches Koordinatensystem|kartesischen Koordinatensystem]] dem Produkt |
|||
:<math>\vec v \cdot \vec w = |\vec v| \cdot |\vec w| \cdot \cos \sphericalangle(\vec v, \vec w)</math> |
|||
der Beträge der beiden Vektoren und des Kosinus des von den beiden Vektoren eingeschlossenen Winkels. Beispielsweise gilt |
|||
:<math> |
:<math> |
||
\begin{pmatrix} |
\begin{pmatrix} |
||
Zeile 183: | Zeile 206: | ||
2 \\ |
2 \\ |
||
3 |
3 |
||
\end{pmatrix}^T |
\end{pmatrix}^\mathsf{T} |
||
\cdot |
\cdot |
||
\left( \begin{array}{r} |
|||
-2 \\ |
|||
-1 \\ |
|||
1 |
|||
\end{array} \right) |
|||
= |
|||
\begin{pmatrix} |
\begin{pmatrix} |
||
1 & |
|||
2 & |
|||
3 |
|||
\end{pmatrix} |
\end{pmatrix} |
||
\cdot |
|||
\left( \begin{array}{r} |
|||
-2 \\ |
|||
-1 \\ |
|||
1 |
|||
\end{array} \right) |
|||
= |
= |
||
1 \cdot (-2) + 2 \cdot (-1) + 3 \cdot 1 |
1 \cdot (-2) + 2 \cdot (-1) + 3 \cdot 1 |
||
Zeile 196: | Zeile 231: | ||
</math> |
</math> |
||
Das zweite Produkt ist eine <math> |
Das zweite Produkt <math>v \cdot w^\mathsf{T}</math> ist eine <math>n \times n</math>-Matrix und heißt [[dyadisches Produkt]] oder [[Tensorprodukt]] von <math>v</math> und <math>w</math> (geschrieben <math>v \otimes w</math>). Seine Spalten sind skalare Vielfache von <math>v</math>, seine Zeilen skalare Vielfache von <math>w^\mathsf{T}</math>. Beispielsweise gilt |
||
:<math> |
:<math> |
||
\begin{pmatrix} |
\begin{pmatrix} |
||
Zeile 205: | Zeile 239: | ||
\end{pmatrix} |
\end{pmatrix} |
||
\cdot |
\cdot |
||
\left( \begin{array}{r} |
|||
-2 \\ |
|||
-1 \\ |
|||
1 |
|||
\end{array}\right)^\mathsf{T} |
|||
= |
|||
\begin{pmatrix} |
\begin{pmatrix} |
||
1 \\ |
|||
2 \\ |
|||
3 |
|||
\end{pmatrix} |
\end{pmatrix} |
||
\cdot |
|||
\begin{pmatrix} |
|||
-2& |
|||
-1& |
|||
1 |
|||
\end{pmatrix} |
|||
= |
= |
||
\begin{pmatrix} |
\begin{pmatrix} |
||
1\cdot(-2) & 1\cdot(-1) & 1\cdot 1 \\ |
1\cdot(-2) & 1\cdot(-1) & 1\cdot 1 \\ |
||
2\cdot(-2) & 2\cdot(-1) & 2\cdot 1 \\ |
2\cdot(-2) & 2\cdot(-1) & 2\cdot 1 \\ |
||
3\cdot(-2) & 3\cdot(-1) & 3\cdot 1 |
3\cdot(-2) & 3\cdot(-1) & 3\cdot 1 |
||
\end{pmatrix} |
\end{pmatrix} |
||
= |
= |
||
Zeile 222: | Zeile 268: | ||
-6 & -3 & 3 |
-6 & -3 & 3 |
||
\end{pmatrix} |
\end{pmatrix} |
||
</math> |
.</math> |
||
== Vektorräume von Matrizen == |
|||
===Die transponierte Matrix=== |
|||
{{Hauptartikel|Matrizenraum}} |
|||
Die Menge der <math>m \times n</math>-Matrizen über einem Körper <math>K</math> bildet mit der Matrizenaddition und der Skalarmultiplikation einen <math>K</math>-[[Vektorraum]]. Dieser Vektorraum <math>K^{m \times n}</math> hat die [[Dimension (Mathematik)|Dimension]] <math>m \cdot n</math>. Eine Basis von <math>K^{m \times n}</math> ist gegeben durch die Menge der [[Standardmatrix|Standardmatrizen]] <math>E_{ij}</math> mit <math>i \in \{1, \dotsc, m\}</math>, <math>j \in \{1, \dotsc, n\}</math>. Diese Basis wird manchmal als [[Standardbasis]] von <math>K^{m \times n}</math> bezeichnet. |
|||
Die Transponierte der Matrix <math> A = (a_{ij}) </math> vom Format <math> m \times n </math> ist die Matrix <math> A^T = (a_{ji}) </math> vom Format <math> n \times m </math>, d.h. |
|||
zu |
|||
:<math> |
|||
A= |
|||
\begin{pmatrix} |
|||
a_{11} & \dots &a_{1n} \\ |
|||
\vdots &\ddots &\vdots \\ |
|||
a_{m1} & \dots &a_{mn} |
|||
\end{pmatrix} |
|||
</math> |
|||
ist die Transponierte |
|||
:<math> |
|||
A^{T} = |
|||
\begin{pmatrix} |
|||
a_{11} & \dots &a_{m1} \\ |
|||
\vdots &\ddots &\vdots \\ |
|||
a_{1n} & \dots &a_{mn} |
|||
\end{pmatrix} |
|||
</math> |
|||
Die [[Spur (Mathematik)|Spur]] des Matrixprodukts <math>A^\mathsf{T} \cdot B</math> |
|||
Man schreibt also die erste Zeile als erste Spalte und die zweite Zeile als zweite Spalte usw. Die Matrix wird so zu sagen an ihrer [[Hauptdiagonale]] gespiegelt. |
|||
:<math>\left\langle A,B\right\rangle = \operatorname{spur}(A^\mathsf{T}B) |
|||
=\sum_{j=1}^n\sum_{i=1}^m a_{ij}b_{ij}</math> |
|||
ist dann im Spezialfall <math>K=\R</math> ein reelles [[Skalarprodukt]]. In diesem [[Euklidischer Vektorraum|euklidischen Vektorraum]] stehen die [[Symmetrische Matrix|symmetrischen Matrizen]] und die [[Schiefsymmetrische Matrix|schiefsymmetrischen Matrizen]] senkrecht aufeinander. Ist <math>A</math> eine symmetrische und <math>B</math> eine schiefsymmetrische Matrix, so gilt <math>\begin{matrix}\left\langle A,B\right\rangle=0\end{matrix}</math>. |
|||
Im Spezialfall <math>K=\mathbb C</math> ist die Spur des Matrixproduktes <math>\overline{A^\mathsf{T}} \cdot B</math> |
|||
Beispiel: |
|||
:<math>\left\langle A,B\right\rangle = \operatorname{spur}(\overline{A^\mathsf{T}}B) |
|||
:<math> |
|||
=\sum_{j=1}^n\sum_{i=1}^m \overline{a_{ij}}b_{ij}</math> |
|||
\begin{pmatrix} |
|||
ein komplexes Skalarprodukt und der Matrizenraum wird zu einem [[Unitärer Vektorraum|unitären Vektorraum]]. Dieses Skalarprodukt wird [[Frobenius-Skalarprodukt]] genannt. Die von dem Frobenius-Skalarprodukt [[Skalarproduktnorm|induzierte Norm]] heißt [[Frobeniusnorm]] und mit ihr wird der Matrizenraum zu einem [[Banachraum]]. |
|||
1 & 8 & -3 \\ |
|||
4 & -2 & 5 |
|||
\end{pmatrix}^T |
|||
= |
|||
\begin{pmatrix} |
|||
1 & 4 \\ |
|||
8 & -2 \\ |
|||
-3 & 5 |
|||
\end{pmatrix} |
|||
</math> |
|||
Es gilt zusätzlich: |
|||
:<math>(A\cdot B)^T=B^T\cdot A^T</math> |
|||
== Anwendungen == |
== Anwendungen == |
||
=== Zusammenhang mit linearen Abbildungen === |
=== Zusammenhang mit linearen Abbildungen === |
||
Das Besondere an Matrizen über einem [[Ring (Algebra)|Ring]] <math>K</math> ist der Zusammenhang zu [[Lineare Abbildung|linearen Abbildungen]]. Zu jeder Matrix <math>A \in K^{m\times n}</math> lässt sich eine lineare Abbildung mit [[Definitionsbereich]] <math>K^n</math> (Menge der Spaltenvektoren) und [[Bild (Mathematik)|Wertebereich]] <math>K^m</math> definieren, indem man jeden Spaltenvektor <math>u\in K^n</math> auf <math>A\cdot u\in K^m</math> abbildet. Umgekehrt entspricht jeder linearen Abbildung <math>f \colon K^n \to K^m</math> auf diese Weise genau eine <math>m \times n</math>-Matrix <math>A</math>; dabei sind die Spalten von <math>A</math> die Bilder der [[Standardbasis|Standard-Basisvektoren]] <math>e_1, \dotsc, e_n</math> von <math>K^n</math> unter <math>f</math>. Diesen Zusammenhang zwischen linearen Abbildungen und Matrizen bezeichnet man auch als (kanonischen) [[Isomorphismus]] |
|||
:<math>\operatorname{Hom}_K(K^n,K^m)\simeq K^{m \times n}.</math> |
|||
Er stellt bei vorgegebenem <math>K,</math> <math>m</math> und <math>n</math> eine [[Bijektion]] zwischen der Menge der Matrizen und der Menge der linearen Abbildungen dar. Das Matrixprodukt geht hierbei über in die Komposition (Hintereinanderausführung) linearer Abbildungen. Weil die Klammerung bei der Hintereinanderausführung dreier linearer Abbildungen keine Rolle spielt, gilt dies für die Matrixmultiplikation, diese ist also [[Assoziativgesetz|assoziativ]]. |
|||
Ist <math>K</math> sogar ein Körper, kann man statt der Spaltenvektorräume beliebige endlichdimensionale <math>K</math>-Vektorräume <math>V</math> und <math>W</math> (der Dimension <math>n</math> bzw. <math>m</math>) betrachten. (Falls <math>K</math> ein kommutativer Ring mit 1 ist, dann kann man analog freie [[Modul (Mathematik)|K-Moduln]] betrachten.) Diese sind nach Wahl von [[Basis (Vektorraum)|Basen]] <math>v=(v_1, \dotsc, v_n)</math> von <math>V</math> und <math>w=(w_1, \dotsc, w_m)</math> von <math>W</math> zu den [[Koordinatenraum|Koordinatenräumen]] <math>K^n</math> bzw. <math>K^m</math> isomorph, weil zu einem beliebigen Vektor <math>u\in V</math> eine eindeutige Zerlegung in Basisvektoren |
|||
Das Besondere an Matrizen über einem [[Ring_(Mathematik)|Ring]] <math>K</math> ist der Zusammenhang zu [[Lineare Abbildung|linearen Abbildungen]]. Zu jeder Matrix |
|||
<math> |
:<math>u = \sum_{j=1}^n \alpha_j v_j</math> |
||
existiert und die darin vorkommenden Körperelemente <math>\alpha_j</math> den Koordinatenvektor |
|||
lässt sich eine lineare Abbildung mit [[Definitionsbereich]] <math>K^n</math> (Menge der Spaltenvektoren) und [[Wertebereich]] <math>K^m</math> definieren, indem man jeden Spaltenvektor <math>u\in K^n</math> auf <math>A\cdot u\in K^m</math> abbildet; und jede lineare Abbildung mit diesem Definitions- und Wertebereich entspricht auf diese Weise genau einer <math>m \times n</math>-Matrix. Diesen Zusammenhang bezeichnet man auch als (kanonischen) [[Isomorphismus]]; |
|||
:<math>{}_vu=\begin{pmatrix}\alpha_1 \\ \vdots \\ \alpha_n\end{pmatrix} \in K^n</math> |
|||
er stellt bei vorgegebenem <math>K</math>, <math>m</math>, <math>n</math> eine [[Bijektion]] zwischen der Menge der Matrizen und der Menge der linearen Abbildungen dar. Das Matrizenprodukt geht hierbei über in die Komposition (Hintereinanderausführung) linearer Abbildungen. Weil die Klammerung bei der Hintereinanderausführung dreier linearer Abbildungen keine Rolle spielt, gilt dies dann auch für die Matrixmultiplikation, sie ist also [[assoziativ]]. |
|||
bilden. Jedoch hängt der Koordinatenvektor von der verwendeten Basis <math>v</math> ab, die daher in der Bezeichnung <math>{}_vu</math> vorkommt. |
|||
Analog verhält es sich im Vektorraum <math>W.</math> Ist eine lineare Abbildung <math>f\colon V\to W</math> gegeben, so lassen sich die Bilder der Basisvektoren von <math>V</math> eindeutig in die Basisvektoren von <math>W</math> zerlegen in der Form |
|||
Ist <math>K</math> sogar ein [[Körper]], kann man statt der Spaltenvektorräume beliebige endlichdimensionale <math>K</math>-Vektorräume <math>V</math> und <math>W</math> (der Dimension <math>n</math> bzw. <math>m</math>) betrachten. Diese sind nach Wahl von [[Basis (Vektorraum)|Basen]] <math>v=(v_1,\ldots,v_n)</math> von <math>V</math> und <math>w=(w_1,\ldots,w_m)</math>von <math>W</math> |
|||
:<math>f(v_j) = \sum_{i=1}^m a_{ij}w_i</math> |
|||
mit Koordinatenvektor |
|||
zu einem beliebigen Vektor <math>u\in V</math> eine eindeutige Zerlegung in Basisvektoren <math>u = \sum_{i=1}^n \alpha_i v_i</math> existiert, und die darin vorkommenden Körperelemente <math>\alpha_i</math> den Koordinatenvektor <math>{}_vu=\begin{pmatrix}\alpha_1 \\ \vdots \\ \alpha_n\end{pmatrix} \in K^n</math> bilden. Jedoch hängt der Koordinatenvektor von der verwendeten Basis <math>v</math> ab, die daher auch in der Bezeichnung <math>{}_vu</math> vorkommt. |
|||
:<math>{}_wf(v_j)=\begin{pmatrix}a_{1j} \\ \vdots \\ a_{mj}\end{pmatrix} \in K^m.</math> |
|||
Die Abbildung ist dann vollständig festgelegt durch die sog. [[Abbildungsmatrix]] |
|||
:<math>{}_wf_v = \begin{pmatrix} |
|||
a_{11} & \ldots & a_{1n} \\ |
|||
\vdots & & \vdots \\ |
|||
a_{m1} & \ldots & a_{mn} |
|||
\end{pmatrix} \in K^{m\times n},</math> |
|||
denn für das Bild des o. g. Vektors <math>u</math> gilt |
|||
:<math>f(u) = \sum_{i=1}^m \sum_{j=1}^n a_{ij}\alpha_j w_i,</math> |
|||
also <math>{}_wf(u) = {}_wf_v\cdot {}_vu</math> („Koordinatenvektor = Matrix mal Koordinatenvektor“). (Die Matrix <math>{}_wf_v</math> hängt von den verwendeten Basen <math>v</math> und <math>w</math> ab; bei der Multiplikation wird die Basis <math>v</math>, die links und rechts vom Malpunkt steht, „weggekürzt“, und die „außen“ stehende Basis <math>w</math> bleibt übrig.) |
|||
Die Hintereinanderausführung zweier linearer Abbildungen <math>f\colon V\to W</math> und <math>g\colon W\to X</math> (mit Basen <math>v</math>, <math>w</math> bzw. <math>x</math>) entspricht dabei der Matrixmultiplikation, also |
|||
Analog verhält es sich im Vektorraum <math>W</math>. Ist eine lineare Abbildung <math>f\colon V\to W</math> gegeben, so lassen sich die Bilder der Basisvektoren von <math>V</math> eindeutig in die Basisvektoren von <math>W</math> zerlegen in der Form <math>f(v_i) = \sum_{j=1}^m a_{ji}w_j</math> mit Koordinatenvektor <math>{}_wf(v_i)=\begin{pmatrix}a_{1i} \\ \vdots \\ a_{mi}\end{pmatrix} \in K^m</math>. Die Abbildung ist dann vollständig festgelegt durch die Matrix |
|||
:<math>{} |
:<math>{}_x(g\circ f)_v = {}_xg_w \cdot {}_wf_v</math> |
||
(auch hier wird die Basis <math>w</math> „weggekürzt“). |
|||
\vdots & \ddots & \vdots \\ |
|||
a_{m1} & \ldots & a_{mn}\end{pmatrix} \in K^{m\times n},</math> |
|||
denn für das Bild des o.g. Vektors <math>u</math> gilt |
|||
:<math>f(u) = \sum_{j=1}^m \sum_{i=1}^n a_{ji}\alpha_i w_j,</math> |
|||
also <math>{}_wf(u) = {}_wf_v\cdot {}_vu</math> ("Koordinatenvektor = Matrix mal Koordinatenvektor"). |
|||
(Die Matrix <math>{}_wf_v</math> hängt von den verwendeten Basen <math>v</math> und <math>w</math> ab; bei der Multiplikation wird die Basis <math>v</math>, die links und rechts vom Malpunkt steht, "weggekürzt", und die "außen" stehende Basis <math>w</math> bleibt übrig.) |
|||
Somit ist die Menge der linearen Abbildungen von <math>V</math> nach <math>W</math> wieder isomorph zu <math>K^{m\times n}.</math> Der Isomorphismus <math>f \mapsto {}_wf_v</math> hängt aber von den gewählten Basen <math>v</math> und <math>w</math> ab und ist daher nicht kanonisch: |
|||
Bei Wahl einer anderen Basis <math>v'</math> für <math>V</math> bzw. <math>w'</math> für <math>W</math> wird derselben linearen Abbildung nämlich eine andere Matrix zugeordnet, die aus der alten durch Multiplikation von rechts bzw. links mit einer nur von den beteiligten Basen abhängigen invertierbaren <math>m \times m</math>- bzw. <math>n \times n</math>-Matrix (sog. [[Basiswechsel (Vektorraum)#Basiswechselmatrix|Basiswechselmatrix]]) entsteht. Das folgt durch zweimalige Anwendung der Multiplikationsregel aus dem vorigen Absatz, nämlich |
|||
:<math>{}_{w'}f_{v'} = {}_{w'}e^W_w \cdot {}_wf_v \cdot {}_ve^V_{v'}</math> |
|||
(„Matrix = Basiswechselmatrix mal Matrix mal Basiswechselmatrix“). Dabei bilden die Identitätsabbildungen <math>e^V</math> und <math>e^W</math> jeden Vektor aus <math>V</math> bzw. <math>W</math> auf sich selbst ab. |
|||
Bleibt eine Eigenschaft von Matrizen unberührt von solchen Basiswechseln, so ist es sinnvoll, diese Eigenschaft basisunabhängig der entsprechenden linearen Abbildung zuzusprechen. |
|||
Somit ist die Menge der linearen Abbildungen von <math>V</math> nach <math>W</math> wieder isomorph zu <math>K^{m\times n}</math>. Der Isomorphismus <math>f \mapsto {}_wf_v</math> hängt aber von den gewählten Basen <math>v</math> und <math>w</math> ab und ist daher nicht kanonisch: |
|||
Bei Wahl einer anderen Basis <math>v'</math> für <math>V</math> bzw. <math>w'</math> für <math>W</math> wird derselben linearen Abbildung nämlich eine andere Matrix zugeordnet, die aus der alten durch Multiplikation von rechts bzw. links mit einer nur von den beteiligten Basen abhängigen invertierbaren <math>m \times m</math>- bzw. <math>n \times n</math>-Matrix (sog. Basiswechselmatrix) entsteht. Das folgt durch zweimalige Anwendung der Multiplikationsregel aus dem vorigen Absatz, nämlich |
|||
<math>{}_{w'}f_{v'} = {}_{w'}e^W_w \cdot {}_wf_v \cdot {}_ve^V_{v'}</math> ("Matrix = Basiswechselmatrix mal Matrix mal Basiswechselmatrix"). Dabei bilden die Identitätsabbildungen <math>e^V</math> und <math>e^W</math> jeden Vektor aus <math>V</math> bzw. <math>W</math> auf sich selbst ab. |
|||
Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der [[Rang (Lineare Algebra)|Rang]] und die [[Determinante (Mathematik)|Determinante]] einer Matrix. Der Rang ist (falls <math>K</math> ein Körper ist) im angeführten Sinne basisunabhängig, und man kann somit vom Rang auch bei linearen Abbildungen sprechen. Die Determinante ist nur für [[Lineare Algebra#Endomorphismen und quadratische Matrizen|quadratische Matrizen]] definiert, die dem Fall <math>V=W</math> entsprechen; sie bleibt unverändert, wenn derselbe Basiswechsel im Definitions- und Wertebereich durchgeführt wird, wobei beide Basiswechselmatrizen zueinander invers sind: |
|||
Bleibt eine Eigenschaft von Matrizen unberührt von solchen Basiswechseln, so ist es sinnvoll, diese Eigenschaft auch basisunabhängig der entsprechenden linearen Abbildung zuzusprechen. |
|||
:<math>{}_{v'}f_{v'} = ({}_ve^V_{v'})^{-1} \cdot {}_vf_v \cdot {}_ve^V_{v'}</math> |
|||
In diesem Sinne ist also die Determinante basisunabhängig. |
|||
=== Umformen von Matrizengleichungen === |
|||
Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der [[Rang (Mathematik)|Rang]] und die [[Determinante (Mathematik)|Determinante]] einer Matrix. Der Rang ist (falls <math>K</math> ein Körper ist) im angeführten Sinne basisunabhängig und man kann somit vom Rang auch bei linearen Abbildungen sprechen. Die Determinante ist nur für [[Lineare Algebra#Endomorphismen und quadratische Matrizen|quadratische Matrizen]] definiert, die dem Fall <math>V=W</math> entsprechen; sie bleibt unverändert, wenn derselbe Basiswechsel im Definitions- und Wertebereich durchgeführt wird, wobei beide Basiswechselmatrizen zueinander invers sind: <math>{}_{v'}f_{v'} = ({}_ve^V_{v'})^{-1} \cdot {}_vf_v \cdot {}_ve^V_{v'}</math>. In diesem Sinne ist also auch die Determinante basisunabhängig. |
|||
Speziell in den [[Multivariate Verfahren|multivariaten Verfahren]] werden häufig Beweisführungen, Herleitungen usw. im Matrizen[[kalkül]] durchgeführt. |
|||
===Umformen von Matrizengleichungen=== |
|||
Speziell in den [[Multivariate Verfahren|Multivariaten Verfahren]] werden häufig Beweisführungen, Herleitungen usw. im Matrizen[[kalkül]] durchgeführt. |
|||
Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt, wobei jedoch die Nichtkommutativität der Matrixmultiplikation sowie die Existenz von [[Nullteiler]]n beachtet werden muss. |
Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt, wobei jedoch die Nichtkommutativität der Matrixmultiplikation sowie die Existenz von [[Nullteiler]]n beachtet werden muss. |
||
Beispiel: Lineares Gleichungssystem als einfache Umformung |
|||
Gesucht ist der Lösungsvektor <math> x </math> eines linearen Gleichungssystems |
|||
:<math>A \cdot x=b</math> |
|||
Gesucht ist der Lösungsvektor <math>x</math> eines linearen Gleichungssystems |
|||
mit <math> A </math> als <math> n \times n </math>-Koeffizientenmatrix. Man erweitert von links |
|||
:<math> |
:<math>A \cdot x=b</math> |
||
mit <math>A</math> als <math>n \times n</math>-Koeffizientenmatrix. Wenn die inverse Matrix <math>A^{-1}</math> existiert, kann man mit ihr von links multiplizieren: |
|||
und erhält die Lösung |
|||
:<math>x=A^{-1} \cdot b </math> |
:<math>A^{-1} \cdot A \cdot x=A^{-1} \cdot b \Leftrightarrow E \cdot x=A^{-1} \cdot b</math> |
||
und man erhält als Lösung |
|||
''Siehe auch'' [[Matrix (Mathematik)/Weitere Anwendungen|weitere Anwendungen]]. |
|||
:<math>x=A^{-1} \cdot b.</math> |
|||
==Spezielle Matrizen== |
|||
== Spezielle Matrizen == |
|||
=== Eigenschaften von Endomorphismen === |
=== Eigenschaften von Endomorphismen === |
||
Die folgenden Eigenschaften quadratischer Matrizen entsprechen Eigenschaften von [[Endomorphismus|Endomorphismen]], die durch sie dargestellt werden. |
|||
;[[Orthogonale Matrix|Orthogonale Matrizen]]: |
|||
Die folgenden Eigenschaften quadratischer Matrizen entsprechen Eigenschaften von Endomorphismen, die durch sie dargestellt werden. |
|||
Eine reelle Matrix <math>A</math> ist orthogonal, wenn die zugehörige lineare Abbildung das [[Standardskalarprodukt]] erhält, das heißt, wenn |
|||
:<math>\langle Av,Aw\rangle = \langle v,w\rangle</math> |
|||
gilt. Diese Bedingung ist äquivalent dazu, dass <math>A</math> die Gleichung |
|||
:<math>A^{-1} = A^\mathsf{T}</math> |
|||
bzw. |
|||
:<math>A\,A^\mathsf{T} = E</math> |
|||
erfüllt. Diese Matrizen stellen Spiegelungen, Drehungen und Drehspiegelungen dar. |
|||
;[[Unitäre Matrix|Unitäre Matrizen]]: |
|||
; [[orthogonale Matrix|Orthogonale Matrizen]] : Eine reelle Matrix <math>A</math> ist orthogonal, wenn die zugehörige lineare Abbildung das Standard-Skalarprodukt erhält, d.h. wenn |
|||
Sie sind das komplexe Gegenstück zu den orthogonalen Matrizen. Eine komplexe Matrix <math>A</math> ist unitär, wenn die zugehörige Transformation die Normierung erhält, das heißt, wenn |
|||
:: <math>\langle Av,Aw\rangle = \langle v,w\rangle</math> |
|||
:<math>\langle Av,Aw\rangle = \langle v,w\rangle</math> |
|||
: gilt. Diese Bedingung ist äquivalent dazu, dass <math>A</math> die Gleichung |
|||
gilt. Diese Bedingung ist äquivalent dazu, dass <math>A</math> die Gleichung |
|||
:: <math>A^{-1} = A^T</math> |
|||
:<math>A^{-1} = A^*</math> |
|||
: bzw. |
|||
erfüllt; dabei bezeichnet <math>A^*</math> die konjugiert-transponierte Matrix zu <math>A.</math> |
|||
:: <math>A \, A^T = E</math> |
|||
Fasst man den <math>n</math>-dimensionalen komplexen Vektorraum als <math>2n</math>-dimensionalen reellen Vektorraum auf, so entsprechen die unitären Matrizen genau denjenigen orthogonalen Matrizen, die mit der Multiplikation mit <math>\mathrm i</math> vertauschen. |
|||
: erfüllt. |
|||
: Diese Matrizen stellen Spiegelungen, Drehungen und Drehspiegelungen dar. |
|||
;[[Projektion (lineare Algebra)|Projektionsmatrizen]]: |
|||
; [[unitäre Matrix|Unitäre Matrizen]] : Sie sind das komplexe Gegenstück zu den orthogonalen Matrizen. Eine komplexe Matrix <math>A</math> ist unitär, wenn die zugehörige lineare Abbildung das hermitesche Standard-Skalarprodukt erhält, d.h. wenn |
|||
Eine Matrix ist eine Projektionsmatrix, falls |
|||
:: <math>\langle Av,Aw\rangle = \langle v,w\rangle</math> |
|||
:<math>A = A^2</math> |
|||
: gilt. Diese Bedingung ist äquivalent dazu, dass <math>A</math> die Gleichung |
|||
gilt, sie also [[idempotent]] ist: Das heißt, die mehrfache Anwendung einer Projektionsmatrix auf einen Vektor lässt das Resultat unverändert. Eine idempotente Matrix hat keinen vollen Rang, es sei denn, sie ist die Einheitsmatrix. Geometrisch entsprechen Projektionsmatrizen der [[Parallelprojektion]] entlang des [[Kern (Algebra)|Nullraumes]] der Matrix. Steht der Nullraum senkrecht auf dem [[Bild (Mathematik)|Bildraum]], so erhält man eine [[Orthogonalprojektion]].<br /> |
|||
:: <math>A^{-1} = A^*</math> |
|||
'''Beispiel:''' Es sei <math>X</math> eine <math>(m\times n)</math>-Matrix und damit selbst nicht invertierbar. Falls der Rang von <math>X</math> gleich <math>n</math> ist, dann ist <math>(X^\mathsf{T}X)</math> invertierbar und die <math>(m\times m)</math>-Matrix |
|||
: erfüllt; dabei bezeichnet <math>A^*</math> die konjugiert-transponierte Matrix zu <math>A</math>. |
|||
:<math>A = X \, (X^\mathsf{T}X)^{-1}X^\mathsf{T}</math> |
|||
: Fasst man den <math>n</math>-dimensionalen komplexen Vektorraum als <math>2n</math>-dimensionalen reellen Vektorraum auf, so entsprechen die unitären Matrizen genau denjenigen orthogonalen Matrizen, die mit der Multiplikation mit <math>\mathrm i</math> vertauschen. |
|||
idempotent. Diese Matrix wird beispielsweise in der [[Methode der kleinsten Quadrate]] verwendet. |
|||
;[[Nilpotente Matrix|Nilpotente Matrizen]]: |
|||
; [[Projektion (Mathematik)|Projektionsmatrizen]] : Eine Matrix ist eine Projektionsmatrix, falls |
|||
Eine Matrix <math>N</math> heißt nilpotent, falls eine Potenz <math>N^k</math> (und damit auch jede höhere Potenz) die Nullmatrix ergibt. |
|||
:: <math>A = A^2</math> |
|||
: d.h. die Matrix ist [[idempotent]], was bedeutet, dass die mehrfache Anwendung einer Projektionsmatrix auf einen Vektor das Resultat unverändert lässt. Eine idempotente Matrix hat keinen vollen Rang, es sei denn, sie ist die Einheitsmatrix. |
|||
: '''Beispiel''': Es sei <math>X</math> eine (mxn)-Matrix. Dann ist die (mxm)-Matrix |
|||
:: <math>A = X \, (X^TX)^{-1}X^T</math> |
|||
: idempotent. Diese Matrix wird beispielsweise in der [[Methode der kleinsten Quadrate]] verwendet. |
|||
: Geometrisch entsprechen Projektionsmatrizen der [[Parallelprojektion]] entlang des Nullraumes der Matrix. |
|||
; [[Nilpotente Matrix|Nilpotente Matrizen]] : Eine Matrix <math>N</math> heißt nilpotent, falls eine Potenz <math>N^k</math> (und damit auch alle höheren Potenzen) die Nullmatrix ergibt. |
|||
=== Eigenschaften von Bilinearformen === |
=== Eigenschaften von Bilinearformen === |
||
Im Folgenden sind Eigenschaften von Matrizen aufgelistet, die Eigenschaften der zugehörigen [[Bilinearform]] |
|||
:<math>(v,w)\mapsto v^\mathsf{T} A w</math> |
|||
entsprechen. Trotzdem können diese Eigenschaften für die dargestellten Endomorphismen eine eigenständige Bedeutung besitzen. |
|||
;[[Symmetrische Matrix|Symmetrische Matrizen]]: |
|||
Im folgenden sind Eigenschaften von Matrizen aufgelistet, die Eigenschaften der zugehörigen Bilinearform |
|||
Eine Matrix <math>A</math> heißt symmetrisch, wenn sie gleich ihrer transponierten Matrix ist: |
|||
: <math>(v,w)\mapsto v^T A w</math> |
|||
:<math>A^\mathsf{T} = A</math> |
|||
entsprechen. Trotzdem können diese Eigenschaften auch für die dargestellten Endomorphismen eine eigenständige Bedeutung besitzen. |
|||
Anschaulich gesprochen sind die Elemente symmetrischer Matrizen symmetrisch zur Hauptdiagonalen. |
|||
Beispiel: |
|||
; [[Symmetrische Matrix|Symmetrische Matrizen]] : Eine Matrix <math> A </math> heißt symmetrisch, wenn sie gleich ihrer transponierten Matrix ist: |
|||
: |
:<math> |
||
: Anschaulich gesprochen sind die Einträge symmetrischer Matrizen symmetrisch zur Hauptdiagonalen. |
|||
: Beispiel: |
|||
:: <math> |
|||
\begin{pmatrix} |
\begin{pmatrix} |
||
1 & 2 & 3 \\ |
1 & 2 & 3 \\ |
||
2 & 4 & 5 \\ |
2 & 4 & 5 \\ |
||
3 & 5 & 6 |
3 & 5 & 6 |
||
\end{pmatrix}^T |
\end{pmatrix}^\mathsf{T} |
||
= |
= |
||
\begin{pmatrix} |
\begin{pmatrix} |
||
Zeile 374: | Zeile 400: | ||
\end{pmatrix} |
\end{pmatrix} |
||
</math> |
</math> |
||
Symmetrische Matrizen entsprechen einerseits symmetrischen Bilinearformen: |
|||
: |
:<math>v^\mathsf{T} A w=w^\mathsf{T} A v,</math> |
||
andererseits den ''selbstadjungierten'' linearen Abbildungen: |
|||
: |
:<math>\langle Av,w\rangle = \langle v,Aw\rangle</math> |
||
; |
;[[Hermitesche Matrix|Hermitesche Matrizen]]: |
||
Hermitesche Matrizen sind das komplexe Analogon der symmetrischen Matrizen. Sie entsprechen den [[Hermitesche Sesquilinearform|hermiteschen Sesquilinearformen]] und den [[Selbstadjungierter Operator|selbstadjungierten Endomorphismen]].<br /> |
|||
Eine Matrix <math>A\in\mathbb C^{n\times n}</math> ist hermitesch oder selbstadjungiert, wenn gilt: |
|||
: |
:<math>A = A^*</math> |
||
; [[Schiefsymmetrische Matrix|Schiefsymmetrische Matrizen]] |
;{{Anker|Schiefsymmetrische Matrizen}}[[Schiefsymmetrische Matrix|Schiefsymmetrische Matrizen]]: |
||
Eine Matrix <math>A</math> heißt schiefsymmetrisch oder antisymmetrisch, wenn gilt: |
|||
: |
:<math>-A^\mathsf{T} = A</math> |
||
Um diese Bedingung zu erfüllen, müssen alle Elemente der Hauptdiagonale den Wert Null haben; die restlichen Werte werden an der Hauptdiagonale gespiegelt und mit <math>-1</math> multipliziert.<br /> |
|||
: Beispiel: |
|||
Beispiel: |
|||
:: <math> |
|||
:<math> |
|||
\begin{pmatrix} |
|||
\left( \begin{array}{r} |
|||
0 & 1 & 2 \\ |
|||
0 & 1 & 2 \\ |
|||
-1 & 0 & 3 \\ |
|||
-2 & -3 & 0 |
-2 & -3 & 0 |
||
\end{ |
\end{array} \right) |
||
</math> |
</math> |
||
Schiefsymmetrische Matrizen entsprechen antisymmetrischen Bilinearformen: |
|||
: |
:<math>v^\mathsf{T}\cdot A\cdot w = -w^\mathsf{T}\cdot A\cdot v</math> |
||
und antiselbstadjungierten Endomorphismen: |
|||
: |
:<math>\langle Av,w\rangle = -\langle v,Aw\rangle</math> |
||
; |
;[[Definitheit|Positiv definite Matrizen]]: |
||
Eine reelle Matrix ist positiv definit, wenn die zugehörige Bilinearform positiv definit ist, das heißt, wenn für alle Vektoren <math>v\ne0</math> gilt: |
|||
: |
:<math>v^\mathsf{T}\cdot A\cdot v > 0</math> |
||
Positiv definite Matrizen definieren verallgemeinerte [[Skalarprodukt]]e. Hat die Bilinearform keine negativen Werte, heißt die Matrix positiv semidefinit. Analog kann eine Matrix negativ definit beziehungsweise negativ semidefinit heißen, wenn die obige Bilinearform nur negative beziehungsweise keine positiven Werte hat. Matrizen, die keine dieser Eigenschaften erfüllen, heißen indefinit. |
|||
=== Weitere Konstruktionen === |
=== Weitere Konstruktionen === |
||
;[[Konjugierte Matrix|Konjugierte]] und [[adjungierte Matrix]]: |
|||
Enthält eine Matrix komplexe Zahlen, erhält man die konjugierte Matrix, indem man ihre Komponenten durch die [[Komplexe Konjugation|konjugiert komplexen]] Elemente ersetzt. Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix <math>A</math> wird mit <math>A^*</math> bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. |
|||
;[[Adjunkte]] oder komplementäre Matrix: |
|||
Die komplementäre Matrix <math>\operatorname{adj}(A)</math> einer quadratischen Matrix <math>A</math> setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante Minor genannt wird. Für die Ermittlung der Unterdeterminanten <math>\det(A_{ij})</math> werden die <math>i</math>-te Zeile und <math>j</math>-te Spalte von <math>A</math> gestrichen. Aus der resultierenden <math>(n-1) \times (n-1)</math>-Matrix wird dann die Determinante <math>\det (A_{ij})</math> berechnet. Die komplementäre Matrix hat dann die Elemente <math>(-1)^{i+j}\det (A_{ji}).</math> Diese Matrix wird manchmal auch als ''Matrix der Kofaktoren'' bezeichnet.<br /> |
|||
Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix <math>A</math>, denn nach dem Laplaceschen Entwicklungssatz gilt: |
|||
:<math>\operatorname{adj}(A)\cdot A=A\cdot \operatorname{adj}(A)=\det(A)\cdot E_n</math> |
|||
Damit ist die Inverse <math>A^{-1}=\frac{1}{\det(A)}\cdot \operatorname{adj}(A),</math> wenn <math>\det(A) \neq 0.</math> |
|||
;[[Übergangsmatrix|Übergangs- oder stochastische Matrizen]]: |
|||
Eine Übergangs- oder stochastische Matrix ist eine Matrix, deren Elemente alle zwischen 0 und 1 liegen und deren Zeilen- oder Spaltensummen 1 ergeben. Sie dienen in der [[Stochastik]] zur Charakterisierung zeitlich diskreter [[Markow-Kette]]n mit endlichem Zustandsraum. Ein Spezialfall hiervon sind die [[Doppelt-stochastische Matrix|doppelt-stochastischen Matrizen]], bei denen Zeilen- und Spaltensummen 1 ergeben. |
|||
== Unendlichdimensionale Räume == |
|||
Für unendlichdimensionale Vektorräume (sogar über [[Schiefkörper]]n) gilt, dass jede lineare Abbildung <math>f\colon U\to V</math> eindeutig durch die Bilder <math>f(u)</math> der Elemente <math>u</math> einer Basis <math>\mathcal{B}_U\subset U</math> bestimmt ist und diese beliebig gewählt werden und zu einer linearen Abbildung auf ganz <math>U</math> fortgesetzt werden können. Ist nun <math>\mathcal{B}_V</math> eine Basis von <math>V</math>, so lässt sich <math>f(u)</math> eindeutig als (endliche) Linearkombination von Basisvektoren schreiben, d. h., es existieren eindeutige Koeffizienten <math>f(u)_b\in K</math> für <math>b\in\mathcal{B}_V</math>, von denen nur endlich viele von null verschieden sind, sodass <math>f(u)=\sum_{b\in\mathcal{B}_V}f(u)_b b</math>. Dementsprechend lässt sich jede lineare Abbildung als möglicherweise unendliche Matrix auffassen, wobei jedoch in jeder Spalte (<math>\mathcal{B}_U</math> „nummeriere“ die Spalten und die Spalte zu <math>u</math> bestehe dann aus den von den Elementen von <math>\mathcal{B}_V</math> nummerierten Koordinaten <math>f(u)_b</math>) nur endlich viele Elemente von null verschieden sind, und umgekehrt. Die entsprechend definierte Matrixmultiplikation entspricht wiederum der Komposition linearer Abbildungen. |
|||
In der [[Funktionalanalysis]] betrachtet man [[Topologischer Vektorraum|topologische Vektorräume]], d. h. Vektorräume, auf denen man von [[Grenzwert (Folge)|Konvergenz]] sprechen und dementsprechend [[Reihe (Mathematik)|unendliche Summen]] bilden kann. Auf solchen können Matrizen mit unendlich vielen von null verschiedenen Elementen in einer Spalte unter Umständen als lineare Abbildungen verstanden werden, wobei auch andere Basis-Begriffe zugrunde liegen. |
|||
Einen speziellen Fall bilden [[Hilbertraum|Hilberträume]]. Seien also <math>U, V</math> Hilberträume und <math>(u_i)_{i\in I}, (v_i)_{i\in I}</math> [[Orthonormalbasis|Orthonormalbasen]] von <math>U</math> bzw. <math>V</math>. Dann erhält man eine Matrixdarstellung eines [[Linearer Operator|linearen Operators]] <math>f\colon U\to V</math> (für lediglich [[dicht definiert]]e Operatoren funktioniert es ebenso, falls der Definitionsbereich eine Orthonormalbasis besitzt, was im abzählbardimensionalen Fall stets zutrifft), indem man die Matrixelemente <math>f_{i,k} :=\langle u_i, f u_k\rangle</math> definiert; dabei ist <math>\langle u,v\rangle </math> das [[Skalarprodukt]] im betrachteten Hilbertraum (im komplexen Fall [[semilinear]] im ersten Argument). |
|||
Dieses sogenannte [[Hilbert-Schmidt-Skalarprodukt]] lässt sich im unendlichdimensionalen Fall nur noch für eine bestimmte Teilklasse von linearen Operatoren, die sogenannten [[Hilbert-Schmidt-Operator]]en, definieren, bei denen die Reihe, über die dieses Skalarprodukt definiert ist, stets konvergiert. |
|||
== Matrizen in „klassischen“ Programmiersprachen == |
|||
Matrizen können in den meisten [[Höhere Programmiersprache |höheren Programmiersprachen]] deklariert und gespeichert werden. |
|||
Eine Matrix wird in [[Programmiersprache]]n in einer [[Datenstruktur]]-Variante gespeichert, die in der deutschsprachigen Fachliteratur meist ''Datenfeld'' oder kurz ''[[Feld (Datentyp) |Feld]]'' ({{enS |array}}) genannt wird.<ref>{{Internetquelle |autor=Heidrun Kolinsky |url=https://wiki.c2sm.ethz.ch/pub/CM/CodingAdvicesCosmo2/fortran.pdf#page=99 |titel=Kapitel 9: Datenfelder (engl. arrays) oder indizierte Variablen |werk=Programmieren in Fortran 90/95 |hrsg= Universität der Bundeswehr München |abruf=2023-03-12}}</ref> Das Feld erhält einen ''Feldnamen'', für den in den Beispielen ''FeldX'' gewählt wurde. Der Zugriff auf bestimmte Inhalte eines Felds erfolgt mit Hilfe von [[Indexmenge (Mathematik)|Indizes]], die dessen Position bezeichnen. Bei [[Dimension (Mathematik)|mehrdimensionalen]] Feldern gibt es für jede Dimension einen Index.<ref>Der Name ''Dimension'' wird in diesem Zusammenhang für die Anzahl der Indizes verwendet: Ein Vektor ist folglich ein eindimensionales Feld, eine Matrix mit zwei Indizes ein zweidimensionales Feld usw.</ref> Alle Elemente eines Felds haben in der Regel den gleichen [[Datentyp#Elementare Datentypen |Datentyp]], sind also zum Beispiel alle entweder [[ganze Zahl]]en, [[natürliche Zahl]]en oder ''[[Gleitkommazahl]]en''. In [[Computeralgebrasystem]]en können es auch [[Symbolische Mathematik|symbolische Ausdrücke]] (wie [[Parameter (Mathematik)|Variable]], [[Funktion (Mathematik)|Funktionen]] oder [[Polynom|Polynome]]) sein. |
|||
Beim ''Deklarieren'' werden Felder in einer sprachspezifischen [[Syntax]] formuliert. Beispiele: |
|||
* <code>REAL*8 FeldX(100,...)</code> (Schlüsselwort ''REAL*8'' mit Angabe der 8 [[Byte]]s für den Datentyp ''Gleitkommazahl'', Feldname, Anzahl der Feldelemente je Dimension in runden Klammern): [[Fortran]] |
|||
* <code>Dim FeldX (100,...) As Double</code> (Schlüsselwort ''Dim'', Feldname, Anzahl der Feldelemente je Dimension in runden Klammern, Datentyp ''Gleitkommazahl'' doppelter Länge): [[Visual Basic Classic |Visual Basic]], [[Visual Basic for Applications]] und [[Visual Basic Script]] |
|||
* <code>FeldX (100)</code> (Feldname, Anzahl der Feldelemente in runden Klammern): [[PL/I]] |
|||
* <code>FeldX [100,...]</code> (Feldname, Anzahl der Feldelemente je Dimension in eckigen Klammern): [[C-Sharp|C#]]<ref>[https://msdn.microsoft.com/de-de/library/2yd9wwz4.aspx msdn.microsoft.com] Microsoft</ref> |
|||
* <code>FeldX [100][][]</code> (Feldname, Anzahl der Feldelemente je Dimension, jeweils in gesonderten eckigen Klammern): [[C (Programmiersprache)|C/C++]],<ref> {{Webarchiv|text=www2.informatik.uni-halle.de |url=http://www2.informatik.uni-halle.de/lehre/c/c_array.html |wayback=20150429015259 }} Uni Halle</ref> [[Java (Programmiersprache)|Java]]<ref>[http://www.homeandlearn.co.uk/java/multi-dimensional_arrays.html homeandlearn.co.uk] Java</ref> |
|||
* <code>FeldX array (100)</code> (Feldname, Schlüsselwort ''array'', Anzahl der Feldelemente in runden Klammern): [[Modula-2]] |
|||
* <code>FeldX occurs 100.</code> (Feldname, Schlüsselwort ''occurs'', Anzahl der Feldelemente ohne Klammern): [[Cobol]] |
|||
Die so deklarierten „Platzhalter“ werden in dem jeweiligen Programm mit „Werten“ befüllt. Matrizenmanipulationen muss der Anwender selbst programmieren. |
|||
== Matrizen in Tabellenkalkulationen == |
|||
Eine ''[[Tabellenkalkulation]]'' ({{enS |Spreadsheet}}) ist eine [[Software]] zur [[Interaktion|interaktiven]] Eingabe und Bearbeitung von numerischen und [[alphanumerisch]]en Daten in Form einer [[Tabelle]]. Wer mit der Matrizenrechnung vertraut ist und sich dann in eine Tabellenkalkulation einarbeitet, findet zunächst etwas Vertrautes vor: Das Tabellenblatt, die regelmäßige Unterteilung einer Fläche in Kästchen, die hier nicht ''Elemente'', sondern ''Zellen'' genannt werden. Eine Zelle wird ebenfalls durch „Koordinaten“ adressiert, durch die Spalte und die Zeile in der sie sie sich befindet. Hier endet das Vertraute. Die Spalten werden üblicherweise mit Buchstaben oder Buchstabenfolgen, die Zeilen mit Zahlen festgelegt. Die Reihenfolge ist vertauscht: Spalte zuerst, dann die Zeile. Die Adresse B3 ist also die Zelle in der zweiten Spalte und der dritten Zeile. Ein rechteckiger Bereich von Zellen wird durch die Adressen der Zellen in der linken oberen Ecke und in der rechten unteren Ecke festgelegt, durch ein ''bis''-Zeichen, etwa einen Doppelpunkt (:), getrennt. Zum Beispiel adressiert B3:D5 einen quadratischen Zellenbereich mit drei Zeilen und drei Spalten. Einem solchen Zellenbereich kann auch ein Name zugeordnet werden, zum Beispiel der Name ''FeldX''. |
|||
Jede Tabellenkalkulation enthält eine Vielzahl von Funktionen, die in Formeln verwendet werden. |
|||
=== Matrizen in Tabellenkalkulationsprogrammen === |
|||
[[Datei:Screenshot Excel mit Matrixfunktionen.png |hochkant=2|mini |Bildschirmfoto der Tabellenkalkulation ''Excel'' mit Matrixfunktionen]] |
|||
In [[Microsoft Excel]] und dem freien [[LibreOffice]] [[LibreOffice Calc|Calc]] kann jeder rechteckige Bereich, der Zahlen enthält, als Matrix interpretiert werden. Eine Matrix kann sich an beliebiger Stelle auf dem Tabellenblatt befinden. Wie in den „klassischen“ Programmiersprachen können die Matrixelemente nur Zahlen sein. Excel und Calc enthalten Funktionen speziell für Matrizen. Bei Excel (Calc) sind dies die folgenden Funktionen: |
|||
* Die Funktion MMULT gibt das [[Matrizenmultiplikation |Produkt zweier Matrizen]] zurück. |
|||
* Die Funktion MINV (MINVERSE) gibt die [[Inverse Matrix |Inverse]] einer Matrizen zurück. |
|||
* Die Funktion MDET (MDETERM) liefert die [[Determinante]] einer Matrix. |
|||
Der [[Screenshot]] zeigt ein Beispiel für eine Matrix, das Produkt der Matrix mit sich selbst, ihre inverse Matrix und ihre Determinante. Mit der inversen Matrix kann auch ein [[lineares Gleichungssystem]] kompakt gelöst werden. |
|||
Die Formel muss als ''Matrixformel'' eingegeben werden, damit sie richtig funktioniert. Nach Eingabe der Formel muss bei der Version ''Microsoft 365'' die [[Eingabetaste |EINGABETASTE]] gedrückt werden, ansonsten die Tastenkombination STRG+UMSCHALT+EINGABETASTE.<ref>[https://support.microsoft.com/de-de/office/mmult-funktion-40593ed7-a3cd-4b6b-b9a3-e4ad3c7245eb MMULT (Funktion)]</ref> |
|||
In beiden Tabellenkalkulationen gibt es Programmiersprachen, mit denen den Matrixelementen Werte zugewiesen werden können, wie in anderen „klassischen“ Programmiersprachen auch. Es gibt aber noch eine weitere Möglichkeit, die es dort nicht gibt. Die Werte für die Matrixelemente können auch von einem Tabellenblatt gelesen und nach der Ausführung einer Berechnung auf ein Tabellenblatt geschrieben werden. Dies kann helfen, den Berechnungsvorgang transparenter zu machen. |
|||
== Matrizen in Computeralgebrasystemen == |
|||
Ein ''[[Computeralgebrasystem]]'' ist ein [[Computerprogramm]], das vorrangig der Bearbeitung algebraischer Ausdrücke dient. Es löst nicht nur mathematische Aufgaben mit Zahlen (wie die „klassischen“ Programmiersprachen oder ein einfacher [[Taschenrechner]]), sondern auch solche mit [[Symbolische Mathematik |symbolischen Ausdrücken]] (wie [[Parameter (Mathematik) |Variablen]], [[Funktion (Mathematik) |Funktionen]], [[Polynom |Polynomen]] und Matrizen). |
|||
=== Matrizen in ''Mathematica'' === |
|||
In Computeralgebrasysteme ''[[Mathematica]]''<ref>{{Literatur |Autor=Stephen Wolfram |Titel=The mathematica book: Version 4 |Verlag=Wolfram Media; Cambridge University Press |Ort=Champaign IL, New York |Datum=1999 |ISBN=1579550045 |Umfang=xxvi, 1470 S.}}</ref> entfällt die separate Deklaration des Felds, das nachfolgend ebenfalls ''FeldX'' genannt wird. Die Matrixelemente können sowohl Zahlen als auch Symbole sein. Verwenden wir im nachfolgenden Beispiel Symbole. Die Matrixelemente werden in einer speziellen Syntax Zeile für Zeile eingegeben. Mit der Funktion ''MatrixForm'' wird die Matrix in der üblichen Form angezeigt. Präfixe werden von ''Mathematica'' in kleiner Schrift und in der Farbe blau ausgeschrieben (sind also keine Links). In den Klammern (* … *) stehen erläuternde Kommentare: |
|||
:<small style="color:blue"> In[1]:= </small> <code>MatrixForm [FeldX={{a, b, 0}, {c, a, b}, {0, c, a}}] (* Matrixelemente eingeben *)</code> |
|||
:<small style="color:blue"> Out[1]//MatrixForm= </small> |
|||
::::<math> |
|||
\begin{pmatrix} |
|||
a & b & 0 \\ |
|||
c & a & b \\ |
|||
0 & c & a \\ |
|||
\end{pmatrix} |
|||
</math> |
|||
Für die Matrizenmultiplikation wird zwischen die Feldnamen ein schlichter Punkt (.) gesetzt.<ref>Das übliche [[Malzeichen]], das [[Sternchen (Schriftzeichen)|Sternchen]] * der [[Tabellenkalkulation]]s-Programme und [[Programmiersprache]]n, bewirkt die elementweise Multiplikation.</ref> Zum Beispiel für die Multiplikation des Felds ''FeldX'' mit sich selbst sieht die Syntax so aus: |
|||
:<small style="color:blue"> In[2]:= </small> <code>MatrixForm [FeldX.FeldX] (* Matrix mit sich selbst multiplizieren *)</code> |
|||
:<small style="color:blue"> Out[2]//MatrixForm= </small> |
|||
::::<math> |
|||
\begin{pmatrix} |
|||
a^2+bc & 2ab & b^2 \\ |
|||
2ac & a^2+2bc & 2ab \\ |
|||
c^2 & 2ac & a^2+bc \\ |
|||
\end{pmatrix} |
|||
</math> |
|||
''Mathematica'' enthält eine Vielzahl von Funktionen, um Matrizen zu erzeugen, etwa eine [[Hilbertmatrix |Hilbert-Matrix]] oder eine [[Hankel-Matrix]], und solche, um Matrizen zu manipulieren, zum Beispiel auch exotische, wie die, die einer Matrix Zeilen/Spalten oder den Teil oberhalb/unterhalb der Diagonalen entnehmen. |
|||
=== Matrizen in ''Maple'' === |
|||
In der Computeralgebrasystem ''[[Maple (Software) |Maple]]'' wird eine Matrix als zweidimensionales Datenfeld mit Zeilen- und Spaltenindizes dargestellt, die von 1 aus indiziert werden. Matrizen können entweder direkt als zweidimensionales Datenfeld mit dem Befehl <code>array</code> oder mit dem Befehl <code>matrix</code> des Pakets für lineare Algebra ''linalg'' eingegeben werden. Das Pakets für lineare Algebra ist speziell für das Rechnen mit Vektoren und Matrizen bestimmt. Beispielsweise erstellt der Befehl <code>array(1..m,1..n)</code> eine leere (m x n)-Matrix und der Befehl <code>array(1..10,1..10,identity)</code> eine (10 x 10)-Einheitsmatrix. Spezielle Funktionen erlauben es, bestimmte Eigenschaften der Matrix abzufragen: Ist die Matrix symmetrisch, antisymmetrisch, diagonal, dünn besetzt? Das Paket für lineare Algebra enthält außerdem eine Reihe von Befehlen, um spezielle Matrizen zu erzeugen, zum Beispiel eine [[Bézout Matrix|Bezout]]-, [[Hilbert-Matrix |Hilbert]]-, [[Jacobi-Matrix |Jacobi]]-, [[Sylvestermatrix |Sylvester]]-, [[Toeplitz-Matrix |Toeplitz]]- oder [[Vandermonde-Matrix |Vandermonde]]-Matrix. |
|||
Die Syntax von ''Maple'' ist benutzerfreundlich. Die Eingabe eines Befehls wird mit der Taste ''Enter'' abgeschlossen und nicht, wie im Fall von ''Mathematica'', mit der Tastenkombination ''Shift+Enter''. Hier drei Eingabemöglichkeiten einer Matrix in ''Maple'': |
|||
<code>> FeldX:=array([[a,b,0],[c,a,b],[0,c,a]]);</code> |
|||
oder |
|||
<code>> FeldX:=array(1..3,1..3,[[a,b,0], [c,a,b], [0,c,a]]);</code> |
|||
oder |
|||
<code>> FeldX:=linalg[matrix](3,3,[a,b,0, c,a,b, 0,c,a]);</code> |
|||
Die Ausschrift nach Drücken der Taste ''Enter'' ist für alle drei Eingabevarianten gleich: |
|||
::::<math>FeldX:= |
|||
\begin{bmatrix} |
|||
a & b & 0 \\ |
|||
c & a & b \\ |
|||
0 & c & a \\ |
|||
\end{bmatrix} |
|||
</math> |
|||
Für die Multiplikation des Felds ''FeldX'' mit sich selbst sieht die Syntax so aus: |
|||
<code>> evalm(FeldX &* FeldX);</code> |
|||
Das Ergebnis ist |
|||
::::<math> |
|||
\begin{bmatrix} |
|||
a^2+bc & 2ab & b^2 \\ |
|||
2ca & 2bc+a^2 & 2ab \\ |
|||
c^2 & 2ca & a^2+bc \\ |
|||
\end{bmatrix}. |
|||
</math> |
|||
Der Befehl <code>evalm</code> interpretiert den Operator <code>&*</code> als den Matrixmultiplikationsoperator.<ref>{{Literatur |Autor=M. B. Monagan ''et al.'' |Titel=Maple 6: Programming Guide |Verlag=Waterloo Maple Inc. |Ort=Waterloo, Ont. |Datum=2000 |ISBN=1894511018 |Umfang=586 |Seiten=168}}</ref> |
|||
=== Matrizen in ''Mathcad'' === |
|||
[[Datei:Screenshot Mathcad RK01.jpg |300px |mini |Screenshot des Computeralgebrasystems ''Mathcad'' mit Matrizenoperationen und der Symbolleiste ''Matrix'' und dem Dialogfeld ''Matrix einfügen'' |
|||
]] |
|||
''[[Mathcad]]'' ist ein kommerzielles Computeralgebrasystem, das ursprünglich von der Firma ''[[Mathsoft]]'' für rein [[Numerische Mathematik |numerische]] Berechnungen entwickelt wurde. Für symbolische Berechnungen wird seit der Version 3 (1991) eine Minimalvariante des Computeralgebrasystems ''Maple'' verwendet. Die Stärke von ''Mathcad'' liegt darin, dass die Eingabe von Formeln, der Arbeitsablauf und die Dokumentation dem normalen Arbeitsablauf von [[Techniker]]n, [[Wirtschaftswissenschaft|Wirtschafts-]] und [[Naturwissenschaft]]lern angepasst wurden. So gibt es zum Beispiel für Matrizen eine eigene Symbolleiste mit einer Matrixschablone (Platzhalter), so dass keine programmspezifische Syntax für die Eingabe von Matrizen erlernt werden muss, wie dies bei den Programmen Mathematica und Maple der Fall ist. Auch das Erlernen einer Programmiersprache ist nicht erforderlich. |
|||
Die Symbolleiste ''Matrix'' von ''Mathcad'' vereinfacht außerdem |
|||
* den Zugriff auf ein bestimmtes Matrixelement oder auf eine Matrixspalte, |
|||
* die Eingabe zur Berechnung der Transponierten, der Inversen oder der Determinante der Matrix und |
|||
* die Eingabe zur Berechnung des [[Skalarprodukt |Skalar]]- oder [[Kreuzprodukt |Vektorprodukt]]s zweier Vektoren. |
|||
Eine Besonderheit aus physikalischer Sicht ist, dass ''Mathcad'' [[Einheitensystem]]e verwenden und umrechnen kann. Aufgrund des Kompromisses zwischen einfacher Bedienung und mathematischer Leistungsfähigkeit wird das Programm auch häufig in Schulen eingesetzt. |
|||
== Matrizen in Auszeichnungssprachen == |
|||
In den [[Auszeichnungssprache]]n geht es nicht darum, mit Matrizen zu rechnen, sondern sie zunächst unabhängig von ihrer grafischen Darstellung in ihrer logischen Struktur zu speichern, um sie dann wie gewohnt auf dem Bildschirm darstellen und ausdrucken zu können. |
|||
=== Matrizen in ''TeX'' === |
|||
Die Auszeichnungssprache [[TeX]] ({{enS |TeX-Markup}}) wird unter anderem in der Wikipedia für Formeln verwendet. Die folgende Tabelle zeigt eine Matrix in dieser Auszeichnungssprache, links die Eingabe, rechts das Ergebnis nach dem Rendern: |
|||
{| |
|||
! Eingabe !! Ergebnis |
|||
|- |
|||
| style="padding: 5px;"| |
|||
<pre> |
|||
<math> |
|||
\begin{pmatrix} |
|||
a & b & 0 \\ |
|||
c & a & b \\ |
|||
0 & c & a |
|||
\end{pmatrix} |
|||
</math> |
|||
</pre> |
|||
| style="padding: 5px;"| |
|||
<math> |
|||
\begin{pmatrix} |
|||
a & b & 0 \\ |
|||
c & a & b \\ |
|||
0 & c & a |
|||
\end{pmatrix} |
|||
</math> |
|||
|} |
|||
Das [[Tag (Informatik)|Tag]]-Paar <code><nowiki><math> … </math></nowiki></code> eröffnet den Math-Modus für Formeln und schließt ihn ab. <code>\begin{pmatrix} … \end{pmatrix}</code> kennzeichnet, dass eine Matrix dargestellt werden soll, die von runden Klammern ({{enS |parentheses}}) umschlossen ist. Der Übergang zum nächsten Matrixelemente der Zeile wird durch das [[Et-Zeichen]] <code>&</code> und der Zeilenwechsel durch das Zeichenpaar <code>\\</code> bewirkt. |
|||
Die in der Wikipedia verwendete Syntax unterscheidet sich geringfügig von der originalen Auszeichnungssprache [[plain TeX |TeX]], die für den Buchdruck gedacht ist.<ref>{{Literatur |Autor=Donald Ervin Knuth, Donald E. Knuth |Titel=The TEXbook |Auflage=14 |Verlag=Addison-Wesley |Ort=Reading, Mass. |Datum=1988 |ISBN=0201134489 |Umfang=483 |Seiten=176 ff.}}</ref> In Letzterer sähe das Beispiel so aus: |
|||
{| |
|||
! Eingabe !! Ergebnis |
|||
|- |
|||
| style="padding: 5px;"| |
|||
<pre> |
|||
$$ |
|||
\begin{pmatrix} |
|||
a & b & 0 \cr |
|||
c & a & b \cr |
|||
0 & c & a |
|||
\end{pmatrix} |
|||
$$ |
|||
</pre> |
|||
| style="padding: 5px;"| |
|||
<math> |
|||
\begin{pmatrix} |
|||
a & b & 0 \\ |
|||
c & a & b \\ |
|||
0 & c & a \\ |
|||
\end{pmatrix} |
|||
</math> |
|||
|} |
|||
Das Tag <code>\cr</code> steht für den Zeilenwechsel ({{enS |carriage return}}). |
|||
=== Matrizen in ''Wikitext'' === |
|||
Aber auch ohne den Math-Modus lassen sich in der Auszeichnungssprache ''Wikitext'' ({{enS |wiki markup}}) mittels Tabellen matrixähnliche Strukturen erzeugen, wie sie zum Beispiel im Artikel ''[[Falksches Schema]]'' für die Matrizenmultiplikation verwendet werden. Die folgende Tabelle zeigt eine einfache Tabelle in der Auszeichnungssprache ''Wikitext'': |
|||
<!-- |
|||
{| style="width:100%" |
|||
! style="width: 50%;"| Eingabe |
|||
! style="width: 50%;"| Ergebnis |
|||
--> |
|||
{| |
|||
! Eingabe !! Ergebnis |
|||
|- |
|||
| style="padding: 5px;"| |
|||
<pre> |
|||
{| class="wikitable" |
|||
| a || b || 0 |
|||
|- |
|||
| c || a || b |
|||
|- |
|||
| 0 || c || a |
|||
|} |
|||
</pre> |
|||
| style="padding: 5px;"| |
|||
{| class="wikitable" |
|||
| a || b || 0 |
|||
|- |
|||
| c || a || b |
|||
|- |
|||
| 0 || c || a |
|||
|} |
|||
|} |
|||
In dieser Auszeichnungssprache werden andere Zeichen für das Springen von Zelle zu Zelle (Element zu Element) und für den Zeilenumbruch verwendet als im Math-Modus. Dies zeigt, dass die verwendeten Zeichen keiner tieferen Logik folgen, sondern auf die Intentionen der ursprünglichen Entwickler zurückgehen. |
|||
=== Matrizen in ''MathML'' === |
|||
Die [[Mathematical Markup Language]] (MathML) ist eine weitere Auszeichnungssprache zur Darstellung [[Mathematische Formel|mathematischer Formeln]]. Sie gehört zur Familie der [[Extensible Markup Language|XML]]-Sprachen. MathML wurde ursprünglich als universelle Spezifikation für Browser, Office-Suiten, Computeralgebrasysteme, EPUB-Reader und LaTeX-basierte Generatoren entwickelt. Die Matrix des Beispiels wird in MathML in folgender Syntax formuliert: |
|||
{| |
|||
! Eingabe !! Ergebnis |
|||
|- |
|||
| style="padding: 5px;"| |
|||
<pre> |
|||
<mrow> |
|||
<mo> ( </mo> |
|||
<mtable> |
|||
<mtr> |
|||
<mtd> <mn>a</mn> </mtd> <mtd> <mn>b</mn> </mtd> <mtd> <mn>0</mn> </mtd> |
|||
</mtr> |
|||
<mtr> |
|||
<mtd> <mn>c</mn> </mtd> <mtd> <mn>a</mn> </mtd> <mtd> <mn>b</mn> </mtd> |
|||
</mtr> |
|||
<mtr> |
|||
<mtd> <mn>0</mn> </mtd> <mtd> <mn>c</mn> </mtd> <mtd> <mn>a</mn> </mtd> |
|||
</mtr> |
|||
</mtable> |
|||
<mo> ) </mo> |
|||
</mrow></pre> |
|||
| style="padding: 5px;"| |
|||
<math> |
|||
\begin{pmatrix} |
|||
a & b & 0 \\ |
|||
c & a & b \\ |
|||
0 & c & a |
|||
\end{pmatrix} |
|||
</math> |
|||
|} |
|||
Die Bedeutung der Tags dürfte selbsterklärend sein. Browser wie [[Mozilla Firefox|Firefox]] und [[Apple Safari|Safari]] unterstützten eine Teilmenge von MathML, das sogenannte ''MathML Core''.<ref>{{Internetquelle |url=https://developer.mozilla.org/en-US/docs/Web/MathML |titel=Math ML |hrsg=mozilla developer center |abruf=2023-03-31}}</ref><ref>[https://golem.ph.utexas.edu/~distler/blog/archives/000093.html MathML in Safari]</ref> |
|||
== Literatur == |
|||
* {{Literatur |Autor=[[Maxime Bôcher]] |Titel=Einführung in die höhere Algebra |Verlag=Teubner |Ort=Leipzig |Datum=1925 |Umfang=XII, 348 S.}} |
|||
* {{Literatur |Autor=Ewald Bodewig |Titel=Matrix calculus |Auflage=2nd, revised and enlanged edition |Verlag=North-Holland Pub. Co. |Ort=Amsterdam |Datum=1959 |ISBN=9781483274980 |Umfang=452 S.}} |
|||
* {{Literatur|Autor=[[Richard Bellman]] |Titel=Introduction to matrix algebra |Verlag=McGraw |Ort=New York |Datum=1960 |Umfang=328 S.}} |
|||
* {{Literatur |Autor=[[Rudolf Kochendörffer (Mathematiker)|Rudolf Kochendörffer]] |Titel=Determinanten und Matrizen |Auflage=2 |Verlag=B. G. Teubner |Ort=Leipzig |Datum=1961 |Umfang=VI, 144 S.}} |
|||
* {{Literatur |Autor=[[Richard S. Varga]] |Titel=Matrix Iterative Analysis |Verlag=Prentice-Hall |Ort=Englewood Cliffs, NJ |Datum=1962 |ISBN=0-13-565507-2 |Umfang=XIII, 322 S.}}<br />{{Literatur |Titel=Matrix Iterative Analysis |Auflage=2. rev. and expanded ed., 1. softcover printing |Verlag=Springer |Ort=Berlin/Heidelberg |Datum=2009 |ISBN=978-3-642-05154-8 |Online={{Google Buch |BuchID=ix__1MNMHfIC}} |Umfang=X, 358 S.}} |
|||
* {{Literatur |Autor=[[Lothar Collatz]] |Titel=Eigenwertaufgaben mit technischen Anwendungen |Auflage=2., durchges. Auflage |Verlag=Akad. Verl.-Ges. Geest & Portig |Ort=Leipzig |Datum=1963 |Umfang=XIV, 500 S.}} |
|||
* {{Literatur |Autor=[[Frank Harary]] |Titel=Graphentheorie |Verlag=[[R. Oldenbourg Verlag]] |Ort=München, Wien |Datum=1974 |ISBN=3-486-34191-X}} |
|||
* {{Literatur |Autor=[[Alston Scott Householder|Alston S. Householder]] |Titel=The Theory of Matrices in Numerical Analysis |Verlag=Dover Publications Inc. |Ort=New York, NY |Datum=1964 |ISBN=0-486-61781-5 |Umfang=xi, 257 S.}}<br />{{Literatur |Titel=The theory of matrices in numerical analysis |Auflage=Dover edition |Verlag=Dover Publications |Ort=Mineola N.Y. |Datum=2006 |ISBN=0-486-44972-6 |Online={{Google Buch |BuchID=hCre109IpRcC}} |Umfang=xi, 257 S.}}<br />Die Zahlen, aus denen sich die Matrix zusammensetzt, werden von Householder ''element/elements'' genannt, die Namen ''entry/entries'' verwendet er nicht. |
|||
* {{Literatur |Autor=[[Rudolf Zurmühl]] |Titel=Matrizen und ihre technischen Anwendungen |Auflage=4., neubearbeite Auflage |Verlag=Springer |Ort=Berlin/Göttingen/Heidelberg |Datum=1964 |Umfang=XII, 452 S.}} |
|||
* {{Literatur |Autor=Fritz Neiss |Titel=Determinanten und Matrizen |Auflage=7. Auflage |Verlag=Springer |Ort=Berlin/Heidelberg |Datum=1967 |ISBN=9783662009437 |Umfang=VII, 111 S.}} |
|||
* {{Literatur |Autor=[[Wolfgang Gröbner]] |Titel=Matrizenrechnung |Verlag=Bibliographisches Institut |Ort=Mannheim |Datum=1977 |ISBN=3411001038 |Umfang=279 S.}} |
|||
* {{Literatur |Autor=[[Dmitri Konstantinowitsch Faddejew|Dmitri K. Faddejew]], [[Wera Nikolajewna Faddejewa|Wera N. Faddejewa]] |Titel=Numerische Methoden der linearen Algebra |Auflage=5 |Verlag=VEB Deutscher Verlag der Wissenschaften |Ort=Berlin |Datum=1978 |Umfang=782 S.}} |
|||
* {{Literatur |Autor=[[Felix Ruwimowitsch Gantmacher|Feliks R. Gantmacher]] |Titel=Matrizentheorie |Verlag=VEB Deutscher Verlag der Wissenschaften |Ort=Berlin |Datum=1986 |ISBN=3-326-00001-4 |Umfang=654 S.}} |
|||
* {{Literatur |Autor=Rudolf Zurmühl, Sigurd Falk |Titel=Matrizen und Ihre Anwendungen |Auflage=7., Softcover reprint of the original 7th ed. 1997 |Verlag=Springer |Ort=Berlin / Heidelberg / New York |Datum=2013 |ISBN=978-3-642-63821-3 |Umfang=XIV, 496 S.}} |
|||
* {{Literatur |Autor=[[Gilbert Strang]] |Titel=Lineare Algebra |Verlag=Springer-Verlag |Ort=Berlin |Datum=2003 |ISBN=3-540-43949-8 |Online={{Google Buch |BuchID=DmgGBgAAQBAJ}} |Umfang=XII, 656 S.}}<br />Übersetzung der englischen Originalausgabe: {{Literatur |Autor=Gilbert Strang |Titel=Introduction to linear algebra |Auflage=2 |Verlag=Wellesley-Cambridge Press |Ort=Wellesley, Mass. |Datum=1998 |ISBN=0-9614088-5-5 |Umfang=VII, 503 S.}} |
|||
* {{Literatur |Autor=Christian Voigt, Jürgen Adamy |Titel=Formelsammlung der Matrizenrechnung |Verlag=Oldenbourg |Ort=München/Wien |Datum=2007 |ISBN=978-3-486-58350-2 |Online={{Google Buch |BuchID=6snpBQAAQBAJ}} |Umfang=XIV, 162 S.}} |
|||
* {{Literatur |Autor=[[Gene H. Golub]], [[Charles Van Loan|Charles F. van Loan]] |Titel=Matrix computations |Auflage=Fourth edition |Verlag=The Johns Hopkins University Press |Ort=Baltimore |Datum=2013 |ISBN=978-1-4214-0794-4 |Online={{Google Buch |BuchID=X5YfsuCWpxMC}} |Umfang=xxi, 756 S.}} |
|||
* {{Literatur |Autor=[[Albrecht Beutelspacher]] |Titel=Lineare Algebra: Eine Einführung in die Wissenschaft der Vektoren, Abbildungen und Matrizen |Auflage=8., aktualisierte Auflage |Verlag=Springer Spektrum |Ort=Wiesbaden |Datum=2014 |ISBN=978-3-658-02412-3 |Online={{Google Buch |BuchID=_fIoBAAAQBAJ}} |Umfang=XIV, 368 S.}} |
|||
; Konjugierte und [[Adjungierte Matrix]] : Enthält eine Matrix komplexe Zahlen, erhält man die konjugierte Matrix, indem man ihre Komponenten durch die [[Konjugation (Mathematik)|konjugiert komplexen]] Elemente ersetzt. Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix <math> A </math> wird mit <math>A^*</math> bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden. Manchmal wird auch die [[komplementäre Matrix]] <math>A^\dagger</math> als adjungierte bezeichnet. |
|||
* {{Literatur |Autor=[[Gerd Fischer (Mathematiker)|Gerd Fischer]] |Titel=Lineare Algebra: Eine Einführung für Studienanfänger |Auflage=18., aktualisierte |Verlag=Springer Spektrum |Ort=Wiesbaden |Datum=2014 |ISBN=978-3-658-03944-8 |Online={{Google Buch |BuchID=If8oBAAAQBAJ}} |Umfang=XXI, 384 S.}} |
|||
; [[Adjunkte]] oder Komplementäre Matrix: Die komplementäre Matrix <math>A^\dagger</math> einer quadratischen Matrix <math> A </math> setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor genannt wird. Für die Ermittlung der Unterdeterminanten <math> \det(A_{ij}) </math> werden die <math> i </math>-te Zeile und <math> j </math>-te Spalte von <math> A </math> gestrichen. Aus der resultierenden <math> (n-1) \times (n-1) </math>-Matrix wird dann die Determinante <math> \det(A_{ij}) </math> berechnet. Die komplementäre Matrix hat dann die Einträge <math> (-1)^{i+j}\det(A_{ij}) </math>. Diese Matrix wird manchmal auch als ''Matrix der Kofaktoren'' bezeichnet. |
|||
* [[Klaus Jänich]]: ''Lineare Algebra.'' 11. Auflage. Springer, Berlin u. a. 2008, ISBN 978-3-540-75501-2. |
|||
: Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix <math> A </math>, denn nach dem Laplaceschen Entwicklungssatz gilt |
|||
:: <math> A^T\cdot A^\dagger=\det(A)\cdot E_n</math>. |
|||
* {{Literatur |Autor=Karsten Schmidt, [[Götz Trenkler]] |Titel=Einführung in die Moderne Matrix-Algebra – Mit Anwendungen in der Statistik |Auflage=3 |Verlag=Springer |Ort=Berlin/Heidelberg |Datum=2015 |ISBN=978-3-662-46772-5 |DOI=10.1007/978-3-662-46773-2}} |
|||
* {{Literatur |Autor=Hermann Schichl, Roland Steinbauer |Titel=Einführung in das mathematische Arbeiten |Auflage=3., überarb. Auflage 2018 |Verlag=Springer |Ort=Berlin/Heidelberg |Datum=2018 |ISBN=978-3-662-56806-4 |Online={{Google Buch |BuchID=M4dnDwAAQBAJ}} |Umfang=xvii, 531 S.}} |
|||
* {{Literatur |Autor=Günter M. Gramlich |Titel=Lineare Algebra: Eine Einführung |Auflage=5., überarbeitete Auflage |Verlag=Carl Hanser Verlag |Ort=München |Datum=2021 |ISBN=978-3-446-47188-7 |Online={{Google Buch |BuchID=-jA7EAAAQBAJ}} |Umfang=249 S.}} |
|||
==Verallgemeinerungen== |
|||
== Weblinks == |
|||
Man könnte auch Matrizen mit unendlich vielen Spalten oder Zeilen betrachten. Diese kann man immer noch addieren. Um sie jedoch multiplizieren zu können, muss man zusätzliche Bedingungen an ihre Komponenten stellen (da die auftretenden Summen [[unendliche Reihe]]n sind und nicht konvergieren müssen). Die genaueren Betrachtungen solcher Fragestellungen führten zur Entstehung der [[Funktionalanalysis]], die diese Begriffe behandelt. |
|||
{{Wiktionary|Matrix}} |
|||
{{Commonscat|Matrices|Matrix}} |
|||
* [https://matrixcalc.org/de/ Rechner für Matrizenmultiplikation, Determinantenberechnung, Eigenwerte und Eigenvektoren sowie lineare Gleichungssysteme.] |
|||
* [http://www2.imm.dtu.dk/pubdb/views/edoc_download.php/3274/pdf/imm3274.pdf ''The Matrix Cookbook.''] Eine englischsprachige, umfangreiche Matrix-Formelsammlung (PDF; 522 kB). |
|||
== Einzelnachweise und Anmerkungen == |
|||
Werden analog zu den Matrizen mathematische Strukturen mit mehr als zwei Indizes definiert, so nennt man diese [[Tensor]]en. |
|||
<references /> |
|||
{{Normdaten|TYP=s|GND=4037968-1}} |
|||
[[Kategorie:Lineare Algebra]] |
|||
[[Kategorie:Matrix|!]] |
|||
[[ar:مصفوفة]] |
|||
[[bg:Матрица]] |
|||
[[bn:ম্যাট্রিক্স]] |
|||
[[ca:Matriu (matemàtiques)]] |
|||
[[cs:Matice]] |
|||
[[da:Matrix]] |
|||
[[en:Matrix (mathematics)]] |
|||
[[eo:Matrico]] |
|||
[[es:Matriz (matemáticas)]] |
|||
[[fa:ماتریس (ریاضی)]] |
|||
[[fi:Matriisi]] |
|||
[[fr:Matrice (mathématiques)]] |
|||
[[he:מטריצה]] |
|||
[[is:Fylki (stærðfræði)]] |
|||
[[it:Matrice (matematica)]] |
|||
[[ja:行列]] |
|||
[[ko:행렬]] |
|||
[[lt:Matrica (matematika)]] |
|||
[[nl:Matrix (wiskunde)]] |
|||
[[nn:Matrise]] |
|||
[[no:Matrise]] |
|||
[[pl:Macierz]] |
|||
[[pt:Matriz (matemática)]] |
|||
[[ro:Matrice (matematică)]] |
|||
[[ru:Матрица (математика)]] |
|||
[[simple:Matrix (mathematics)]] |
|||
[[sl:Matrika]] |
|||
[[sv:Matris (matematik)]] |
|||
[[th:เมทริกซ์ (คณิตศาสตร์)]] |
|||
[[uk:Матриці (в математиці)]] |
|||
[[vi:Ma trận]] |
|||
[[zh:矩阵]] |
Aktuelle Version vom 12. Juni 2025, 14:48 Uhr


In der Mathematik versteht man unter einer Matrix (Plural Matrizen) eine rechteckige Anordnung (Tabelle) von Elementen (meist mathematischer Objekte, etwa Zahlen). Rechteckig bedeutet, dass die Anordnung der Elemente in Zeilen und Spalten stattfindet. Die Zeilen und Spalten einer Matrix nennt man zusammengefasst auch Reihen.
Das Element einer Matrix in der -ten Zeile und -ten Spalte wird mit bezeichnet. Mit den Objekten einer Matrix lässt sich dann in bestimmter Weise rechnen, indem man Matrizen zum Beispiel addiert oder miteinander multipliziert.
Matrizen sind ein Schlüsselkonzept der linearen Algebra und tauchen in fast allen Gebieten der Mathematik auf. Sie stellen Zusammenhänge, in denen Linearkombinationen eine Rolle spielen, übersichtlich dar und erleichtern damit Rechen- und Gedankenvorgänge. Sie werden insbesondere dazu benutzt, lineare Abbildungen darzustellen und lineare Gleichungssysteme zu beschreiben und zu lösen.
Der Name „Matrix“ (lateinisch für „Muttertier“, „Gebärmutter“,[1] abgeleitet von mater – Mutter) wurde 1850 von James Joseph Sylvester geprägt.[2]
Eine Anordnung, wie in nebenstehender Abbildung, von Elementen erfolgt in Zeilen und Spalten. Die Verallgemeinerung auf mehr als zwei Indizes wird auch Hypermatrix genannt.[3]
Begriffe und erste Eigenschaften
[Bearbeiten | Quelltext bearbeiten]Notation
[Bearbeiten | Quelltext bearbeiten]Als Notation hat sich die Anordnung der Elemente in Zeilen und Spalten zwischen zwei großen öffnenden und schließenden Klammern durchgesetzt. In der Regel verwendet man runde Klammern, es werden aber auch eckige verwendet. Zum Beispiel bezeichnen
- und
Matrizen mit zwei Zeilen und drei Spalten. Matrizen werden üblicherweise mit Großbuchstaben (manchmal fett gedruckt oder, handschriftlich, einfach oder doppelt unterstrichen), vorzugsweise , bezeichnet. Eine Matrix mit Zeilen und Spalten nennt man eine Matrix vom Typ oder kurz -Matrix.[4] Auch die Schreibweisen -Matrix und -Matrix sind verbreitet. Man schreibt sie
- .
Elemente der Matrix
[Bearbeiten | Quelltext bearbeiten]Ein nennt man Matrixelement oder kurz Element,[5][6] neuerdings auch Matrixeintrag oder kurz Eintrag.[7] Auch die Begriffe Matrixkomponente oder kurz Komponente werden verwendet.[5] Insbesondere im Fall von - oder -Matrizen ist der Name Komponente verbreitet.[8] Bei Tensoren spricht man auch von Tensorkoordinate oder kurz Koordinate.[9]
Die Elemente können sowohl reelle als auch komplexe Zahlen sein, aber auch andere mathematische Objekte, z. B. Vektoren, Polynome, Differentiale, andere Formeln oder selbst wieder Matrizen.[10]
Ein bestimmtes Element beschreibt man durch zwei Indizes, meist ist das Element in der ersten Zeile und der ersten Spalte durch beschrieben. Allgemein bezeichnet das Element in der -ten Zeile und der -ten Spalte. Bei der Indizierung wird dabei stets als erstes der Zeilenindex und als zweites der Spaltenindex des Elements genannt. Merkregel: Zeile zuerst, Spalte später. Wenn Verwechslungsgefahr besteht, werden die beiden Indizes mit einem Komma abgetrennt. So wird zum Beispiel das Matrixelement in der ersten Zeile und der elften Spalte mit bezeichnet.
Einzelne Zeilen und Spalten einer Matrix werden oft als Spalten- oder Zeilenvektoren bezeichnet. Ein Beispiel:
- hier sind und die Spalten oder Spaltenvektoren sowie und die Zeilen oder Zeilenvektoren.
Bei einzeln stehenden Zeilen- und Spaltenvektoren einer Matrix wird gelegentlich der unveränderliche Index weggelassen. Manchmal werden Spaltenvektoren zur kompakteren Darstellung als transponierte Zeilenvektoren geschrieben, also:
- oder als oder
Typ
[Bearbeiten | Quelltext bearbeiten]Der Typ einer Matrix ergibt sich aus der Anzahl ihrer Zeilen und Spalten. Eine Matrix mit Zeilen und Spalten nennt man eine -Matrix (sprich: m-mal-n- oder m-Kreuz-n-Matrix). Stimmen Zeilen- und Spaltenanzahl überein, so spricht man von einer quadratischen Matrix.
Schreibweise für quadratische Matrix A:
Gesprochen: A ist eine Matrix der Menge (Matrizenring) der quadratischen Matrizen mit n Zeilen und Spalten über dem Ring R (in der Regel ist R ein Körper)
Eine Matrix, die aus nur einer Spalte oder nur einer Zeile besteht, wird üblicherweise als Vektor aufgefasst. Einen Vektor mit Elementen kann man je nach Kontext als einspaltige -Matrix oder einzeilige -Matrix darstellen. Neben den Begriffen Spaltenvektor und Zeilenvektor sind hierfür die Begriffe Spaltenmatrix und Zeilenmatrix geläufig. Eine -Matrix ist sowohl Spalten- als auch Zeilenmatrix und wird als Skalar angesehen.
Formale Darstellung
[Bearbeiten | Quelltext bearbeiten]Eine Matrix ist eine doppelt indizierte Familie. Formal ist dies eine Funktion
die jedem Indexpaar als Funktionswert das Element zuordnet. Beispielsweise wird dem Indexpaar als Funktionswert das Element zugeordnet. Der Funktionswert ist also das Element in der -ten Zeile und der -ten Spalte. Die Variablen und entsprechen der Anzahl der Zeilen bzw. Spalten. Nicht zu verwechseln mit dieser formalen Definition einer Matrix als Funktion ist, dass Matrizen selbst lineare Abbildungen beschreiben.
Die Menge aller -Matrizen über der Menge wird in üblicher mathematischer Notation auch geschrieben; hierfür hat sich die Kurznotation eingebürgert. Manchmal werden die Schreibweisen oder seltener benutzt.
Addition und Multiplikation
[Bearbeiten | Quelltext bearbeiten]Auf dem Raum der Matrizen werden elementare Rechenoperationen definiert.
Matrizenaddition
[Bearbeiten | Quelltext bearbeiten]Zwei Matrizen können addiert werden, wenn sie vom selben Typ sind, das heißt, wenn sie dieselbe Anzahl von Zeilen und dieselbe Anzahl von Spalten besitzen. Die Summe zweier -Matrizen ist komponentenweise definiert:
Rechenbeispiel:
In der linearen Algebra sind die Matrixelemente üblicherweise Elemente eines Körpers (Körperelemente), wie der reellen oder komplexen Zahlen. In diesem Fall ist die Matrizenaddition assoziativ, kommutativ und besitzt mit der Nullmatrix ein neutrales Element. Im Allgemeinen besitzt die Matrizenaddition diese Eigenschaften jedoch nur, wenn die Matrixelemente Elemente einer algebraischen Struktur sind, die diese Eigenschaften hat.
Skalarmultiplikation
[Bearbeiten | Quelltext bearbeiten]Eine Matrix wird mit einem Skalar multipliziert, indem jedes Element der Matrix mit dem Skalar multipliziert wird:
Rechenbeispiel:
Die Skalarmultiplikation darf nicht mit dem Skalarprodukt verwechselt werden. Um die Skalarmultiplikation durchführen zu dürfen, müssen der Skalar und die Matrixelemente demselben Ring entstammen. Die Menge der -Matrizen ist in diesem Fall ein (Links-)Modul über
Matrizenmultiplikation
[Bearbeiten | Quelltext bearbeiten]Zwei Matrizen können multipliziert werden, wenn die Spaltenanzahl der linken mit der Zeilenanzahl der rechten Matrix übereinstimmt. Das Produkt einer -Matrix und einer -Matrix ist eine -Matrix deren Elemente berechnet werden, indem die Produktsummenformel, ähnlich dem Skalarprodukt, auf Paare aus einem Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird:
Die Matrizenmultiplikation ist nicht kommutativ, d. h., im Allgemeinen gilt . Die Matrizenmultiplikation ist allerdings assoziativ, d. h., es gilt stets:
Eine Kette von Matrix-Multiplikationen kann daher beliebig geklammert werden. Das Problem, eine Klammerung zu finden, die zu einer Berechnung mit der minimalen Anzahl von elementaren arithmetischen Operationen führt, ist ein Optimierungsproblem. Die Matrizenaddition und Matrizenmultiplikation genügen zudem den beiden Distributivgesetzen:
für alle -Matrizen und -Matrizen sowie
für alle -Matrizen und -Matrizen
Quadratische Matrizen können mit sich selbst multipliziert werden; analog zur Potenz bei den reellen Zahlen führt man abkürzend die Matrixpotenz oder ein. Damit ist es auch sinnvoll, quadratische Matrizen als Elemente in Polynome einzusetzen. Zu weitergehenden Ausführungen hierzu siehe unter Charakteristisches Polynom. Zur einfacheren Berechnung kann hier die jordansche Normalform verwendet werden. Quadratische Matrizen über oder kann man darüber hinaus sogar in Potenzreihen einsetzen, vgl. Matrixexponential. Eine besondere Rolle bezüglich der Matrizenmultiplikation spielen die quadratischen Matrizen über einem Ring , also . Diese bilden selbst mit der Matrizenaddition und -multiplikation wiederum einen Ring, der Matrizenring genannt wird.
Weitere Rechenoperationen
[Bearbeiten | Quelltext bearbeiten]Transponierte Matrix
[Bearbeiten | Quelltext bearbeiten]
Die Transponierte einer -Matrix ist die -Matrix , das heißt, zu
ist
die Transponierte. Man schreibt also die erste Zeile als erste Spalte, die zweite Zeile als zweite Spalte usw. Die Matrix wird an ihrer Hauptdiagonalen gespiegelt. Es gelten die folgenden Rechenregeln:
Bei Matrizen über ist die adjungierte Matrix genau die transponierte Matrix.
Inverse Matrix
[Bearbeiten | Quelltext bearbeiten]Falls die Determinante einer quadratischen -Matrix über einem Körper nicht gleich null ist, d. h., falls , so existiert die zur Matrix inverse Matrix . Für diese gilt
- ,
wobei die -Einheitsmatrix ist. Matrizen, die eine inverse Matrix besitzen, bezeichnet man als invertierbare oder reguläre Matrizen. Diese haben vollen Rang. Umgekehrt werden nichtinvertierbare Matrizen als singuläre Matrizen bezeichnet. Eine Verallgemeinerung der Inversen für singuläre Matrizen sind sog. pseudoinverse Matrizen.
Vektor-Vektor-Produkte
[Bearbeiten | Quelltext bearbeiten]Das Matrixprodukt zweier -Vektoren und ist nicht definiert, da die Anzahl der Spalten von im Allgemeinen ungleich der Anzahl der Zeilen von ist. Die beiden Produkte und existieren jedoch.
Das erste Produkt ist eine -Matrix, die als Zahl interpretiert wird; sie wird das Standardskalarprodukt von und genannt und mit oder bezeichnet. Geometrisch entspricht dieses Skalarprodukt in einem kartesischen Koordinatensystem dem Produkt
der Beträge der beiden Vektoren und des Kosinus des von den beiden Vektoren eingeschlossenen Winkels. Beispielsweise gilt
Das zweite Produkt ist eine -Matrix und heißt dyadisches Produkt oder Tensorprodukt von und (geschrieben ). Seine Spalten sind skalare Vielfache von , seine Zeilen skalare Vielfache von . Beispielsweise gilt
Vektorräume von Matrizen
[Bearbeiten | Quelltext bearbeiten]Die Menge der -Matrizen über einem Körper bildet mit der Matrizenaddition und der Skalarmultiplikation einen -Vektorraum. Dieser Vektorraum hat die Dimension . Eine Basis von ist gegeben durch die Menge der Standardmatrizen mit , . Diese Basis wird manchmal als Standardbasis von bezeichnet.
Die Spur des Matrixprodukts
ist dann im Spezialfall ein reelles Skalarprodukt. In diesem euklidischen Vektorraum stehen die symmetrischen Matrizen und die schiefsymmetrischen Matrizen senkrecht aufeinander. Ist eine symmetrische und eine schiefsymmetrische Matrix, so gilt .
Im Spezialfall ist die Spur des Matrixproduktes
ein komplexes Skalarprodukt und der Matrizenraum wird zu einem unitären Vektorraum. Dieses Skalarprodukt wird Frobenius-Skalarprodukt genannt. Die von dem Frobenius-Skalarprodukt induzierte Norm heißt Frobeniusnorm und mit ihr wird der Matrizenraum zu einem Banachraum.
Anwendungen
[Bearbeiten | Quelltext bearbeiten]Zusammenhang mit linearen Abbildungen
[Bearbeiten | Quelltext bearbeiten]Das Besondere an Matrizen über einem Ring ist der Zusammenhang zu linearen Abbildungen. Zu jeder Matrix lässt sich eine lineare Abbildung mit Definitionsbereich (Menge der Spaltenvektoren) und Wertebereich definieren, indem man jeden Spaltenvektor auf abbildet. Umgekehrt entspricht jeder linearen Abbildung auf diese Weise genau eine -Matrix ; dabei sind die Spalten von die Bilder der Standard-Basisvektoren von unter . Diesen Zusammenhang zwischen linearen Abbildungen und Matrizen bezeichnet man auch als (kanonischen) Isomorphismus
Er stellt bei vorgegebenem und eine Bijektion zwischen der Menge der Matrizen und der Menge der linearen Abbildungen dar. Das Matrixprodukt geht hierbei über in die Komposition (Hintereinanderausführung) linearer Abbildungen. Weil die Klammerung bei der Hintereinanderausführung dreier linearer Abbildungen keine Rolle spielt, gilt dies für die Matrixmultiplikation, diese ist also assoziativ.
Ist sogar ein Körper, kann man statt der Spaltenvektorräume beliebige endlichdimensionale -Vektorräume und (der Dimension bzw. ) betrachten. (Falls ein kommutativer Ring mit 1 ist, dann kann man analog freie K-Moduln betrachten.) Diese sind nach Wahl von Basen von und von zu den Koordinatenräumen bzw. isomorph, weil zu einem beliebigen Vektor eine eindeutige Zerlegung in Basisvektoren
existiert und die darin vorkommenden Körperelemente den Koordinatenvektor
bilden. Jedoch hängt der Koordinatenvektor von der verwendeten Basis ab, die daher in der Bezeichnung vorkommt.
Analog verhält es sich im Vektorraum Ist eine lineare Abbildung gegeben, so lassen sich die Bilder der Basisvektoren von eindeutig in die Basisvektoren von zerlegen in der Form
mit Koordinatenvektor
Die Abbildung ist dann vollständig festgelegt durch die sog. Abbildungsmatrix
denn für das Bild des o. g. Vektors gilt
also („Koordinatenvektor = Matrix mal Koordinatenvektor“). (Die Matrix hängt von den verwendeten Basen und ab; bei der Multiplikation wird die Basis , die links und rechts vom Malpunkt steht, „weggekürzt“, und die „außen“ stehende Basis bleibt übrig.)
Die Hintereinanderausführung zweier linearer Abbildungen und (mit Basen , bzw. ) entspricht dabei der Matrixmultiplikation, also
(auch hier wird die Basis „weggekürzt“).
Somit ist die Menge der linearen Abbildungen von nach wieder isomorph zu Der Isomorphismus hängt aber von den gewählten Basen und ab und ist daher nicht kanonisch: Bei Wahl einer anderen Basis für bzw. für wird derselben linearen Abbildung nämlich eine andere Matrix zugeordnet, die aus der alten durch Multiplikation von rechts bzw. links mit einer nur von den beteiligten Basen abhängigen invertierbaren - bzw. -Matrix (sog. Basiswechselmatrix) entsteht. Das folgt durch zweimalige Anwendung der Multiplikationsregel aus dem vorigen Absatz, nämlich
(„Matrix = Basiswechselmatrix mal Matrix mal Basiswechselmatrix“). Dabei bilden die Identitätsabbildungen und jeden Vektor aus bzw. auf sich selbst ab.
Bleibt eine Eigenschaft von Matrizen unberührt von solchen Basiswechseln, so ist es sinnvoll, diese Eigenschaft basisunabhängig der entsprechenden linearen Abbildung zuzusprechen.
Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang und die Determinante einer Matrix. Der Rang ist (falls ein Körper ist) im angeführten Sinne basisunabhängig, und man kann somit vom Rang auch bei linearen Abbildungen sprechen. Die Determinante ist nur für quadratische Matrizen definiert, die dem Fall entsprechen; sie bleibt unverändert, wenn derselbe Basiswechsel im Definitions- und Wertebereich durchgeführt wird, wobei beide Basiswechselmatrizen zueinander invers sind:
In diesem Sinne ist also die Determinante basisunabhängig.
Umformen von Matrizengleichungen
[Bearbeiten | Quelltext bearbeiten]Speziell in den multivariaten Verfahren werden häufig Beweisführungen, Herleitungen usw. im Matrizenkalkül durchgeführt.
Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt, wobei jedoch die Nichtkommutativität der Matrixmultiplikation sowie die Existenz von Nullteilern beachtet werden muss.
Beispiel: Lineares Gleichungssystem als einfache Umformung
Gesucht ist der Lösungsvektor eines linearen Gleichungssystems
mit als -Koeffizientenmatrix. Wenn die inverse Matrix existiert, kann man mit ihr von links multiplizieren:
und man erhält als Lösung
Spezielle Matrizen
[Bearbeiten | Quelltext bearbeiten]Eigenschaften von Endomorphismen
[Bearbeiten | Quelltext bearbeiten]Die folgenden Eigenschaften quadratischer Matrizen entsprechen Eigenschaften von Endomorphismen, die durch sie dargestellt werden.
Eine reelle Matrix ist orthogonal, wenn die zugehörige lineare Abbildung das Standardskalarprodukt erhält, das heißt, wenn
gilt. Diese Bedingung ist äquivalent dazu, dass die Gleichung
bzw.
erfüllt. Diese Matrizen stellen Spiegelungen, Drehungen und Drehspiegelungen dar.
Sie sind das komplexe Gegenstück zu den orthogonalen Matrizen. Eine komplexe Matrix ist unitär, wenn die zugehörige Transformation die Normierung erhält, das heißt, wenn
gilt. Diese Bedingung ist äquivalent dazu, dass die Gleichung
erfüllt; dabei bezeichnet die konjugiert-transponierte Matrix zu Fasst man den -dimensionalen komplexen Vektorraum als -dimensionalen reellen Vektorraum auf, so entsprechen die unitären Matrizen genau denjenigen orthogonalen Matrizen, die mit der Multiplikation mit vertauschen.
Eine Matrix ist eine Projektionsmatrix, falls
gilt, sie also idempotent ist: Das heißt, die mehrfache Anwendung einer Projektionsmatrix auf einen Vektor lässt das Resultat unverändert. Eine idempotente Matrix hat keinen vollen Rang, es sei denn, sie ist die Einheitsmatrix. Geometrisch entsprechen Projektionsmatrizen der Parallelprojektion entlang des Nullraumes der Matrix. Steht der Nullraum senkrecht auf dem Bildraum, so erhält man eine Orthogonalprojektion.
Beispiel: Es sei eine -Matrix und damit selbst nicht invertierbar. Falls der Rang von gleich ist, dann ist invertierbar und die -Matrix
idempotent. Diese Matrix wird beispielsweise in der Methode der kleinsten Quadrate verwendet.
Eine Matrix heißt nilpotent, falls eine Potenz (und damit auch jede höhere Potenz) die Nullmatrix ergibt.
Eigenschaften von Bilinearformen
[Bearbeiten | Quelltext bearbeiten]Im Folgenden sind Eigenschaften von Matrizen aufgelistet, die Eigenschaften der zugehörigen Bilinearform
entsprechen. Trotzdem können diese Eigenschaften für die dargestellten Endomorphismen eine eigenständige Bedeutung besitzen.
Eine Matrix heißt symmetrisch, wenn sie gleich ihrer transponierten Matrix ist:
Anschaulich gesprochen sind die Elemente symmetrischer Matrizen symmetrisch zur Hauptdiagonalen. Beispiel:
Symmetrische Matrizen entsprechen einerseits symmetrischen Bilinearformen:
andererseits den selbstadjungierten linearen Abbildungen:
Hermitesche Matrizen sind das komplexe Analogon der symmetrischen Matrizen. Sie entsprechen den hermiteschen Sesquilinearformen und den selbstadjungierten Endomorphismen.
Eine Matrix ist hermitesch oder selbstadjungiert, wenn gilt:
Eine Matrix heißt schiefsymmetrisch oder antisymmetrisch, wenn gilt:
Um diese Bedingung zu erfüllen, müssen alle Elemente der Hauptdiagonale den Wert Null haben; die restlichen Werte werden an der Hauptdiagonale gespiegelt und mit multipliziert.
Beispiel:
Schiefsymmetrische Matrizen entsprechen antisymmetrischen Bilinearformen:
und antiselbstadjungierten Endomorphismen:
Eine reelle Matrix ist positiv definit, wenn die zugehörige Bilinearform positiv definit ist, das heißt, wenn für alle Vektoren gilt:
Positiv definite Matrizen definieren verallgemeinerte Skalarprodukte. Hat die Bilinearform keine negativen Werte, heißt die Matrix positiv semidefinit. Analog kann eine Matrix negativ definit beziehungsweise negativ semidefinit heißen, wenn die obige Bilinearform nur negative beziehungsweise keine positiven Werte hat. Matrizen, die keine dieser Eigenschaften erfüllen, heißen indefinit.
Weitere Konstruktionen
[Bearbeiten | Quelltext bearbeiten]Enthält eine Matrix komplexe Zahlen, erhält man die konjugierte Matrix, indem man ihre Komponenten durch die konjugiert komplexen Elemente ersetzt. Die adjungierte Matrix (auch hermitesch konjugierte Matrix) einer Matrix wird mit bezeichnet und entspricht der transponierten Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden.
- Adjunkte oder komplementäre Matrix
Die komplementäre Matrix einer quadratischen Matrix setzt sich aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante Minor genannt wird. Für die Ermittlung der Unterdeterminanten werden die -te Zeile und -te Spalte von gestrichen. Aus der resultierenden -Matrix wird dann die Determinante berechnet. Die komplementäre Matrix hat dann die Elemente Diese Matrix wird manchmal auch als Matrix der Kofaktoren bezeichnet.
Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der Inversen einer Matrix , denn nach dem Laplaceschen Entwicklungssatz gilt:
Damit ist die Inverse wenn
Eine Übergangs- oder stochastische Matrix ist eine Matrix, deren Elemente alle zwischen 0 und 1 liegen und deren Zeilen- oder Spaltensummen 1 ergeben. Sie dienen in der Stochastik zur Charakterisierung zeitlich diskreter Markow-Ketten mit endlichem Zustandsraum. Ein Spezialfall hiervon sind die doppelt-stochastischen Matrizen, bei denen Zeilen- und Spaltensummen 1 ergeben.
Unendlichdimensionale Räume
[Bearbeiten | Quelltext bearbeiten]Für unendlichdimensionale Vektorräume (sogar über Schiefkörpern) gilt, dass jede lineare Abbildung eindeutig durch die Bilder der Elemente einer Basis bestimmt ist und diese beliebig gewählt werden und zu einer linearen Abbildung auf ganz fortgesetzt werden können. Ist nun eine Basis von , so lässt sich eindeutig als (endliche) Linearkombination von Basisvektoren schreiben, d. h., es existieren eindeutige Koeffizienten für , von denen nur endlich viele von null verschieden sind, sodass . Dementsprechend lässt sich jede lineare Abbildung als möglicherweise unendliche Matrix auffassen, wobei jedoch in jeder Spalte ( „nummeriere“ die Spalten und die Spalte zu bestehe dann aus den von den Elementen von nummerierten Koordinaten ) nur endlich viele Elemente von null verschieden sind, und umgekehrt. Die entsprechend definierte Matrixmultiplikation entspricht wiederum der Komposition linearer Abbildungen.
In der Funktionalanalysis betrachtet man topologische Vektorräume, d. h. Vektorräume, auf denen man von Konvergenz sprechen und dementsprechend unendliche Summen bilden kann. Auf solchen können Matrizen mit unendlich vielen von null verschiedenen Elementen in einer Spalte unter Umständen als lineare Abbildungen verstanden werden, wobei auch andere Basis-Begriffe zugrunde liegen.
Einen speziellen Fall bilden Hilberträume. Seien also Hilberträume und Orthonormalbasen von bzw. . Dann erhält man eine Matrixdarstellung eines linearen Operators (für lediglich dicht definierte Operatoren funktioniert es ebenso, falls der Definitionsbereich eine Orthonormalbasis besitzt, was im abzählbardimensionalen Fall stets zutrifft), indem man die Matrixelemente definiert; dabei ist das Skalarprodukt im betrachteten Hilbertraum (im komplexen Fall semilinear im ersten Argument).
Dieses sogenannte Hilbert-Schmidt-Skalarprodukt lässt sich im unendlichdimensionalen Fall nur noch für eine bestimmte Teilklasse von linearen Operatoren, die sogenannten Hilbert-Schmidt-Operatoren, definieren, bei denen die Reihe, über die dieses Skalarprodukt definiert ist, stets konvergiert.
Matrizen in „klassischen“ Programmiersprachen
[Bearbeiten | Quelltext bearbeiten]Matrizen können in den meisten höheren Programmiersprachen deklariert und gespeichert werden. Eine Matrix wird in Programmiersprachen in einer Datenstruktur-Variante gespeichert, die in der deutschsprachigen Fachliteratur meist Datenfeld oder kurz Feld (englisch array) genannt wird.[11] Das Feld erhält einen Feldnamen, für den in den Beispielen FeldX gewählt wurde. Der Zugriff auf bestimmte Inhalte eines Felds erfolgt mit Hilfe von Indizes, die dessen Position bezeichnen. Bei mehrdimensionalen Feldern gibt es für jede Dimension einen Index.[12] Alle Elemente eines Felds haben in der Regel den gleichen Datentyp, sind also zum Beispiel alle entweder ganze Zahlen, natürliche Zahlen oder Gleitkommazahlen. In Computeralgebrasystemen können es auch symbolische Ausdrücke (wie Variable, Funktionen oder Polynome) sein.
Beim Deklarieren werden Felder in einer sprachspezifischen Syntax formuliert. Beispiele:
REAL*8 FeldX(100,...)
(Schlüsselwort REAL*8 mit Angabe der 8 Bytes für den Datentyp Gleitkommazahl, Feldname, Anzahl der Feldelemente je Dimension in runden Klammern): FortranDim FeldX (100,...) As Double
(Schlüsselwort Dim, Feldname, Anzahl der Feldelemente je Dimension in runden Klammern, Datentyp Gleitkommazahl doppelter Länge): Visual Basic, Visual Basic for Applications und Visual Basic ScriptFeldX (100)
(Feldname, Anzahl der Feldelemente in runden Klammern): PL/IFeldX [100,...]
(Feldname, Anzahl der Feldelemente je Dimension in eckigen Klammern): C#[13]FeldX [100][][]
(Feldname, Anzahl der Feldelemente je Dimension, jeweils in gesonderten eckigen Klammern): C/C++,[14] Java[15]FeldX array (100)
(Feldname, Schlüsselwort array, Anzahl der Feldelemente in runden Klammern): Modula-2FeldX occurs 100.
(Feldname, Schlüsselwort occurs, Anzahl der Feldelemente ohne Klammern): Cobol
Die so deklarierten „Platzhalter“ werden in dem jeweiligen Programm mit „Werten“ befüllt. Matrizenmanipulationen muss der Anwender selbst programmieren.
Matrizen in Tabellenkalkulationen
[Bearbeiten | Quelltext bearbeiten]Eine Tabellenkalkulation (englisch Spreadsheet) ist eine Software zur interaktiven Eingabe und Bearbeitung von numerischen und alphanumerischen Daten in Form einer Tabelle. Wer mit der Matrizenrechnung vertraut ist und sich dann in eine Tabellenkalkulation einarbeitet, findet zunächst etwas Vertrautes vor: Das Tabellenblatt, die regelmäßige Unterteilung einer Fläche in Kästchen, die hier nicht Elemente, sondern Zellen genannt werden. Eine Zelle wird ebenfalls durch „Koordinaten“ adressiert, durch die Spalte und die Zeile in der sie sie sich befindet. Hier endet das Vertraute. Die Spalten werden üblicherweise mit Buchstaben oder Buchstabenfolgen, die Zeilen mit Zahlen festgelegt. Die Reihenfolge ist vertauscht: Spalte zuerst, dann die Zeile. Die Adresse B3 ist also die Zelle in der zweiten Spalte und der dritten Zeile. Ein rechteckiger Bereich von Zellen wird durch die Adressen der Zellen in der linken oberen Ecke und in der rechten unteren Ecke festgelegt, durch ein bis-Zeichen, etwa einen Doppelpunkt (:), getrennt. Zum Beispiel adressiert B3:D5 einen quadratischen Zellenbereich mit drei Zeilen und drei Spalten. Einem solchen Zellenbereich kann auch ein Name zugeordnet werden, zum Beispiel der Name FeldX.
Jede Tabellenkalkulation enthält eine Vielzahl von Funktionen, die in Formeln verwendet werden.
Matrizen in Tabellenkalkulationsprogrammen
[Bearbeiten | Quelltext bearbeiten]
In Microsoft Excel und dem freien LibreOffice Calc kann jeder rechteckige Bereich, der Zahlen enthält, als Matrix interpretiert werden. Eine Matrix kann sich an beliebiger Stelle auf dem Tabellenblatt befinden. Wie in den „klassischen“ Programmiersprachen können die Matrixelemente nur Zahlen sein. Excel und Calc enthalten Funktionen speziell für Matrizen. Bei Excel (Calc) sind dies die folgenden Funktionen:
- Die Funktion MMULT gibt das Produkt zweier Matrizen zurück.
- Die Funktion MINV (MINVERSE) gibt die Inverse einer Matrizen zurück.
- Die Funktion MDET (MDETERM) liefert die Determinante einer Matrix.
Der Screenshot zeigt ein Beispiel für eine Matrix, das Produkt der Matrix mit sich selbst, ihre inverse Matrix und ihre Determinante. Mit der inversen Matrix kann auch ein lineares Gleichungssystem kompakt gelöst werden.
Die Formel muss als Matrixformel eingegeben werden, damit sie richtig funktioniert. Nach Eingabe der Formel muss bei der Version Microsoft 365 die EINGABETASTE gedrückt werden, ansonsten die Tastenkombination STRG+UMSCHALT+EINGABETASTE.[16]
In beiden Tabellenkalkulationen gibt es Programmiersprachen, mit denen den Matrixelementen Werte zugewiesen werden können, wie in anderen „klassischen“ Programmiersprachen auch. Es gibt aber noch eine weitere Möglichkeit, die es dort nicht gibt. Die Werte für die Matrixelemente können auch von einem Tabellenblatt gelesen und nach der Ausführung einer Berechnung auf ein Tabellenblatt geschrieben werden. Dies kann helfen, den Berechnungsvorgang transparenter zu machen.
Matrizen in Computeralgebrasystemen
[Bearbeiten | Quelltext bearbeiten]Ein Computeralgebrasystem ist ein Computerprogramm, das vorrangig der Bearbeitung algebraischer Ausdrücke dient. Es löst nicht nur mathematische Aufgaben mit Zahlen (wie die „klassischen“ Programmiersprachen oder ein einfacher Taschenrechner), sondern auch solche mit symbolischen Ausdrücken (wie Variablen, Funktionen, Polynomen und Matrizen).
Matrizen in Mathematica
[Bearbeiten | Quelltext bearbeiten]In Computeralgebrasysteme Mathematica[17] entfällt die separate Deklaration des Felds, das nachfolgend ebenfalls FeldX genannt wird. Die Matrixelemente können sowohl Zahlen als auch Symbole sein. Verwenden wir im nachfolgenden Beispiel Symbole. Die Matrixelemente werden in einer speziellen Syntax Zeile für Zeile eingegeben. Mit der Funktion MatrixForm wird die Matrix in der üblichen Form angezeigt. Präfixe werden von Mathematica in kleiner Schrift und in der Farbe blau ausgeschrieben (sind also keine Links). In den Klammern (* … *) stehen erläuternde Kommentare:
- In[1]:=
MatrixForm [FeldX={{a, b, 0}, {c, a, b}, {0, c, a}}] (* Matrixelemente eingeben *)
- Out[1]//MatrixForm=
Für die Matrizenmultiplikation wird zwischen die Feldnamen ein schlichter Punkt (.) gesetzt.[18] Zum Beispiel für die Multiplikation des Felds FeldX mit sich selbst sieht die Syntax so aus:
- In[2]:=
MatrixForm [FeldX.FeldX] (* Matrix mit sich selbst multiplizieren *)
- Out[2]//MatrixForm=
Mathematica enthält eine Vielzahl von Funktionen, um Matrizen zu erzeugen, etwa eine Hilbert-Matrix oder eine Hankel-Matrix, und solche, um Matrizen zu manipulieren, zum Beispiel auch exotische, wie die, die einer Matrix Zeilen/Spalten oder den Teil oberhalb/unterhalb der Diagonalen entnehmen.
Matrizen in Maple
[Bearbeiten | Quelltext bearbeiten]In der Computeralgebrasystem Maple wird eine Matrix als zweidimensionales Datenfeld mit Zeilen- und Spaltenindizes dargestellt, die von 1 aus indiziert werden. Matrizen können entweder direkt als zweidimensionales Datenfeld mit dem Befehl array
oder mit dem Befehl matrix
des Pakets für lineare Algebra linalg eingegeben werden. Das Pakets für lineare Algebra ist speziell für das Rechnen mit Vektoren und Matrizen bestimmt. Beispielsweise erstellt der Befehl array(1..m,1..n)
eine leere (m x n)-Matrix und der Befehl array(1..10,1..10,identity)
eine (10 x 10)-Einheitsmatrix. Spezielle Funktionen erlauben es, bestimmte Eigenschaften der Matrix abzufragen: Ist die Matrix symmetrisch, antisymmetrisch, diagonal, dünn besetzt? Das Paket für lineare Algebra enthält außerdem eine Reihe von Befehlen, um spezielle Matrizen zu erzeugen, zum Beispiel eine Bezout-, Hilbert-, Jacobi-, Sylvester-, Toeplitz- oder Vandermonde-Matrix.
Die Syntax von Maple ist benutzerfreundlich. Die Eingabe eines Befehls wird mit der Taste Enter abgeschlossen und nicht, wie im Fall von Mathematica, mit der Tastenkombination Shift+Enter. Hier drei Eingabemöglichkeiten einer Matrix in Maple:
> FeldX:=array([[a,b,0],[c,a,b],[0,c,a]]);
oder
> FeldX:=array(1..3,1..3,[[a,b,0], [c,a,b], [0,c,a]]);
oder
> FeldX:=linalg[matrix](3,3,[a,b,0, c,a,b, 0,c,a]);
Die Ausschrift nach Drücken der Taste Enter ist für alle drei Eingabevarianten gleich:
Für die Multiplikation des Felds FeldX mit sich selbst sieht die Syntax so aus:
> evalm(FeldX &* FeldX);
Das Ergebnis ist
Der Befehl evalm
interpretiert den Operator &*
als den Matrixmultiplikationsoperator.[19]
Matrizen in Mathcad
[Bearbeiten | Quelltext bearbeiten]
Mathcad ist ein kommerzielles Computeralgebrasystem, das ursprünglich von der Firma Mathsoft für rein numerische Berechnungen entwickelt wurde. Für symbolische Berechnungen wird seit der Version 3 (1991) eine Minimalvariante des Computeralgebrasystems Maple verwendet. Die Stärke von Mathcad liegt darin, dass die Eingabe von Formeln, der Arbeitsablauf und die Dokumentation dem normalen Arbeitsablauf von Technikern, Wirtschafts- und Naturwissenschaftlern angepasst wurden. So gibt es zum Beispiel für Matrizen eine eigene Symbolleiste mit einer Matrixschablone (Platzhalter), so dass keine programmspezifische Syntax für die Eingabe von Matrizen erlernt werden muss, wie dies bei den Programmen Mathematica und Maple der Fall ist. Auch das Erlernen einer Programmiersprache ist nicht erforderlich.
Die Symbolleiste Matrix von Mathcad vereinfacht außerdem
- den Zugriff auf ein bestimmtes Matrixelement oder auf eine Matrixspalte,
- die Eingabe zur Berechnung der Transponierten, der Inversen oder der Determinante der Matrix und
- die Eingabe zur Berechnung des Skalar- oder Vektorprodukts zweier Vektoren.
Eine Besonderheit aus physikalischer Sicht ist, dass Mathcad Einheitensysteme verwenden und umrechnen kann. Aufgrund des Kompromisses zwischen einfacher Bedienung und mathematischer Leistungsfähigkeit wird das Programm auch häufig in Schulen eingesetzt.
Matrizen in Auszeichnungssprachen
[Bearbeiten | Quelltext bearbeiten]In den Auszeichnungssprachen geht es nicht darum, mit Matrizen zu rechnen, sondern sie zunächst unabhängig von ihrer grafischen Darstellung in ihrer logischen Struktur zu speichern, um sie dann wie gewohnt auf dem Bildschirm darstellen und ausdrucken zu können.
Matrizen in TeX
[Bearbeiten | Quelltext bearbeiten]Die Auszeichnungssprache TeX (englisch TeX-Markup) wird unter anderem in der Wikipedia für Formeln verwendet. Die folgende Tabelle zeigt eine Matrix in dieser Auszeichnungssprache, links die Eingabe, rechts das Ergebnis nach dem Rendern:
Eingabe | Ergebnis |
---|---|
<math> \begin{pmatrix} a & b & 0 \\ c & a & b \\ 0 & c & a \end{pmatrix} </math> |
|
Das Tag-Paar <math> … </math>
eröffnet den Math-Modus für Formeln und schließt ihn ab. \begin{pmatrix} … \end{pmatrix}
kennzeichnet, dass eine Matrix dargestellt werden soll, die von runden Klammern (englisch parentheses) umschlossen ist. Der Übergang zum nächsten Matrixelemente der Zeile wird durch das Et-Zeichen &
und der Zeilenwechsel durch das Zeichenpaar \\
bewirkt.
Die in der Wikipedia verwendete Syntax unterscheidet sich geringfügig von der originalen Auszeichnungssprache TeX, die für den Buchdruck gedacht ist.[20] In Letzterer sähe das Beispiel so aus:
Eingabe | Ergebnis |
---|---|
$$ \begin{pmatrix} a & b & 0 \cr c & a & b \cr 0 & c & a \end{pmatrix} $$ |
|
Das Tag \cr
steht für den Zeilenwechsel (englisch carriage return).
Matrizen in Wikitext
[Bearbeiten | Quelltext bearbeiten]Aber auch ohne den Math-Modus lassen sich in der Auszeichnungssprache Wikitext (englisch wiki markup) mittels Tabellen matrixähnliche Strukturen erzeugen, wie sie zum Beispiel im Artikel Falksches Schema für die Matrizenmultiplikation verwendet werden. Die folgende Tabelle zeigt eine einfache Tabelle in der Auszeichnungssprache Wikitext:
Eingabe | Ergebnis | |||||||||
---|---|---|---|---|---|---|---|---|---|---|
{| class="wikitable" | a || b || 0 |- | c || a || b |- | 0 || c || a |} |
|
In dieser Auszeichnungssprache werden andere Zeichen für das Springen von Zelle zu Zelle (Element zu Element) und für den Zeilenumbruch verwendet als im Math-Modus. Dies zeigt, dass die verwendeten Zeichen keiner tieferen Logik folgen, sondern auf die Intentionen der ursprünglichen Entwickler zurückgehen.
Matrizen in MathML
[Bearbeiten | Quelltext bearbeiten]Die Mathematical Markup Language (MathML) ist eine weitere Auszeichnungssprache zur Darstellung mathematischer Formeln. Sie gehört zur Familie der XML-Sprachen. MathML wurde ursprünglich als universelle Spezifikation für Browser, Office-Suiten, Computeralgebrasysteme, EPUB-Reader und LaTeX-basierte Generatoren entwickelt. Die Matrix des Beispiels wird in MathML in folgender Syntax formuliert:
Eingabe | Ergebnis |
---|---|
<mrow> <mo> ( </mo> <mtable> <mtr> <mtd> <mn>a</mn> </mtd> <mtd> <mn>b</mn> </mtd> <mtd> <mn>0</mn> </mtd> </mtr> <mtr> <mtd> <mn>c</mn> </mtd> <mtd> <mn>a</mn> </mtd> <mtd> <mn>b</mn> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> </mtd> <mtd> <mn>c</mn> </mtd> <mtd> <mn>a</mn> </mtd> </mtr> </mtable> <mo> ) </mo> </mrow> |
|
Die Bedeutung der Tags dürfte selbsterklärend sein. Browser wie Firefox und Safari unterstützten eine Teilmenge von MathML, das sogenannte MathML Core.[21][22]
Literatur
[Bearbeiten | Quelltext bearbeiten]- Maxime Bôcher: Einführung in die höhere Algebra. Teubner, Leipzig 1925 (XII, 348 S.).
- Ewald Bodewig: Matrix calculus. 2nd, revised and enlanged edition Auflage. North-Holland Pub. Co., Amsterdam 1959, ISBN 978-1-4832-7498-0 (452 S.).
- Richard Bellman: Introduction to matrix algebra. McGraw, New York 1960 (328 S.).
- Rudolf Kochendörffer: Determinanten und Matrizen. 2. Auflage. B. G. Teubner, Leipzig 1961 (VI, 144 S.).
- Richard S. Varga: Matrix Iterative Analysis. Prentice-Hall, Englewood Cliffs, NJ 1962, ISBN 0-13-565507-2 (XIII, 322 S.).
Matrix Iterative Analysis. 2. rev. and expanded ed., 1. softcover printing. Springer, Berlin/Heidelberg 2009, ISBN 978-3-642-05154-8 (X, 358 S., eingeschränkte Vorschau in der Google-Buchsuche).
- Lothar Collatz: Eigenwertaufgaben mit technischen Anwendungen. 2., durchges. Auflage. Akad. Verl.-Ges. Geest & Portig, Leipzig 1963 (XIV, 500 S.).
- Frank Harary: Graphentheorie. R. Oldenbourg Verlag, München, Wien 1974, ISBN 3-486-34191-X.
- Alston S. Householder: The Theory of Matrices in Numerical Analysis. Dover Publications Inc., New York, NY 1964, ISBN 0-486-61781-5 (xi, 257 S.).
The theory of matrices in numerical analysis. Dover edition Auflage. Dover Publications, Mineola N.Y. 2006, ISBN 0-486-44972-6 (xi, 257 S., eingeschränkte Vorschau in der Google-Buchsuche).
Die Zahlen, aus denen sich die Matrix zusammensetzt, werden von Householder element/elements genannt, die Namen entry/entries verwendet er nicht.
- Rudolf Zurmühl: Matrizen und ihre technischen Anwendungen. 4., neubearbeite Auflage. Springer, Berlin/Göttingen/Heidelberg 1964 (XII, 452 S.).
- Fritz Neiss: Determinanten und Matrizen. 7. Auflage. Springer, Berlin/Heidelberg 1967, ISBN 978-3-662-00943-7 (VII, 111 S.).
- Wolfgang Gröbner: Matrizenrechnung. Bibliographisches Institut, Mannheim 1977, ISBN 3-411-00103-8 (279 S.).
- Dmitri K. Faddejew, Wera N. Faddejewa: Numerische Methoden der linearen Algebra. 5. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1978 (782 S.).
- Feliks R. Gantmacher: Matrizentheorie. VEB Deutscher Verlag der Wissenschaften, Berlin 1986, ISBN 3-326-00001-4 (654 S.).
- Rudolf Zurmühl, Sigurd Falk: Matrizen und Ihre Anwendungen. 7., Softcover reprint of the original 7th ed. 1997. Springer, Berlin / Heidelberg / New York 2013, ISBN 978-3-642-63821-3 (XIV, 496 S.).
- Gilbert Strang: Lineare Algebra. Springer-Verlag, Berlin 2003, ISBN 3-540-43949-8 (XII, 656 S., eingeschränkte Vorschau in der Google-Buchsuche).
Übersetzung der englischen Originalausgabe: Gilbert Strang: Introduction to linear algebra. 2. Auflage. Wellesley-Cambridge Press, Wellesley, Mass. 1998, ISBN 0-9614088-5-5 (VII, 503 S.).
- Christian Voigt, Jürgen Adamy: Formelsammlung der Matrizenrechnung. Oldenbourg, München/Wien 2007, ISBN 978-3-486-58350-2 (XIV, 162 S., eingeschränkte Vorschau in der Google-Buchsuche).
- Gene H. Golub, Charles F. van Loan: Matrix computations. Fourth edition Auflage. The Johns Hopkins University Press, Baltimore 2013, ISBN 978-1-4214-0794-4 (xxi, 756 S., eingeschränkte Vorschau in der Google-Buchsuche).
- Albrecht Beutelspacher: Lineare Algebra: Eine Einführung in die Wissenschaft der Vektoren, Abbildungen und Matrizen. 8., aktualisierte Auflage. Springer Spektrum, Wiesbaden 2014, ISBN 978-3-658-02412-3 (XIV, 368 S., eingeschränkte Vorschau in der Google-Buchsuche).
- Gerd Fischer: Lineare Algebra: Eine Einführung für Studienanfänger. 18., aktualisierte Auflage. Springer Spektrum, Wiesbaden 2014, ISBN 978-3-658-03944-8 (XXI, 384 S., eingeschränkte Vorschau in der Google-Buchsuche).
- Klaus Jänich: Lineare Algebra. 11. Auflage. Springer, Berlin u. a. 2008, ISBN 978-3-540-75501-2.
- Karsten Schmidt, Götz Trenkler: Einführung in die Moderne Matrix-Algebra – Mit Anwendungen in der Statistik. 3. Auflage. Springer, Berlin/Heidelberg 2015, ISBN 978-3-662-46772-5, doi:10.1007/978-3-662-46773-2.
- Hermann Schichl, Roland Steinbauer: Einführung in das mathematische Arbeiten. 3., überarb. Auflage 2018. Springer, Berlin/Heidelberg 2018, ISBN 978-3-662-56806-4 (xvii, 531 S., eingeschränkte Vorschau in der Google-Buchsuche).
- Günter M. Gramlich: Lineare Algebra: Eine Einführung. 5., überarbeitete Auflage. Carl Hanser Verlag, München 2021, ISBN 978-3-446-47188-7 (249 S., eingeschränkte Vorschau in der Google-Buchsuche).
Weblinks
[Bearbeiten | Quelltext bearbeiten]- Rechner für Matrizenmultiplikation, Determinantenberechnung, Eigenwerte und Eigenvektoren sowie lineare Gleichungssysteme.
- The Matrix Cookbook. Eine englischsprachige, umfangreiche Matrix-Formelsammlung (PDF; 522 kB).
Einzelnachweise und Anmerkungen
[Bearbeiten | Quelltext bearbeiten]- ↑ Latein.me
- ↑ James Joseph Sylvester: Additions to the articles in the September number of this journal, “On a new class of theorems,” and on Pascal’s theorem. In: The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science. Nr. 37, 1850, S. 363–370 (Volltext).
- ↑ Eric W. Weisstein: Hypermatrix. In: MathWorld (englisch).
- ↑ Walter Gellert, Herbert Kästner, Siegfried Neubert (Hrsg.): Lexikon der Mathematik. 1. Auflage. Bibliographisches Institut, Leipzig 1977, S. 350 (624 S.).
- ↑ a b Guido Walz (Hrsg.): Lexikon der Mathematik - Band 3. Springer/Spektrum, 2-te Auflage 2017, S. 385.
- ↑ Der Name Element ist der seit über hundert Jahren in der deutschen Fachliteratur etablierte Name. So ist im Gantmacher auf S. 19 zu lesen: „Die Zahlen, aus denen sich die Matrix zusammensetzt, werden ihre Elemente genannt.“
- ↑ Den Namen Eintrag verwenden z. B. Schichl und Steinbauer auf S. 26. und Fischer auf S. 21. Bei Beutelspacher auf S. 63 findet sich die folgende Stelle, die illustriert, warum Autoren, vermutlich aus sprachlichen Gründen, inzwischen Eintrag bevorzugen: „Eine m × n-Matrix über dem Körper K ist ein rechteckiges Schema aus m Zeilen und n Spalten, deren Einträge Elemente aus K sind.“ Das Wort Eintrag ermöglicht hier, die sprachlich unschöne und konzeptionell verwirrende Doppelung des Wortes Element zu vermeiden, es sei denn, man benutzt das Wort Matrixelement anstelle von Eintrag. Im Englischen wird das dem Wort Eintrag entsprechende Entry häufig verwendet. Eintrag hat sich insbesondere seit dem Erscheinen der Übersetzung des Lehrbuchs von Gilbert Strang im Jahr 2003 auch im Deutschen verbreitet.
- ↑ Dmitrij K. Faddejew, Wera N. Faddejewa, 1978, S. 48.
- ↑ Adalbert Duschek, August Hochrainer: Grundzüge der Tensorrechnung in analytischer Darstellung. Springer, Wien 1955, S. 48 (VI, 250).
- ↑ Walter Gellert, Herbert Kästner, Siegfried Neubert (Hrsg.): Lexikon der Mathematik. 1. Auflage. Bibliographisches Institut, Leipzig 1977, S. 350, 570 (624 S.).
- ↑ Heidrun Kolinsky: Kapitel 9: Datenfelder (engl. arrays) oder indizierte Variablen. In: Programmieren in Fortran 90/95. Universität der Bundeswehr München, abgerufen am 12. März 2023.
- ↑ Der Name Dimension wird in diesem Zusammenhang für die Anzahl der Indizes verwendet: Ein Vektor ist folglich ein eindimensionales Feld, eine Matrix mit zwei Indizes ein zweidimensionales Feld usw.
- ↑ msdn.microsoft.com Microsoft
- ↑ www2.informatik.uni-halle.de ( vom 29. April 2015 im Internet Archive) Uni Halle
- ↑ homeandlearn.co.uk Java
- ↑ MMULT (Funktion)
- ↑ Stephen Wolfram: The mathematica book: Version 4. Wolfram Media; Cambridge University Press, Champaign IL, New York 1999, ISBN 1-57955-004-5 (xxvi, 1470 S.).
- ↑ Das übliche Malzeichen, das Sternchen * der Tabellenkalkulations-Programme und Programmiersprachen, bewirkt die elementweise Multiplikation.
- ↑ M. B. Monagan et al.: Maple 6: Programming Guide. Waterloo Maple Inc., Waterloo, Ont. 2000, ISBN 1-894511-01-8, S. 168 (586 S.).
- ↑ Donald Ervin Knuth, Donald E. Knuth: The TEXbook. 14. Auflage. Addison-Wesley, Reading, Mass. 1988, ISBN 0-201-13448-9, S. 176 ff. (483 S.).
- ↑ Math ML. mozilla developer center, abgerufen am 31. März 2023.
- ↑ MathML in Safari