„Lineare Algebra“ – Versionsunterschied
[ungesichtete Version] | [gesichtete Version] |
Bota47 (Diskussion | Beiträge) K Bot: Ergänze: ka:წრფივი ალგებრა |
Mathze (Diskussion | Beiträge) →Analytische Geometrie: Wikilink Markierungen: Mobile Bearbeitung Mobile Web-Bearbeitung |
||
(282 dazwischenliegende Versionen von mehr als 100 Benutzern, die nicht angezeigt werden) | |||
Zeile 1: | Zeile 1: | ||
Die ''' |
Die '''lineare Algebra''' (auch '''Vektoralgebra''') ist ein [[Teilgebiete der Mathematik|Teilgebiet der Mathematik]], das sich mit [[Vektorraum|Vektorräumen]] beschäftigt. Ähnlich wie in anderen [[Teilgebiete der Mathematik|Teilgebieten der Mathematik]], sind die strukturerhaltenden Abbildungen, welche in der linearen Algebra die [[Lineare Abbildung|linearen Abbildungen]] sind, von besonderem Interesse. Diese können durch [[Matrix (Mathematik)|Matrizen]] repräsentiert werden. Die lineare Algebra schließt insbesondere auch die Betrachtung von [[Lineares Gleichungssystem|linearen Gleichungssystemen]] mit ein. |
||
Vektorräume und deren lineare Abbildungen sind ein wichtiges Hilfsmittel in vielen Bereichen der Mathematik. Außerhalb der reinen Mathematik finden sich Anwendungen |
Vektorräume und deren lineare Abbildungen sind ein wichtiges Hilfsmittel in vielen Bereichen der Mathematik. Außerhalb der reinen Mathematik finden sich Anwendungen unter anderem in den [[Naturwissenschaft]]en, in der [[Informatik]] und in der [[Wirtschaftswissenschaft]] (zum Beispiel in der [[Optimierung]]). |
||
Die lineare Algebra entstand aus zwei konkreten Anforderungen heraus: einerseits dem Lösen von linearen Gleichungssystemen, andererseits der rechnerischen Beschreibung geometrischer Objekte, der |
Die lineare Algebra entstand aus zwei konkreten Anforderungen heraus: einerseits dem Lösen von linearen Gleichungssystemen, andererseits der rechnerischen Beschreibung geometrischer Objekte, der sogenannten [[Analytische Geometrie|analytischen Geometrie]] (daher bezeichnen manche Autoren lineare Algebra als ''lineare Geometrie''). |
||
== Geschichte == |
== Geschichte == |
||
Die Anfänge der [[Algebra]] und somit auch der Begriff selbst gehen weitestgehend auf den persisch-[[Choresmier (Volk)|choresmischen]] [[Mathematik]]er, [[Astronom]]en, [[Geograph]]en und [[Universalgelehrter|Universalgelehrten]] [[Al-Chwarizmi]] zurück, der aufgrund der Islamisierung im [[Iran]] seine Werke ins Arabische übersetzen musste und so auf den Namen „al-jabr“ kam. Daraus leitet sich der Begriff der Algebra her.<ref>{{Literatur |Autor = John Stillwell |Titel = Mathematics and Its History |Datum = 2010 |Verlag = Springer |Ort = New York, NY |ISBN = 978-1-4419-6052-8 |Seiten = 88–89 |DOI=10.1007/978-1-4419-6053-5_6}}</ref> |
|||
Während die Entwicklung der Algebra bereits im alten [[Ägypten]] begann, entstand die lineare Algebra als eigenständiges Teilgebiet erst im 17. Jahrhundert mit der Theorie der [[Determinante]]. Die Entwicklung dieser Theorie wurde unabhängig voneinander von [[Gottfried Wilhelm Leibniz]] und [[Seki Takakazu]] gestartet. Im Jahr 1750 veröffentlichte dann [[Gabriel Cramer]] die nach ihm benannte [[cramersche Regel]]. Damit war man erstmals im Besitz einer Lösungsformel für viele lineare Gleichungssysteme.<ref name="Alten335339">{{Literatur |Autor=[[Heinz-Wilhelm Alten]] |Titel=4000 Jahre Algebra. Geschichte, Kulturen, Menschen |Verlag=Springer |Ort=Berlin u. a. |Datum=2003 |ISBN=3-540-43554-9 |Seiten=335–339}}</ref> |
|||
Die Geschichte der modernen linearen Algebra reicht zurück bis in die Jahre [[1843]] und [[1844]]. 1843 erdachte [[William Rowan Hamilton]] (von dem der Begriff Vektor stammt) mit den [[Quaternion]]en eine Erweiterung der [[Komplexe Zahl|komplexen Zahlen]]. 1844 veröffentlichte [[Hermann Grassmann]] sein Buch ''Die lineale Ausdehnungslehre''. [[Arthur Cayley]] führte dann [[1857]] mit den 2×2-Matrizen eine der grundlegendsten algebraischen Ideen ein. |
|||
Die Geschichte der modernen linearen Algebra reicht zurück bis in die Jahre 1843 und 1844. 1843 erdachte [[William Rowan Hamilton]] (von dem der Begriff [[Vektor]] stammt) mit den [[Quaternion]]en eine Erweiterung der [[Komplexe Zahl|komplexen Zahlen]]. 1844 veröffentlichte [[Hermann Graßmann]] sein Buch ''Die lineale Ausdehnungslehre.'' [[Arthur Cayley]] führte dann 1857 mit den <math>(2 \times 2)</math>-Matrizen eine der grundlegendsten algebraischen Ideen ein. |
|||
== Lineare Gleichungssysteme == |
|||
Ab dem 20. Jahrhundert befasste man sich dann mehrheitlich mit dem Begriff des [[Vektorraum]]s. Insbesondere die Mathematiker [[August Ferdinand Möbius]], [[Constantin Carathéodory]] und [[Hermann Weyl]] leisteten hierfür die Vorarbeit. So wurde beispielsweise festgestellt, dass [[lineare Abbildung]]en zwischen endlichdimensionalen Vektorräumen durch [[Matrix (Mathematik)|Matrizen]] beschrieben werden können. Auf dieser Erkenntnis basierend konnte [[Stefan Banach]] als Erster eine axiomatische Definition für reelle Vektorräume angeben. |
|||
Als ''lineare Gleichungssysteme'' bezeichnet man eine Zusammenfassung von Gleichungen der Art |
|||
== Lineare Gleichungssysteme == |
|||
{{Hauptartikel|Lineares Gleichungssystem}} |
|||
Als ''lineares Gleichungssystem'' bezeichnet man eine Zusammenfassung von Gleichungen der Art |
|||
:<math>x_1+x_2 = 1</math> |
:<math>x_1+x_2 = 1</math> |
||
:<math>3x_1+6x_2 = 4</math> |
:<math>3x_1+6x_2 = 4</math> |
||
Derartige Gleichungssysteme erhält man aus vielen alltäglichen Fragestellungen, beispielsweise: |
Derartige Gleichungssysteme erhält man aus vielen alltäglichen Fragestellungen, beispielsweise: |
||
:In welchem Verhältnis muss man eine 30% |
: In welchem Verhältnis muss man eine 30%ige [[Lösung (Chemie)|Lösung]] (entspricht <math>x_1</math>) und eine 60%ige Lösung (entspricht <math>x_2</math>) mischen, um eine 40%ige Lösung zu erhalten? |
||
Der wesentliche Abstraktionsschritt der linearen Algebra besteht nun darin, die linken Seiten als eine Funktion <math>A</math> der Unbekannten <math>x=(x_1,x_2)</math> aufzufassen: |
Der wesentliche Abstraktionsschritt der linearen Algebra besteht nun darin, die linken Seiten als eine [[Funktion (Mathematik)|Funktion]] <math>A</math> der Unbekannten <math>x=(x_1,x_2)</math> (in diesem Fall die Menge der jeweiligen Lösungen) aufzufassen: |
||
:<math>A(x)=\begin{pmatrix}x_1+x_2\\ 3x_1+6x_2\end{pmatrix}</math> |
:<math>A(x)=\begin{pmatrix}x_1+x_2\\ 3x_1+6x_2\end{pmatrix}</math> |
||
Dann wird die Lösung des Gleichungssystems zu der Aufgabe: Finde ein <math>x</math>, |
Dann wird die Lösung des Gleichungssystems zu der Aufgabe: Finde ein <math>x</math>, sodass |
||
:<math>A(x)=\begin{pmatrix}1\\4\end{pmatrix}</math> |
:<math>A(x)=\begin{pmatrix}1\\4\end{pmatrix}</math> |
||
gilt. Das Übereinanderschreiben ist dabei lediglich ein [[Formalismus]], um mit mehr als einer Zahl gleichzeitig umgehen zu können. |
gilt. Das Übereinanderschreiben ist dabei lediglich ein [[Formalismus (Mathematik)|Formalismus]], um mit mehr als einer Zahl gleichzeitig umgehen zu können. |
||
Statt <math>A</math> schreibt man auch einfach die relevanten Zahlen in Form eines Rechtecks auf und nennt das Objekt eine [[Matrix (Mathematik)|Matrix]]: |
Statt <math>A</math> schreibt man auch einfach die relevanten Zahlen in Form eines Rechtecks auf und nennt das Objekt eine [[Matrix (Mathematik)|Matrix]]: |
||
:<math>A=\begin{pmatrix}1 & 1 \\ 3 & 6\end{pmatrix}</math> |
:<math>A=\begin{pmatrix}1 & 1 \\ 3 & 6\end{pmatrix}</math> |
||
Man stellt fest, dass die Funktion <math>A</math> spezielle Eigenschaften hat, sie ist eine [[lineare Abbildung]]. Ist <math>x</math> eine Lösung für das Gleichungssystem <math>A(x)=b</math>, und <math>y</math> eine Lösung des Gleichungssystems <math>A(y)=c</math>, so ist |
Man stellt fest, dass die Funktion <math>A</math> spezielle Eigenschaften hat, sie ist eine [[lineare Abbildung]]. Ist <math>x</math> eine Lösung für das Gleichungssystem <math>A(x)=b</math>, und <math>y</math> eine Lösung des Gleichungssystems <math>A(y)=c</math>, so ist |
||
:<math>z=x+y=\begin{pmatrix}x_1+y_1\\x_2+y_2 |
:<math>z=x+y=\begin{pmatrix}x_1+y_1\\x_2+y_2\end{pmatrix}</math> |
||
eine Lösung von <math>A(z)=b+c</math>. Man kann das auch in der Form <math>A(x+y)=A(x)+A(y)</math> schreiben. Ist weiter <math>\lambda</math> irgendeine [[reelle Zahl]], so ist <math>A(\lambda x)=\lambda\cdot A(x)</math>; dabei ist |
eine Lösung von <math>A(z)=b+c</math>. Man kann das auch in der Form <math>A(x+y)=A(x)+A(y)</math> schreiben. Ist weiter <math>\lambda</math> irgendeine [[reelle Zahl]], so ist <math>A(\lambda x)=\lambda\cdot A(x)</math>; dabei ist |
||
:<math>\lambda x=\begin{pmatrix}\lambda x_1\\\lambda x_2 |
:<math>\lambda x=\begin{pmatrix}\lambda x_1\\\lambda x_2\end{pmatrix}</math>. |
||
''Siehe auch:'' [[Lineares Gleichungssystem]] |
|||
== Analytische Geometrie == |
== Analytische Geometrie == |
||
{{Hauptartikel|Analytische Geometrie}} |
|||
Der andere Ursprung der linearen Algebra findet sich in der rechnerischen Beschreibung des 2- und 3-dimensionalen (euklidischen) Raumes, auch „Anschauungsraum“ genannt. Mit Hilfe eines [[Koordinatensystem]] |
Der andere Ursprung der linearen Algebra findet sich in der rechnerischen Beschreibung des 2- und 3-dimensionalen (euklidischen) Raumes, auch „Anschauungsraum“ genannt. Mit Hilfe eines [[Koordinatensystem]]s können Punkte im Raum durch Tripel <math>(x_1,x_2,x_3)</math> von Zahlen beschrieben werden. Der Abbildungstyp der [[Parallelverschiebung|Verschiebung]] führt zum Begriff des [[Vektor|Vektors]], der Richtung und Betrag der Verschiebung angibt. Viele [[physikalische Größe]]n, beispielsweise [[Kraft|Kräfte]], haben stets diesen Richtungsaspekt. |
||
Da man auch Vektoren durch Zahlentripel <math>(a_1,a_2,a_3)</math> beschreiben kann, verschwimmt die Trennung zwischen Vektoren und Punkten: |
Da man auch Vektoren durch Zahlentripel <math>(a_1,a_2,a_3)</math> beschreiben kann, verschwimmt die Trennung zwischen Vektoren und Punkten: Einem Punkt <math>P</math> entspricht sein ''[[Ortsvektor]],'' der vom Koordinatenursprung nach <math>P</math> zeigt. |
||
Viele der in der klassischen Geometrie betrachteten Abbildungstypen, beispielsweise Drehungen um Achsen durch den Ursprung oder Spiegelungen an Ebenen durch den Ursprung, gehören zur Klasse der [[ |
Viele der in der klassischen Geometrie betrachteten Abbildungstypen, beispielsweise Drehungen um Achsen durch den Ursprung oder Spiegelungen an Ebenen durch den Ursprung, gehören zur Klasse der [[Lineare Abbildung|linearen Abbildungen]], die schon oben erwähnt wurde. |
||
''Siehe auch:'' [[Analytische Geometrie]] |
|||
== Vektorräume und lineare Algebra == |
== Vektorräume und lineare Algebra == |
||
{{Hauptartikel|Vektorraum}} |
|||
Der Begriff des [[Vektorraum]]es entsteht als Abstraktion der obigen Beispiele: Ein Vektorraum ist eine Menge, deren Elemente Vektoren genannt werden, zusammen mit |
Der Begriff des [[Vektorraum]]es entsteht als Abstraktion der obigen Beispiele: Ein Vektorraum ist eine Menge, deren Elemente Vektoren genannt werden, zusammen mit |
||
* einer Addition von Vektoren |
* einer Addition von Vektoren |
||
* einer [[Multiplikation]] von Vektoren mit |
* einer [[Multiplikation]] von Vektoren mit Elementen eines fixierten [[Körper (Algebra)|Körpers]], ''[[Skalarmultiplikation]]'' (äußere Multiplikation) genannt. |
||
Diese Addition und die Skalarmultiplikation müssen noch einige einfache Eigenschaften erfüllen, die auch für die Vektoren im Anschauungsraum gelten. |
Diese Addition und die Skalarmultiplikation müssen noch einige einfache Eigenschaften erfüllen, die auch für die Vektoren im Anschauungsraum gelten. |
||
Man könnte sagen, dass Vektorräume gerade so definiert sind, dass man von linearen Abbildungen zwischen ihnen sprechen kann. |
Man könnte sagen, dass Vektorräume gerade so definiert sind, dass man von linearen Abbildungen zwischen ihnen sprechen kann. |
||
In gewisser Weise ist der Begriff des Vektorraums für die lineare Algebra bereits zu allgemein. Jedem Vektorraum ist eine [[Dimension (Vektorraum)|Dimension]] zugeordnet, beispielsweise hat die Ebene Dimension <math>2</math> und der Anschauungsraum die Dimension <math>3</math>. Es gibt aber Vektorräume, deren Dimension nicht endlich ist, wodurch viele der bekannten Eigenschaften verloren gehen. Es hat sich aber als sehr erfolgreich erwiesen, unendlichdimensionale Vektorräume mit einer zusätzlichen [[Topologie (Mathematik)|topologischen Struktur]] auszustatten; die Untersuchung [[Topologischer Vektorraum|topologischer Vektorräume]] ist Gegenstand der [[Funktionalanalysis]]. |
|||
In einer weiteren Verallgemeinerung kann man die reellen Zahlen durch andere [[Körper (Algebra)|Körper]] ersetzen. |
|||
(Der Rest dieses Artikels beschäftigt sich<!-- bislang --> mit dem Fall endlicher Dimensionen.) |
|||
''Siehe auch:'' [[Vektorraum]] |
|||
== Wichtige Sätze und Ergebnisse == |
|||
== Verwandte Begriffe == |
|||
Jeder Vektorraum hat (unter der Annahme, dass das [[Auswahlaxiom]] gilt,) mindestens eine [[Basis (Vektorraum)|Basis]]. Die Basis kann endlich oder unendlich viele Elemente enthalten. |
|||
Falls ein Vektorraum eine Basis aus endlich vielen Elementen hat, haben alle Basen dieses Vektorraumes endlich viele Elemente und die Anzahl der Elemente ist für alle Basen gleich. Falls ein Vektorraum eine Basis aus unendlich vielen Elementen hat, haben alle Basen dieses Vektorraumes unendlich viele Elemente. Deshalb ist es sinnvoll, von der Dimension eines Vektorraumes als die Anzahl der Elemente einer Basis sowie von endlich- und unendlich-dimensionalen Vektorräumen zu sprechen. Für Summen und Durchschnitte von [[Untervektorraum|Untervektorräumen]] gilt die [[Dimensionsformel]] und für die Dimensionen von [[Faktorraum|Faktorräumen]] eines endlich-dimensionalen Vektorraumes <math>V</math> die Formel <math>\dim V/U = \dim V - \dim U</math>. |
|||
In gewisser Weise ist der Begriff des Vektorraums bereits zu allgemein. Man kann jedem Vektorraum eine [[Dimension (Vektorraum)|Dimension]] zuordnen, beispielsweise hat die Ebene Dimension 2 und der Raum Dimension 3. Es gibt aber Vektorräume, deren Dimension nicht endlich ist, und viele der bekannten Eigenschaften gehen verloren. Es hat sich aber als sehr erfolgreich erwiesen, unendlichdimensionale Vektorräume mit einer zusätzlichen [[Topologie (Mathematik)|topologischen Struktur]] auszustatten; die Untersuchung topologischer Vektorräume ist Gegenstand der [[Funktionalanalysis]]. |
|||
Jede lineare Abbildung <math>f \colon V \to W</math> ist durch die Angabe der Bilder einer Basis von <math>V</math> eindeutig festgelegt. Für lineare Abbildungen gelten der [[Homomorphiesatz]] und der [[Rangsatz]]. Lineare Abbildungen können bezüglich fest gewählter Basen durch Matrizen [[Darstellungsmatrix|dargestellt]] werden. Dabei entspricht der Hintereinanderausführung von linearen Abbildungen die [[Matrizenmultiplikation|Multiplikation]] ihrer Darstellungsmatrizen. |
|||
Der Rest dieses Artikels beschäftigt sich <!-- bislang --> mit dem Fall endlicher Dimensionen. |
|||
Ein lineares Gleichungssystem <math>A \cdot x = b</math> mit <math>A \in \mathbb{K}^{{m}\times{n}}</math>, <math>b \in \mathbb{K}^{m}</math> und <math>x \in \mathbb{K}^{n}</math> ist genau dann lösbar, wenn der [[Rang (Lineare Algebra)|Rang]] der Matrix <math>A</math> gleich dem Rang der erweiterten Koeffizientenmatrix <math>\begin{pmatrix}A & b\end{pmatrix}</math> ist. In diesem Fall ist die [[Lösungsmenge]] des Systems ein [[Affiner Raum|affiner Unterraum]] von <math>\mathbb{K}^{n}</math> der Dimension <math>n - \mathrm{rang}(A)</math>. Für nicht zu große Gleichungssysteme können die Rangbestimmung und die Berechnung des Lösungsraumes mit dem [[Gaußsches Eliminationsverfahren|Gaußschen Eliminationsverfahren]] durchgeführt werden. |
|||
Eine lineare Abbildung <math>f \colon V \to V</math> (also ein [[Endomorphismus]]) eines endlichdimensionalen Vektorraumes <math>V</math> ist bereits invertierbar, wenn sie injektiv ''oder'' surjektiv ist. Dies ist wiederum genau dann der Fall, wenn ihre [[Determinante (Mathematik)|Determinante]] ungleich null ist. Hieraus folgt, dass die [[Eigenwertproblem|Eigenwerte]] eines Endomorphismus genau die Nullstellen seines [[Charakteristisches Polynom|charakteristischen Polynoms]] sind. Eine weitere wichtige Aussage über das charakteristische Polynom ist der [[Satz von Cayley-Hamilton]]. |
|||
Ein Endomorphismus (beziehungsweise eine quadratische Matrix) ist genau dann [[Diagonalisierbarkeit|diagonalisierbar]], wenn das charakteristische Polynom in Linearfaktoren zerfällt und für jeden Eigenwert dessen algebraische Vielfachheit gleich der geometrischen Vielfachheit, also die Nullstellenordnung des Eigenwerts im charakteristischen Polynom gleich der Dimension des zugehörigen [[Eigenraum]]es ist. Äquivalent dazu ist die Existenz einer Basis des Vektorraumes, die aus Eigenvektoren der linearen Abbildung besteht. Endomorphismen, deren charakteristisches Polynom in Linearfaktoren zerfällt, sind immerhin noch [[Trigonalisierung|trigonalisierbar]], können also durch eine [[Dreiecksmatrix]] dargestellt werden. Ein etwas tiefer liegendes Ergebnis ist, dass die darstellende Matrix dabei sogar in [[jordansche Normalform]] gebracht werden kann. |
|||
In Vektorräumen, auf denen zusätzlich ein [[Skalarprodukt]] <math>\langle \cdot,\cdot \rangle</math> gegeben ist, wird durch <math>\|x\| := \sqrt{\langle x,x \rangle}</math> eine [[Norm (Mathematik)|Norm]] definiert. In diesen [[Prähilbertraum|Skalarprodukträumen]] existieren stets [[Orthonormalbasis|Orthonormalbasen]], die etwa durch das [[Gram-Schmidtsches Orthogonalisierungsverfahren|Gram-Schmidtsche Orthonormalisierungsverfahren]] konstruiert werden können. Nach dem [[Projektionssatz]] kann man in diesen Räumen die [[Bestapproximation]] aus einem Untervektorraum durch [[Orthogonalprojektion|orthogonale Projektion]] bestimmen. |
|||
Bezüglich der Diagonalisierbarkeit von Endomorphismen in Skalarprodukträumen stellt sich die Frage, ob eine [[Orthonormalbasis]] aus Eigenvektoren existiert. Das zentrale Resultat hierzu ist der [[Spektralsatz]]. Insbesondere gilt im reellen Fall: Zu jeder [[Symmetrische Matrix|symmetrischen Matrix]] <math>A \in \mathbb{\R}^{{n}\times{n}}</math> gibt es eine [[orthogonale Matrix]] <math>Q</math>, sodass <math>Q^TAQ</math> eine Diagonalmatrix ist. Wendet man dieses Ergebnis auf [[quadratische Form]]en an, ergibt sich der Satz von der [[Hauptachsentransformation]]. |
|||
Auch [[Bilinearform]]en und [[Sesquilinearform]]en können bei fest gewählten Basen durch Matrizen dargestellt werden. Eine Bilinearform ist genau dann symmetrisch und [[Definitheit|positiv definit]], also ein Skalarprodukt, wenn ihre darstellende Matrix symmetrisch und positiv definit ist. Eine symmetrische Matrix ist genau dann positiv definit, wenn alle ihre Eigenwerte positiv sind. Allgemein gilt für symmetrische Bilinearformen und [[hermitesche Sesquilinearform]]en der [[Trägheitssatz von Sylvester]], der besagt, dass die Anzahl der positiven und negativen Eigenwerte der darstellenden Matrizen nicht von der Wahl der Basis abhängen. |
|||
== Vektoren und Matrizen == |
== Vektoren und Matrizen == |
||
{{Hauptartikel|Vektor|Matrix (Mathematik)}} |
|||
Vektoren können durch ihre Komponenten beschrieben werden, die (je nach Anwendung) als |
Vektoren endlichdimensionaler Räume können durch ihre Komponenten beschrieben werden, die (je nach Anwendung) als [[Spaltenvektor]] |
||
:<math>\mathbf{a}=\begin{pmatrix} 3 \\ 7 \\ 2 \end{pmatrix}</math> |
:<math>\mathbf{a}=\begin{pmatrix} 3 \\ 7 \\ 2 \end{pmatrix}</math> |
||
oder |
oder [[Zeilenvektor]] |
||
:<math>\mathbf{b}=\begin{pmatrix} 4 & 6 & 3 & 7 \end{pmatrix}</math> |
:<math>\mathbf{b}=\begin{pmatrix} 4 & 6 & 3 & 7 \end{pmatrix}</math> |
||
geschrieben werden. Häufig werden Zeilenvektoren mit einem hochgestellten T für ''[[Transponierte Matrix|transponiert]],'' wie <math>b^T</math>, gekennzeichnet. |
|||
geschrieben werden. |
|||
In der Literatur werden Vektoren |
In der Literatur werden Vektoren auf unterschiedliche Weise von anderen Größen unterschieden: Es werden Kleinbuchstaben, fettgedruckte Kleinbuchstaben, unterstrichene Kleinbuchstaben, Kleinbuchstaben mit einem Pfeil darüber oder kleine [[Fraktur (Schrift)|Frakturbuchstaben]] benutzt. Dieser Artikel verwendet Kleinbuchstaben. |
||
Eine Matrix wird durch ein |
Eine Matrix wird durch ein „Raster“ von Zahlen angegeben. Hier ist eine Matrix mit vier Zeilen und drei Spalten: |
||
Hier ist eine Matrix mit 4 Zeilen und 3 Spalten: |
|||
:<math>\mathbf{M}=\begin{pmatrix} |
:<math>\mathbf{M}=\begin{pmatrix} |
||
8 & 2 & 9 \\ |
8 & 2 & 9 \\ |
||
4 & 8 & 2 \\ |
4 & 8 & 2 \\ |
||
8 & 3 & 7 \\ |
8 & 3 & 7 \\ |
||
5 & 9 & 1 |
5 & 9 & 1 |
||
\end{pmatrix}</math> |
\end{pmatrix}</math> |
||
Matrizen werden meistens mit Großbuchstaben bezeichnet. |
Matrizen werden meistens mit Großbuchstaben bezeichnet. |
||
Einzelne Elemente eines Vektors werden bei Spaltenvektoren in der Regel durch einen Index angegeben: Das |
Einzelne Elemente eines Vektors werden bei Spaltenvektoren in der Regel durch einen Index angegeben: Das zweite Element des oben angegebenen Vektors <math>a</math> wäre dann <math>a_2=7</math>. In Zeilenvektoren wird manchmal eine Hochzahl verwendet, wobei man aufpassen muss, ob eine Vektorindizierung oder ein [[Exponent (Mathematik)|Exponent]] vorliegt: Mit dem obigen Beispiel <math>b</math> hat man etwa <math>b^4=7</math>. Matrixelemente werden durch zwei Indizes angegeben. Dabei werden die Elemente durch Kleinbuchstaben dargestellt: <math>m_{2,3}=2</math> ist das Element in der zweiten Zeile der dritten Spalte (statt „in der dritten Spalte der zweiten Zeile“, denn so lässt sich <math>m_{2,3}</math> leichter lesen). |
||
In Zeilenvektoren wird manchmal eine Hochzahl verwendet, wobei man aufpassen muss, ob eine Vektorindizierung oder ein [[Exponent (Mathematik)|Exponent]] vorliegt: Mit dem obigen Beispiel ''b'' hat man etwa ''b<sup>4</sup>=7''. |
|||
Der verallgemeinerte Begriff dieser Gebilde ist [[Tensor]], Skalare sind Tensoren nullter Stufe, Vektoren Tensoren erster Stufe, Matrizen Tensoren zweiter Stufe. Ein Tensor <math>n</math>-ter Stufe kann durch einen <math>n</math>-dimensionalen Zahlenwürfel repräsentiert werden. |
|||
Matrixelemente werden durch zwei Indizes angegeben. Dabei werden die Elemente durch Kleinbuchstaben dargestellt: ''m<sub>2,3</sub>=2'' ist das Element in der 3. Spalte der 2. Zeile. |
|||
Oftmals ist es erforderlich, Matrizen mittels [[Gaußsches Eliminationsverfahren|elementarer Zeilenumformungen]] oder [[Basiswechsel (Vektorraum)|Basiswechsel]] auf eine spezielle Form zu bringen. Wichtig sind dabei insbesondere die [[Dreiecksmatrix|Dreiecksform]], die [[Diagonalmatrix|Diagonalform]] und die [[jordansche Normalform]]. |
|||
Der verallgemeinerte Begriff dieser Gebilde ist [[Tensor]], Skalare sind Tensoren 0. Stufe, Vektoren Tensoren 1. Stufe, Matrizen Tensoren 2. Stufe. Ein Tensor n. Stufe kann durch einen n-dimensionalen Zahlen-Würfel repräsentiert werden. |
|||
=== Matrizen spezieller Form === |
|||
In der linearen Algebra ist es oft erforderlich, Matrizen mittels [[Gaußsches Eliminationsverfahren|elementarer Zeilenumformungen]] oder [[Basiswechsel (Vektorraum)|Basiswechsel]] auf eine spezielle Form zu bringen. Wichtig sind dabei folgende Formen: |
|||
* [[Dreiecksmatrix]], |
|||
* [[Diagonalmatrix]] und |
|||
* Matrizen in [[Jordansche Normalform|Jordanform]]. |
|||
== Endomorphismen und quadratische Matrizen == |
== Endomorphismen und quadratische Matrizen == |
||
Bei der Darstellung einer linearen Abbildung – wie unter [[Matrix (Mathematik)#Zusammenhang mit linearen Abbildungen|Matrix]] beschrieben – gibt es den Sonderfall einer linearen Abbildung <math>f</math> eines endlichdimensionalen Vektorraums auf sich selbst (eines sog. [[Endomorphismus]]). Man kann dann dieselbe Basis <math>v</math> für Urbild- und Bildkoordinaten verwenden und erhält eine quadratische Matrix <math>A</math>, sodass die Anwendung der linearen Abbildung der Linksmultiplikation mit <math>A</math> entspricht. |
|||
Um die Abhängigkeit von <math>f</math> und <math>v</math> zum Ausdruck zu bringen, verwendet man Schreibweisen wie <math>A=M_v(f)</math> oder <math>A = {}_vf_v</math>. Die zweimalige Hintereinanderausführung dieser Abbildung entspricht dann der Multiplikation mit <math>A^2</math> usw., und man kann alle polynomialen Ausdrücke mit <math>A</math> (Summen von Vielfachen von Potenzen von <math>A</math>) als lineare Abbildungen des Vektorraums auffassen. |
|||
=== Invertierbarkeit === |
=== Invertierbarkeit === |
||
Zu einer invertierbaren Matrix <math>A</math> existiert eine [[inverse Matrix]] <math>A^{-1}</math> mit <math>A^{-1}A=AA^{-1}=E</math>. Analog zur Rechenregel <math>x^0=1</math> bei Zahlen ist die nullte Potenz einer quadratischen Matrix die Diagonalmatrix <math>E</math> ([[Einheitsmatrix]]) mit Einsen auf der Diagonalen und in der alle restlichen Elemente Null sind, sie entspricht der Identitätsabbildung jedes Vektors auf sich selbst. Negative Potenzen einer quadratischen Matrix <math>A</math> lassen sich nur berechnen, wenn die durch <math>A</math> gegebene lineare Abbildung invertierbar ist, also keine zwei unterschiedlichen Vektoren <math>u_1</math> und <math>u_2</math> auf denselben Vektor <math>Au_1=Au_2</math> abbildet. Anders ausgedrückt, muss für eine invertierbare Matrix <math>A</math> aus <math>u_1-u_2\ne 0</math> stets <math>A(u_1-u_2)\ne 0</math> folgen, das lineare Gleichungssystem <math>Au=0</math> darf also nur die Lösung <math>0</math> haben. |
|||
Analog zur Rechenregel <math>x^0=1</math> bei Zahlen ist die nullte Potenz einer quadratischen Matrix die Diagonalmatrix <math>E</math> mit lauter Einsen auf der Diagonalen, sie entspricht der Identitätsabbildung jedes Vektors auf sich selbst. Negative Potenzen einer quadratischen Matrix <math>A</math> lassen sich nur berechnen, wenn die durch <math>A</math> gegebene lineare Abbildung invertierbar ist, also keine zwei unterschiedlichen Vektoren <math>u_1</math> und <math>u_2</math> auf denselben Vektor <math>Au_1=Au_2</math> abbildet. Anders ausgedrückt, muss für eine invertierbare Matrix <math>A</math> aus <math>u_1-u_2\ne 0</math> stets <math>A(u_1-u_2)\ne 0</math> folgen, das lineare Gleichungssystem <math>Au=0</math> darf also nur die Lösung <math>0</math> haben. Zu einer invertierbaren Matrix <math>A</math> existiert eine inverse Matrix <math>A^{-1}</math> mit <math>A^{-1}A=AA^{-1}=E</math>. |
|||
=== Determinanten === |
=== Determinanten === |
||
{{Hauptartikel|Determinante}} |
|||
Eine Determinante ist eine [[spezielle Funktion]], die einer quadratischen Matrix eine Zahl zuordnet. Diese Zahl gibt Auskunft über einige Eigenschaften der Matrix. Beispielsweise lässt sich an ihr erkennen, ob eine Matrix invertierbar ist. Eine weitere wichtige Anwendung ist die Berechnung des [[Charakteristisches Polynom|charakteristischen Polynoms]] und damit der [[Eigenwert]]e der Matrix. |
|||
Es gibt geschlossene Formeln zur Berechnung der Determinanten, wie den [[Determinante (Mathematik)#Laplacescher Entwicklungssatz|Laplace’schen Entwicklungssatz]] oder die [[Determinante (Mathematik)#Leibniz-Formel|Leibniz-Formel]]. Diese Formeln sind jedoch eher von theoretischem Wert, da ihr Aufwand bei größeren Matrizen stark ansteigt. In der Praxis kann man Determinanten am leichtesten berechnen, indem man die Matrix mit Hilfe des [[Determinante (Mathematik)#Gaußsches Eliminationsverfahren zur Determinantenberechnung|Gauß-Algorithmus]] in obere oder untere Dreiecksform bringt, die Determinante ist dann einfach das Produkt der [[Hauptdiagonale]]lemente. |
|||
Eine [[Determinante (Mathematik)|Determinante]] ist eine spezielle Funktion, die einer quadratischen Matrix eine Zahl zuordnet. Diese Zahl gibt Auskunft über einige Eigenschaften der Matrix. Beispielsweise läßt sich an ihr erkennen, ob eine Matrix invertierbar ist. Eine weitere wichtige Anwendung ist die Berechnung des [[Charakteristisches Polynom|charakteristischen Polynoms]] und damit der [[Eigenwert]]e der Matrix. |
|||
== Beispiel == |
|||
Es gibt geschlossene Formeln zur Berechnung der Determinanten, wie den [[Determinante (Mathematik)#Laplacescher_Entwicklungssatz|Laplace’schen Entwicklungssatz]] oder die [[Determinante (Mathematik)#Leibniz-Formel|Leibniz-Formel]]. Diese Formeln sind jedoch eher von theoretischem Wert, da ihr Aufwand bei größeren Matrizen stark ansteigt. In der Praxis kann man Determinanten am leichtesten berechnen, indem man die Matrix mit Hilfe des [[Gauß-Algorithmus]] in obere oder untere Dreiecksform bringt, die Determinante ist dann einfach das Produkt der Hauptdiagonalelemente. |
|||
Obige Begriffe sollen an einem durch die [[Fibonacci-Folge]] motivierten Beispiel verdeutlicht werden. |
|||
=== Berechnung von Potenzen mittels Diagonalisierung === |
=== Berechnung von Potenzen mittels Diagonalisierung === |
||
Die Fibonacci-Folge <math>f_n</math> ist rekursiv durch die Gleichungen <math>f_0 = 0</math>, <math>f_1 = 1</math> und <math>f_{n+1} = f_n + f_{n-1}</math> für <math>n\ge 1</math> definiert, was gleichbedeutend ist mit |
|||
:<math>\begin{pmatrix}f_1\\ f_0\end{pmatrix} = \begin{pmatrix}1\\ 0\end{pmatrix}</math> |
|||
''Motivation:'' Die [[Fibonacci-Folge]] <math>f_n</math> ist definiert durch die rekursive Formel |
|||
<math>f_0 = 0</math>, <math>f_1 = 1</math> und <math>f_{n+1} = f_n + f_{n-1}</math>, was |
|||
gleichbedeutend ist mit |
|||
:<math>{f_1\choose f_0} = {1\choose 0}</math> |
|||
und |
und |
||
:<math>{f_{n+1}\ |
:<math>\begin{pmatrix}f_{n+1}\\ f_n\end{pmatrix} = \begin{pmatrix}1&1\\1&0\end{pmatrix} \cdot \begin{pmatrix}f_n\\ f_{n-1}\end{pmatrix} \quad \text{für} \quad n\ge 1</math>, |
||
woraus durch [[Iteration]] die nichtrekursive Formel |
|||
:<math>{f_{n+1}\ |
:<math>\begin{pmatrix}f_{n+1}\\ f_n\end{pmatrix} = \begin{pmatrix}1&1\\1&0\end{pmatrix}^n \cdot \begin{pmatrix}1\\ 0\end{pmatrix} \quad \text{für} \quad n\ge 0</math> |
||
in der die <math>n</math>-te Potenz einer Matrix <math>A</math> vorkommt. |
folgt, in der die <math>n</math>-te Potenz einer Matrix <math>A</math> vorkommt. |
||
Das Verhalten einer solchen Matrix bei Potenzierung ist nicht leicht zu erkennen; hingegen wird die <math>n</math>-te Potenz einer ''Diagonalmatrix'' einfach durch Potenzierung jedes einzelnen Diagonaleintrags berechnet. Wenn es nun eine invertierbare Matrix <math>T</math> gibt, |
Das Verhalten einer solchen Matrix bei Potenzierung ist nicht leicht zu erkennen; hingegen wird die <math>n</math>-te Potenz einer ''Diagonalmatrix'' einfach durch Potenzierung jedes einzelnen Diagonaleintrags berechnet. Wenn es nun eine invertierbare Matrix <math>T</math> gibt, sodass <math>T^{-1}A T</math> Diagonalform hat, lässt sich die Potenzierung von <math>A</math> auf die Potenzierung einer Diagonalmatrix zurückführen gemäß der Gleichung <math>(T^{-1} A T)^n = T^{-1} A^n T</math> (die linke Seite dieser Gleichung ist dann die <math>n</math>-te Potenz einer Diagonalmatrix). Allgemein lässt sich durch ''Diagonalisierung'' einer Matrix ihr Verhalten (bei Potenzierung, aber auch bei anderen Operationen) leichter erkennen. |
||
Fasst man <math>A = {}_vf_v</math> als Matrix einer linearen Abbildung auf, so ist die Transformationsmatrix <math>T</math> die Basiswechselmatrix zu einer anderen Basis <math>v'</math>, also <math>T = {}_ve_{v'}</math> (wobei die Identitätsabbildung <math>e</math> jeden Vektor auf sich selbst abbildet). Dann ist nämlich <math>T^{-1}AT = {}_{v'}f_{v'}</math>. |
Fasst man <math>A = {}_vf_v</math> als [[Matrix (Mathematik)#Zusammenhang mit linearen Abbildungen|Matrix einer linearen Abbildung]] auf, so ist die Transformationsmatrix <math>T</math> die Basiswechselmatrix zu einer anderen Basis <math>v'</math>, also <math>T = {}_ve_{v'}</math> (wobei die Identitätsabbildung <math>e</math> jeden Vektor auf sich selbst abbildet). Dann ist nämlich <math>T^{-1}AT = {}_{v'}f_{v'}</math>. |
||
Im oben genannten Beispiel lässt sich eine Transformationsmatrix <math>T</math> finden, so dass |
|||
:<math>T^{-1}\cdot A\cdot T = \begin{pmatrix}\Phi&0\\0&1-\Phi\end{pmatrix}</math> |
|||
eine Diagonalmatrix ist, in der der [[Goldener Schnitt|goldene Schnitt]] <math>\Phi = 1/2 + \sqrt5/2</math> vorkommt. |
|||
(Hieraus erhält man schließlich die Formel |
|||
<math>f_n = 1/\sqrt5\cdot[ (1/2+\sqrt5/2)^n - (1/2-\sqrt5/2)^n ]</math>.) |
|||
Im oben genannten Beispiel lässt sich eine Transformationsmatrix <math>T</math> finden, sodass |
|||
=== Definition des Eigenwerts === |
|||
:<math>T^{-1}\cdot A\cdot T = \begin{pmatrix}\phi&0\\0&1-\phi\end{pmatrix}</math> |
|||
eine Diagonalmatrix ist, in der der [[Goldener Schnitt|goldene Schnitt]] <math>\phi = \frac{1+\sqrt5}{2}</math> vorkommt. Hieraus erhält man schließlich die [[Formel von Binet]]: |
|||
:<math>f_n = \frac{1}{\sqrt5} \cdot \left[ \left(\frac{1+\sqrt5}{2}\right)^n - \left(\frac{1-\sqrt5}{2}\right)^n \right]</math> |
|||
=== Eigenwerte === |
|||
Wie kommt man von der Matrix <math>A</math> auf die Zahl <math>\Phi</math>? An der Diagonalmatrix erkennt man sofort, dass |
|||
Wie kommt man von der Matrix <math>A</math> auf die Zahl <math>\phi</math>? An der Diagonalmatrix erkennt man sofort |
|||
:<math>\begin{pmatrix}\Phi&0\\0&1-\Phi\end{pmatrix} \cdot {1\choose 0} = {\Phi\choose 0}</math>, |
|||
:<math>\begin{pmatrix}\phi&0\\0&1-\phi\end{pmatrix} \cdot \begin{pmatrix}1\\ 0\end{pmatrix} = \begin{pmatrix}\phi\\ 0\end{pmatrix}</math>, |
|||
es gibt also einen Vektor <math>u</math> ungleich Null, der durch Multiplikation mit der Diagonalmatrix komponentenweise vervielfacht (genauer: ver-<math>\Phi</math>-facht) wird: <math>(T^{-1}AT)u = \Phi u</math>. |
|||
<math>\ |
dass es also einen Vektor <math>u</math> ungleich Null gibt, der durch Multiplikation mit der Diagonalmatrix komponentenweise vervielfacht (genauer: ver-<math>\phi</math>-facht) wird: <math>(T^{-1}AT)u = \phi u</math>. Die Zahl <math>\phi</math> heißt wegen dieser Eigenschaft ein ''[[Eigenwert]]'' der Matrix <math>T^{-1}AT</math> (mit ''[[Eigenvektor]]'' <math>u</math>). Im Fall von Diagonalmatrizen sind die Eigenwerte gleich den Diagonaleinträgen. |
||
<math>\ |
<math>\phi</math> ist aber auch zugleich Eigenwert der ursprünglichen Matrix <math>A</math> (mit Eigenvektor <math>Tu</math>, denn <math>A(Tu) = \phi(Tu)</math>), die Eigenwerte bleiben bei Transformation der Matrix also unverändert. Die Diagonalform der Matrix <math>A</math> ergibt sich demnach aus deren Eigenwerten, und um die Eigenwerte von <math>A</math> zu finden, muss man untersuchen, für welche Zahlen <math>x</math> das lineare Gleichungssystem <math>Au = xu</math> eine von Null verschiedene Lösung <math>u</math> hat (oder, anders ausgedrückt, die Matrix <math>xE-A</math> ''nicht'' invertierbar ist). |
||
Die gesuchten Zahlen <math>x</math> sind genau diejenigen, die die Determinante der Matrix <math>xE-A</math> zu Null machen. Diese Determinante ist ein polynomialer Ausdruck in <math>x</math> (das sogenannte [[Charakteristisches Polynom|charakteristische Polynom]] von <math>A</math>); im Falle der oben genannten 2×2-Matrix <math>A</math> ergibt dies die [[quadratische Gleichung]] <math>x^2 - x - 1=0</math> mit den beiden Lösungen <math>x=\phi</math> und <math>x=1-\phi</math>. Die zugehörigen Eigenvektoren sind Lösungen der linearen Gleichungssysteme <math>Au = \phi u</math> beziehungsweise <math>Au = (1-\phi)u</math>, sie bilden dann die Spalten der Transformationsmatrix <math>T</math>. |
|||
Die gesuchten Zahlen <math>x</math> sind genau diejenigen, die die Determinante der Matrix <math>xE-A</math> |
|||
zu Null machen. Diese Determinante ist ein polynomialer Ausdruck mit <math>x</math> (das sogenannte [[Charakteristisches Polynom|charakteristische Polynom]] von <math>A</math>); im Falle der oben genannten 2-mal-2-Matrix <math>A</math> ergibt dies die [[quadratische Gleichung]] <math>x^2 - x - 1=0</math> mit den beiden Lösungen <math>x=\Phi</math> und <math>x=1-\Phi</math>. Die zugehörigen Eigenvektoren sind Lösungen der linearen Gleichungssysteme <math>Au = \Phi u</math> bzw. <math>Au = (1-\Phi)u</math>, aus ihnen erhält man dann die Transformationsmatrix <math>T</math>. |
|||
=== Diagonalisierbarkeit === |
=== Diagonalisierbarkeit === |
||
Ob eine Matrix diagonalisierbar ist, hängt vom verwendeten Zahlbereich ab. <math>A</math> ist zum Beispiel über den [[Rationale Zahlen|rationalen Zahlen]] nicht diagonalisierbar, weil die Eigenwerte <math>\phi</math> und <math>1-\phi</math> irrationale Zahlen sind. Die Diagonalisierbarkeit kann aber auch unabhängig vom Zahlbereich scheitern, wenn nicht „genügend“ Eigenwerte vorhanden sind; so hat etwa die Jordanform-Matrix |
|||
Ob eine Matrix diagonalisierbar ist, hängt vom verwendeten Zahlbereich ab. <math>A</math> ist z. B. über den [[Rationale Zahlen|rationalen Zahlen]] nicht diagonalisierbar, weil die Eigenwerte <math>\Phi</math> und <math>1-\Phi</math> irrationale Zahlen sind. Die Diagonalisierbarkeit kann aber auch unabhängig vom Zahlbereich scheitern, wenn nicht "genügend" Eigenwerte vorhanden sind; so hat etwa die Jordanform-Matrix |
|||
:<math>\begin{pmatrix}1&1\\0&1\end{pmatrix}</math> |
:<math>\begin{pmatrix}1&1\\0&1\end{pmatrix}</math> |
||
nur den Eigenwert 1 (als Lösung der quadratischen Gleichung <math>(x-1)^2 = 0</math>) und ist nicht diagonalisierbar. Bei genügend großem Zahlbereich ( |
nur den Eigenwert <math>1</math> (als Lösung der quadratischen Gleichung <math>(x-1)^2 = 0</math>) und ist nicht diagonalisierbar. Bei genügend großem Zahlbereich (zum Beispiel über den [[Komplexe Zahl|komplexen Zahlen]]) lässt sich aber jede Matrix diagonalisieren oder in [[Jordansche Normalform]] transformieren. |
||
Da die Transformation einer Matrix dem Basiswechsel einer linearen Abbildung entspricht, besagt diese letzte Aussage, dass man zu einer linearen Abbildung bei genügend großem Zahlbereich stets eine Basis wählen kann, die |
Da die Transformation einer Matrix dem Basiswechsel einer linearen Abbildung entspricht, besagt diese letzte Aussage, dass man zu einer linearen Abbildung bei genügend großem Zahlbereich stets eine Basis wählen kann, die „auf einfache Weise“ abgebildet wird: Im Fall der Diagonalisierbarkeit wird jeder Basisvektor auf ein Vielfaches von sich abgebildet (ist also ein Eigenvektor); im Fall der Jordanform auf ein Vielfaches von sich plus evtl. den vorigen Basisvektor. Diese ''Theorie der linearen Abbildung'' lässt sich auf [[Körper (Algebra)|Körper]] verallgemeinern, die nicht „genügend groß“ sind; in ihnen müssen neben der Jordanform andere Normalformen betrachtet werden (zum Beispiel die [[Frobenius-Normalform]]). |
||
== Literatur == |
== Literatur == |
||
{{Wikibooks|Mathematik: Lineare Algebra|Lineare Algebra}} |
|||
* Howard Anton: ''Lineare Algebra.'' Spektrum Akademischer Verlag, Heidelberg, ISBN 978-3-8274-0324-7. |
|||
{{Wikibooks|Mathematik:_Lineare_Algebra|Lineare Algebra}} |
|||
* |
* [[Albrecht Beutelspacher]]: ''Lineare Algebra.'' Vieweg-Verlag, ISBN 978-3-658-02412-3. |
||
* |
* Siegfried Bosch: ''Lineare Algebra.'' Springer-Lehrbuch, ISBN 978-3-540-76437-3. |
||
* Egbert Brieskorn: ''Lineare Algebra und analytische Geometrie |
* Egbert Brieskorn: ''Lineare Algebra und analytische Geometrie.'' Band 1, Vieweg-Verlag, 2012, ISBN 978-3-322-83175-0. |
||
* Egbert Brieskorn: ''Lineare Algebra und analytische Geometrie |
* Egbert Brieskorn: ''Lineare Algebra und analytische Geometrie.'' Band 2, Vieweg-Verlag, 1985, ISBN 978-3-528-08562-9. |
||
* |
* Theodor Bröcker: ''Lineare Algebra und Analytische Geometrie.'' Birkhäuser Verlag, ISBN 978-3-7643-7144-9. |
||
* Gerd Fischer: ''Lineare Algebra'' |
* [[Gerd Fischer (Mathematiker)|Gerd Fischer]]: ''Lineare Algebra.'' Vieweg-Verlag, ISBN 978-3-658-03944-8. |
||
* |
* Günter Gramlich: ''Lineare Algebra.'' Carl Hanser Verlag, ISBN 978-3-446-44140-8. |
||
* |
* Günter Gramlich: ''Anwendungen der Linearen Algebra.'' Carl Hanser Verlag, ISBN 978-3-446-22655-5. |
||
* |
* [[Klaus Jänich]]: ''Lineare Algebra.'' Springer-Lehrbuch, ISBN 978-3-540-75501-2. |
||
* Hans-Joachim Kowalsky: ''Lineare Algebra.'' de Gruyter Lehrbuch, ISBN 978-3-11-017963-7. |
|||
* Burkhard Lenze: ''Basiswissen Lineare Algebra.'' Springer-Vieweg, 2020, ISBN 978-3-658-29968-2. |
|||
* {{Literatur |Autor=Jörg Liesen, [[Volker Mehrmann]] |Titel=Lineare Algebra |Auflage=3 |Verlag=Springer |Ort=Berlin, Heidelberg |Datum=2021 |ISBN=978-3-662-62741-9 |DOI=10.1007/978-3-662-62742-6}} |
|||
* Falko Lorenz: ''Lineare Algebra.'' 2 Bände, BI/Spektrum, 2003, ISBN 3-8274-1406-7. |
|||
* [[Gilbert Strang]]: ''Lineare Algebra.'' Springer-Lehrbuch, ISBN 978-0-9802327-7-6. |
|||
* Shafarevich Igor, Remizov Alexey: ''Linear Algebra and Geometry.'' Springer, 2012, ISBN 978-3-642-30993-9. |
|||
== Weblinks == |
== Weblinks == |
||
{{Commonscat|Linear algebra|Lineare Algebra}} |
|||
{{Wikiversity|Kurs:Lineare Algebra (Osnabrück 2024-2025)/Teil I|Vorlesungen über lineare Algebra I}} |
|||
{{Wikiversity|Kurs:Lineare Algebra (Osnabrück 2024-2025)/Teil II|Vorlesungen über lineare Algebra II}} |
|||
* [[MIT OpenCourseWare]]: [https://ocw.mit.edu/courses/mathematics/18-06sc-linear-algebra-fall-2011/index.htm Video-Lektionen zur linearen Algebra] gehalten von Professor [[Gilbert Strang]]; aufgenommen 1999 (englisch). |
|||
* [http://www.mathproject.de/LineareAlgebra/Lineare_Algebra.html 17 Kapitel lineare Algebra] bei: ''mathproject.de'' in Deutsch und Englisch. |
|||
* [http://mo.mathematik.uni-stuttgart.de/kurse/kurs10/index_full.html Mathematik-Online-Kurs] – kurze Lektionen zu vielen Themen der linearen Algebra. |
|||
* Howard Anton, Lineare Algebra, Buch in deutscher Sprache: [https://vdoc.pub/download/lineare-algebra-einfuhrung-grundlagen-ubungen-7ltbjlddkdm0 Download] |
|||
== Einzelnachweise == |
|||
* {{dmoz|World/Deutsch/Wissenschaft/Mathematik/Algebra/|Algebra}} |
|||
<references /> |
|||
{{Normdaten|TYP=s|GND=4035811-2|LCCN=|NDL=|VIAF=}} |
|||
[[Kategorie:Lineare Algebra|!]] |
|||
[[Kategorie:Lineare Algebra| ]] |
|||
[[ar:جبر خطي]] |
|||
[[Kategorie:Teilgebiet der Mathematik]] |
|||
[[cs:Lineární algebra]] |
|||
[[da:Lineær algebra]] |
|||
[[en:Linear algebra]] |
|||
[[eo:Lineara algebro]] |
|||
[[es:Álgebra lineal]] |
|||
[[fa:جبر خطی]] |
|||
[[fi:Lineaarialgebra]] |
|||
[[fr:Algèbre linéaire]] |
|||
[[he:אלגברה לינארית]] |
|||
[[hu:Lineáris algebra]] |
|||
[[is:Línuleg algebra]] |
|||
[[it:Algebra lineare]] |
|||
[[ja:線型代数学]] |
|||
[[ka:წრფივი ალგებრა]] |
|||
[[ko:선형대수학]] |
|||
[[nl:Lineaire algebra]] |
|||
[[no:Lineær algebra]] |
|||
[[pl:Algebra liniowa]] |
|||
[[pt:Álgebra linear]] |
|||
[[ro:Algebră liniară]] |
|||
[[ru:Линейная алгебра]] |
|||
[[simple:Linear algebra]] |
|||
[[sl:Linearna algebra]] |
|||
[[sr:Линеарна алгебра]] |
|||
[[sv:Linjär algebra]] |
|||
[[vi:Đại số tuyến tính]] |
|||
[[zh:线性代数]] |
Aktuelle Version vom 21. April 2025, 09:16 Uhr
Die lineare Algebra (auch Vektoralgebra) ist ein Teilgebiet der Mathematik, das sich mit Vektorräumen beschäftigt. Ähnlich wie in anderen Teilgebieten der Mathematik, sind die strukturerhaltenden Abbildungen, welche in der linearen Algebra die linearen Abbildungen sind, von besonderem Interesse. Diese können durch Matrizen repräsentiert werden. Die lineare Algebra schließt insbesondere auch die Betrachtung von linearen Gleichungssystemen mit ein.
Vektorräume und deren lineare Abbildungen sind ein wichtiges Hilfsmittel in vielen Bereichen der Mathematik. Außerhalb der reinen Mathematik finden sich Anwendungen unter anderem in den Naturwissenschaften, in der Informatik und in der Wirtschaftswissenschaft (zum Beispiel in der Optimierung).
Die lineare Algebra entstand aus zwei konkreten Anforderungen heraus: einerseits dem Lösen von linearen Gleichungssystemen, andererseits der rechnerischen Beschreibung geometrischer Objekte, der sogenannten analytischen Geometrie (daher bezeichnen manche Autoren lineare Algebra als lineare Geometrie).
Geschichte
[Bearbeiten | Quelltext bearbeiten]Die Anfänge der Algebra und somit auch der Begriff selbst gehen weitestgehend auf den persisch-choresmischen Mathematiker, Astronomen, Geographen und Universalgelehrten Al-Chwarizmi zurück, der aufgrund der Islamisierung im Iran seine Werke ins Arabische übersetzen musste und so auf den Namen „al-jabr“ kam. Daraus leitet sich der Begriff der Algebra her.[1]
Während die Entwicklung der Algebra bereits im alten Ägypten begann, entstand die lineare Algebra als eigenständiges Teilgebiet erst im 17. Jahrhundert mit der Theorie der Determinante. Die Entwicklung dieser Theorie wurde unabhängig voneinander von Gottfried Wilhelm Leibniz und Seki Takakazu gestartet. Im Jahr 1750 veröffentlichte dann Gabriel Cramer die nach ihm benannte cramersche Regel. Damit war man erstmals im Besitz einer Lösungsformel für viele lineare Gleichungssysteme.[2]
Die Geschichte der modernen linearen Algebra reicht zurück bis in die Jahre 1843 und 1844. 1843 erdachte William Rowan Hamilton (von dem der Begriff Vektor stammt) mit den Quaternionen eine Erweiterung der komplexen Zahlen. 1844 veröffentlichte Hermann Graßmann sein Buch Die lineale Ausdehnungslehre. Arthur Cayley führte dann 1857 mit den -Matrizen eine der grundlegendsten algebraischen Ideen ein.
Ab dem 20. Jahrhundert befasste man sich dann mehrheitlich mit dem Begriff des Vektorraums. Insbesondere die Mathematiker August Ferdinand Möbius, Constantin Carathéodory und Hermann Weyl leisteten hierfür die Vorarbeit. So wurde beispielsweise festgestellt, dass lineare Abbildungen zwischen endlichdimensionalen Vektorräumen durch Matrizen beschrieben werden können. Auf dieser Erkenntnis basierend konnte Stefan Banach als Erster eine axiomatische Definition für reelle Vektorräume angeben.
Lineare Gleichungssysteme
[Bearbeiten | Quelltext bearbeiten]Als lineares Gleichungssystem bezeichnet man eine Zusammenfassung von Gleichungen der Art
Derartige Gleichungssysteme erhält man aus vielen alltäglichen Fragestellungen, beispielsweise:
- In welchem Verhältnis muss man eine 30%ige Lösung (entspricht ) und eine 60%ige Lösung (entspricht ) mischen, um eine 40%ige Lösung zu erhalten?
Der wesentliche Abstraktionsschritt der linearen Algebra besteht nun darin, die linken Seiten als eine Funktion der Unbekannten (in diesem Fall die Menge der jeweiligen Lösungen) aufzufassen:
Dann wird die Lösung des Gleichungssystems zu der Aufgabe: Finde ein , sodass
gilt. Das Übereinanderschreiben ist dabei lediglich ein Formalismus, um mit mehr als einer Zahl gleichzeitig umgehen zu können.
Statt schreibt man auch einfach die relevanten Zahlen in Form eines Rechtecks auf und nennt das Objekt eine Matrix:
Man stellt fest, dass die Funktion spezielle Eigenschaften hat, sie ist eine lineare Abbildung. Ist eine Lösung für das Gleichungssystem , und eine Lösung des Gleichungssystems , so ist
eine Lösung von . Man kann das auch in der Form schreiben. Ist weiter irgendeine reelle Zahl, so ist ; dabei ist
- .
Analytische Geometrie
[Bearbeiten | Quelltext bearbeiten]Der andere Ursprung der linearen Algebra findet sich in der rechnerischen Beschreibung des 2- und 3-dimensionalen (euklidischen) Raumes, auch „Anschauungsraum“ genannt. Mit Hilfe eines Koordinatensystems können Punkte im Raum durch Tripel von Zahlen beschrieben werden. Der Abbildungstyp der Verschiebung führt zum Begriff des Vektors, der Richtung und Betrag der Verschiebung angibt. Viele physikalische Größen, beispielsweise Kräfte, haben stets diesen Richtungsaspekt.
Da man auch Vektoren durch Zahlentripel beschreiben kann, verschwimmt die Trennung zwischen Vektoren und Punkten: Einem Punkt entspricht sein Ortsvektor, der vom Koordinatenursprung nach zeigt.
Viele der in der klassischen Geometrie betrachteten Abbildungstypen, beispielsweise Drehungen um Achsen durch den Ursprung oder Spiegelungen an Ebenen durch den Ursprung, gehören zur Klasse der linearen Abbildungen, die schon oben erwähnt wurde.
Vektorräume und lineare Algebra
[Bearbeiten | Quelltext bearbeiten]Der Begriff des Vektorraumes entsteht als Abstraktion der obigen Beispiele: Ein Vektorraum ist eine Menge, deren Elemente Vektoren genannt werden, zusammen mit
- einer Addition von Vektoren
- einer Multiplikation von Vektoren mit Elementen eines fixierten Körpers, Skalarmultiplikation (äußere Multiplikation) genannt.
Diese Addition und die Skalarmultiplikation müssen noch einige einfache Eigenschaften erfüllen, die auch für die Vektoren im Anschauungsraum gelten.
Man könnte sagen, dass Vektorräume gerade so definiert sind, dass man von linearen Abbildungen zwischen ihnen sprechen kann.
In gewisser Weise ist der Begriff des Vektorraums für die lineare Algebra bereits zu allgemein. Jedem Vektorraum ist eine Dimension zugeordnet, beispielsweise hat die Ebene Dimension und der Anschauungsraum die Dimension . Es gibt aber Vektorräume, deren Dimension nicht endlich ist, wodurch viele der bekannten Eigenschaften verloren gehen. Es hat sich aber als sehr erfolgreich erwiesen, unendlichdimensionale Vektorräume mit einer zusätzlichen topologischen Struktur auszustatten; die Untersuchung topologischer Vektorräume ist Gegenstand der Funktionalanalysis.
(Der Rest dieses Artikels beschäftigt sich mit dem Fall endlicher Dimensionen.)
Wichtige Sätze und Ergebnisse
[Bearbeiten | Quelltext bearbeiten]Jeder Vektorraum hat (unter der Annahme, dass das Auswahlaxiom gilt,) mindestens eine Basis. Die Basis kann endlich oder unendlich viele Elemente enthalten.
Falls ein Vektorraum eine Basis aus endlich vielen Elementen hat, haben alle Basen dieses Vektorraumes endlich viele Elemente und die Anzahl der Elemente ist für alle Basen gleich. Falls ein Vektorraum eine Basis aus unendlich vielen Elementen hat, haben alle Basen dieses Vektorraumes unendlich viele Elemente. Deshalb ist es sinnvoll, von der Dimension eines Vektorraumes als die Anzahl der Elemente einer Basis sowie von endlich- und unendlich-dimensionalen Vektorräumen zu sprechen. Für Summen und Durchschnitte von Untervektorräumen gilt die Dimensionsformel und für die Dimensionen von Faktorräumen eines endlich-dimensionalen Vektorraumes die Formel .
Jede lineare Abbildung ist durch die Angabe der Bilder einer Basis von eindeutig festgelegt. Für lineare Abbildungen gelten der Homomorphiesatz und der Rangsatz. Lineare Abbildungen können bezüglich fest gewählter Basen durch Matrizen dargestellt werden. Dabei entspricht der Hintereinanderausführung von linearen Abbildungen die Multiplikation ihrer Darstellungsmatrizen.
Ein lineares Gleichungssystem mit , und ist genau dann lösbar, wenn der Rang der Matrix gleich dem Rang der erweiterten Koeffizientenmatrix ist. In diesem Fall ist die Lösungsmenge des Systems ein affiner Unterraum von der Dimension . Für nicht zu große Gleichungssysteme können die Rangbestimmung und die Berechnung des Lösungsraumes mit dem Gaußschen Eliminationsverfahren durchgeführt werden.
Eine lineare Abbildung (also ein Endomorphismus) eines endlichdimensionalen Vektorraumes ist bereits invertierbar, wenn sie injektiv oder surjektiv ist. Dies ist wiederum genau dann der Fall, wenn ihre Determinante ungleich null ist. Hieraus folgt, dass die Eigenwerte eines Endomorphismus genau die Nullstellen seines charakteristischen Polynoms sind. Eine weitere wichtige Aussage über das charakteristische Polynom ist der Satz von Cayley-Hamilton.
Ein Endomorphismus (beziehungsweise eine quadratische Matrix) ist genau dann diagonalisierbar, wenn das charakteristische Polynom in Linearfaktoren zerfällt und für jeden Eigenwert dessen algebraische Vielfachheit gleich der geometrischen Vielfachheit, also die Nullstellenordnung des Eigenwerts im charakteristischen Polynom gleich der Dimension des zugehörigen Eigenraumes ist. Äquivalent dazu ist die Existenz einer Basis des Vektorraumes, die aus Eigenvektoren der linearen Abbildung besteht. Endomorphismen, deren charakteristisches Polynom in Linearfaktoren zerfällt, sind immerhin noch trigonalisierbar, können also durch eine Dreiecksmatrix dargestellt werden. Ein etwas tiefer liegendes Ergebnis ist, dass die darstellende Matrix dabei sogar in jordansche Normalform gebracht werden kann.
In Vektorräumen, auf denen zusätzlich ein Skalarprodukt gegeben ist, wird durch eine Norm definiert. In diesen Skalarprodukträumen existieren stets Orthonormalbasen, die etwa durch das Gram-Schmidtsche Orthonormalisierungsverfahren konstruiert werden können. Nach dem Projektionssatz kann man in diesen Räumen die Bestapproximation aus einem Untervektorraum durch orthogonale Projektion bestimmen.
Bezüglich der Diagonalisierbarkeit von Endomorphismen in Skalarprodukträumen stellt sich die Frage, ob eine Orthonormalbasis aus Eigenvektoren existiert. Das zentrale Resultat hierzu ist der Spektralsatz. Insbesondere gilt im reellen Fall: Zu jeder symmetrischen Matrix gibt es eine orthogonale Matrix , sodass eine Diagonalmatrix ist. Wendet man dieses Ergebnis auf quadratische Formen an, ergibt sich der Satz von der Hauptachsentransformation.
Auch Bilinearformen und Sesquilinearformen können bei fest gewählten Basen durch Matrizen dargestellt werden. Eine Bilinearform ist genau dann symmetrisch und positiv definit, also ein Skalarprodukt, wenn ihre darstellende Matrix symmetrisch und positiv definit ist. Eine symmetrische Matrix ist genau dann positiv definit, wenn alle ihre Eigenwerte positiv sind. Allgemein gilt für symmetrische Bilinearformen und hermitesche Sesquilinearformen der Trägheitssatz von Sylvester, der besagt, dass die Anzahl der positiven und negativen Eigenwerte der darstellenden Matrizen nicht von der Wahl der Basis abhängen.
Vektoren und Matrizen
[Bearbeiten | Quelltext bearbeiten]Vektoren endlichdimensionaler Räume können durch ihre Komponenten beschrieben werden, die (je nach Anwendung) als Spaltenvektor
oder Zeilenvektor
geschrieben werden. Häufig werden Zeilenvektoren mit einem hochgestellten T für transponiert, wie , gekennzeichnet.
In der Literatur werden Vektoren auf unterschiedliche Weise von anderen Größen unterschieden: Es werden Kleinbuchstaben, fettgedruckte Kleinbuchstaben, unterstrichene Kleinbuchstaben, Kleinbuchstaben mit einem Pfeil darüber oder kleine Frakturbuchstaben benutzt. Dieser Artikel verwendet Kleinbuchstaben.
Eine Matrix wird durch ein „Raster“ von Zahlen angegeben. Hier ist eine Matrix mit vier Zeilen und drei Spalten:
Matrizen werden meistens mit Großbuchstaben bezeichnet.
Einzelne Elemente eines Vektors werden bei Spaltenvektoren in der Regel durch einen Index angegeben: Das zweite Element des oben angegebenen Vektors wäre dann . In Zeilenvektoren wird manchmal eine Hochzahl verwendet, wobei man aufpassen muss, ob eine Vektorindizierung oder ein Exponent vorliegt: Mit dem obigen Beispiel hat man etwa . Matrixelemente werden durch zwei Indizes angegeben. Dabei werden die Elemente durch Kleinbuchstaben dargestellt: ist das Element in der zweiten Zeile der dritten Spalte (statt „in der dritten Spalte der zweiten Zeile“, denn so lässt sich leichter lesen).
Der verallgemeinerte Begriff dieser Gebilde ist Tensor, Skalare sind Tensoren nullter Stufe, Vektoren Tensoren erster Stufe, Matrizen Tensoren zweiter Stufe. Ein Tensor -ter Stufe kann durch einen -dimensionalen Zahlenwürfel repräsentiert werden.
Oftmals ist es erforderlich, Matrizen mittels elementarer Zeilenumformungen oder Basiswechsel auf eine spezielle Form zu bringen. Wichtig sind dabei insbesondere die Dreiecksform, die Diagonalform und die jordansche Normalform.
Endomorphismen und quadratische Matrizen
[Bearbeiten | Quelltext bearbeiten]Bei der Darstellung einer linearen Abbildung – wie unter Matrix beschrieben – gibt es den Sonderfall einer linearen Abbildung eines endlichdimensionalen Vektorraums auf sich selbst (eines sog. Endomorphismus). Man kann dann dieselbe Basis für Urbild- und Bildkoordinaten verwenden und erhält eine quadratische Matrix , sodass die Anwendung der linearen Abbildung der Linksmultiplikation mit entspricht. Um die Abhängigkeit von und zum Ausdruck zu bringen, verwendet man Schreibweisen wie oder . Die zweimalige Hintereinanderausführung dieser Abbildung entspricht dann der Multiplikation mit usw., und man kann alle polynomialen Ausdrücke mit (Summen von Vielfachen von Potenzen von ) als lineare Abbildungen des Vektorraums auffassen.
Invertierbarkeit
[Bearbeiten | Quelltext bearbeiten]Zu einer invertierbaren Matrix existiert eine inverse Matrix mit . Analog zur Rechenregel bei Zahlen ist die nullte Potenz einer quadratischen Matrix die Diagonalmatrix (Einheitsmatrix) mit Einsen auf der Diagonalen und in der alle restlichen Elemente Null sind, sie entspricht der Identitätsabbildung jedes Vektors auf sich selbst. Negative Potenzen einer quadratischen Matrix lassen sich nur berechnen, wenn die durch gegebene lineare Abbildung invertierbar ist, also keine zwei unterschiedlichen Vektoren und auf denselben Vektor abbildet. Anders ausgedrückt, muss für eine invertierbare Matrix aus stets folgen, das lineare Gleichungssystem darf also nur die Lösung haben.
Determinanten
[Bearbeiten | Quelltext bearbeiten]Eine Determinante ist eine spezielle Funktion, die einer quadratischen Matrix eine Zahl zuordnet. Diese Zahl gibt Auskunft über einige Eigenschaften der Matrix. Beispielsweise lässt sich an ihr erkennen, ob eine Matrix invertierbar ist. Eine weitere wichtige Anwendung ist die Berechnung des charakteristischen Polynoms und damit der Eigenwerte der Matrix.
Es gibt geschlossene Formeln zur Berechnung der Determinanten, wie den Laplace’schen Entwicklungssatz oder die Leibniz-Formel. Diese Formeln sind jedoch eher von theoretischem Wert, da ihr Aufwand bei größeren Matrizen stark ansteigt. In der Praxis kann man Determinanten am leichtesten berechnen, indem man die Matrix mit Hilfe des Gauß-Algorithmus in obere oder untere Dreiecksform bringt, die Determinante ist dann einfach das Produkt der Hauptdiagonalelemente.
Beispiel
[Bearbeiten | Quelltext bearbeiten]Obige Begriffe sollen an einem durch die Fibonacci-Folge motivierten Beispiel verdeutlicht werden.
Berechnung von Potenzen mittels Diagonalisierung
[Bearbeiten | Quelltext bearbeiten]Die Fibonacci-Folge ist rekursiv durch die Gleichungen , und für definiert, was gleichbedeutend ist mit
und
- ,
woraus durch Iteration die nichtrekursive Formel
folgt, in der die -te Potenz einer Matrix vorkommt.
Das Verhalten einer solchen Matrix bei Potenzierung ist nicht leicht zu erkennen; hingegen wird die -te Potenz einer Diagonalmatrix einfach durch Potenzierung jedes einzelnen Diagonaleintrags berechnet. Wenn es nun eine invertierbare Matrix gibt, sodass Diagonalform hat, lässt sich die Potenzierung von auf die Potenzierung einer Diagonalmatrix zurückführen gemäß der Gleichung (die linke Seite dieser Gleichung ist dann die -te Potenz einer Diagonalmatrix). Allgemein lässt sich durch Diagonalisierung einer Matrix ihr Verhalten (bei Potenzierung, aber auch bei anderen Operationen) leichter erkennen.
Fasst man als Matrix einer linearen Abbildung auf, so ist die Transformationsmatrix die Basiswechselmatrix zu einer anderen Basis , also (wobei die Identitätsabbildung jeden Vektor auf sich selbst abbildet). Dann ist nämlich .
Im oben genannten Beispiel lässt sich eine Transformationsmatrix finden, sodass
eine Diagonalmatrix ist, in der der goldene Schnitt vorkommt. Hieraus erhält man schließlich die Formel von Binet:
Eigenwerte
[Bearbeiten | Quelltext bearbeiten]Wie kommt man von der Matrix auf die Zahl ? An der Diagonalmatrix erkennt man sofort
- ,
dass es also einen Vektor ungleich Null gibt, der durch Multiplikation mit der Diagonalmatrix komponentenweise vervielfacht (genauer: ver--facht) wird: . Die Zahl heißt wegen dieser Eigenschaft ein Eigenwert der Matrix (mit Eigenvektor ). Im Fall von Diagonalmatrizen sind die Eigenwerte gleich den Diagonaleinträgen.
ist aber auch zugleich Eigenwert der ursprünglichen Matrix (mit Eigenvektor , denn ), die Eigenwerte bleiben bei Transformation der Matrix also unverändert. Die Diagonalform der Matrix ergibt sich demnach aus deren Eigenwerten, und um die Eigenwerte von zu finden, muss man untersuchen, für welche Zahlen das lineare Gleichungssystem eine von Null verschiedene Lösung hat (oder, anders ausgedrückt, die Matrix nicht invertierbar ist).
Die gesuchten Zahlen sind genau diejenigen, die die Determinante der Matrix zu Null machen. Diese Determinante ist ein polynomialer Ausdruck in (das sogenannte charakteristische Polynom von ); im Falle der oben genannten 2×2-Matrix ergibt dies die quadratische Gleichung mit den beiden Lösungen und . Die zugehörigen Eigenvektoren sind Lösungen der linearen Gleichungssysteme beziehungsweise , sie bilden dann die Spalten der Transformationsmatrix .
Diagonalisierbarkeit
[Bearbeiten | Quelltext bearbeiten]Ob eine Matrix diagonalisierbar ist, hängt vom verwendeten Zahlbereich ab. ist zum Beispiel über den rationalen Zahlen nicht diagonalisierbar, weil die Eigenwerte und irrationale Zahlen sind. Die Diagonalisierbarkeit kann aber auch unabhängig vom Zahlbereich scheitern, wenn nicht „genügend“ Eigenwerte vorhanden sind; so hat etwa die Jordanform-Matrix
nur den Eigenwert (als Lösung der quadratischen Gleichung ) und ist nicht diagonalisierbar. Bei genügend großem Zahlbereich (zum Beispiel über den komplexen Zahlen) lässt sich aber jede Matrix diagonalisieren oder in Jordansche Normalform transformieren.
Da die Transformation einer Matrix dem Basiswechsel einer linearen Abbildung entspricht, besagt diese letzte Aussage, dass man zu einer linearen Abbildung bei genügend großem Zahlbereich stets eine Basis wählen kann, die „auf einfache Weise“ abgebildet wird: Im Fall der Diagonalisierbarkeit wird jeder Basisvektor auf ein Vielfaches von sich abgebildet (ist also ein Eigenvektor); im Fall der Jordanform auf ein Vielfaches von sich plus evtl. den vorigen Basisvektor. Diese Theorie der linearen Abbildung lässt sich auf Körper verallgemeinern, die nicht „genügend groß“ sind; in ihnen müssen neben der Jordanform andere Normalformen betrachtet werden (zum Beispiel die Frobenius-Normalform).
Literatur
[Bearbeiten | Quelltext bearbeiten]- Howard Anton: Lineare Algebra. Spektrum Akademischer Verlag, Heidelberg, ISBN 978-3-8274-0324-7.
- Albrecht Beutelspacher: Lineare Algebra. Vieweg-Verlag, ISBN 978-3-658-02412-3.
- Siegfried Bosch: Lineare Algebra. Springer-Lehrbuch, ISBN 978-3-540-76437-3.
- Egbert Brieskorn: Lineare Algebra und analytische Geometrie. Band 1, Vieweg-Verlag, 2012, ISBN 978-3-322-83175-0.
- Egbert Brieskorn: Lineare Algebra und analytische Geometrie. Band 2, Vieweg-Verlag, 1985, ISBN 978-3-528-08562-9.
- Theodor Bröcker: Lineare Algebra und Analytische Geometrie. Birkhäuser Verlag, ISBN 978-3-7643-7144-9.
- Gerd Fischer: Lineare Algebra. Vieweg-Verlag, ISBN 978-3-658-03944-8.
- Günter Gramlich: Lineare Algebra. Carl Hanser Verlag, ISBN 978-3-446-44140-8.
- Günter Gramlich: Anwendungen der Linearen Algebra. Carl Hanser Verlag, ISBN 978-3-446-22655-5.
- Klaus Jänich: Lineare Algebra. Springer-Lehrbuch, ISBN 978-3-540-75501-2.
- Hans-Joachim Kowalsky: Lineare Algebra. de Gruyter Lehrbuch, ISBN 978-3-11-017963-7.
- Burkhard Lenze: Basiswissen Lineare Algebra. Springer-Vieweg, 2020, ISBN 978-3-658-29968-2.
- Jörg Liesen, Volker Mehrmann: Lineare Algebra. 3. Auflage. Springer, Berlin, Heidelberg 2021, ISBN 978-3-662-62741-9, doi:10.1007/978-3-662-62742-6.
- Falko Lorenz: Lineare Algebra. 2 Bände, BI/Spektrum, 2003, ISBN 3-8274-1406-7.
- Gilbert Strang: Lineare Algebra. Springer-Lehrbuch, ISBN 978-0-9802327-7-6.
- Shafarevich Igor, Remizov Alexey: Linear Algebra and Geometry. Springer, 2012, ISBN 978-3-642-30993-9.
Weblinks
[Bearbeiten | Quelltext bearbeiten]- MIT OpenCourseWare: Video-Lektionen zur linearen Algebra gehalten von Professor Gilbert Strang; aufgenommen 1999 (englisch).
- 17 Kapitel lineare Algebra bei: mathproject.de in Deutsch und Englisch.
- Mathematik-Online-Kurs – kurze Lektionen zu vielen Themen der linearen Algebra.
- Howard Anton, Lineare Algebra, Buch in deutscher Sprache: Download
Einzelnachweise
[Bearbeiten | Quelltext bearbeiten]- ↑ John Stillwell: Mathematics and Its History. Springer, New York, NY 2010, ISBN 978-1-4419-6052-8, S. 88–89, doi:10.1007/978-1-4419-6053-5_6.
- ↑ Heinz-Wilhelm Alten: 4000 Jahre Algebra. Geschichte, Kulturen, Menschen. Springer, Berlin u. a. 2003, ISBN 3-540-43554-9, S. 335–339.