Zum Inhalt springen

Lineare Algebra

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 14. März 2005 um 18:52 Uhr durch P. Birken (Diskussion | Beiträge) (Eigenwertprobleme und Funktionalanalysis hinzugefuegt). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Lineare Algebra ist der Zweig der Mathematik, der sich mit Vektoren, Vektorräumen, linearen Abbildungen und linearen Gleichungssystemen befasst. Da der Vektorraum ein wichtiges Hilfsmittel in vielen Bereichen der Mathematik ist, gilt die lineare Algebra als eine der Grundlagen der Mathematik. Außerhalb der reinen Mathematik finden sich Anwendungen der linearen Algebra u.a. in den Naturwissenschaften und in der Wirtschaftswissenschaft (z.B. in der Optimierung).

Der Ursprung der linearen Algebra findet sich in systematischen Betrachtungen von Vektoren im 2- und 3-dimensionalen (euklidischen) Raum, auch "Anschauungsraum" genannt. Hier entspricht einem Vektor eine Strecke einer bestimmten Länge (der Betrag des Vektors) sowie eine der zwei möglichen Richtungen. Vektoren dieser Art lassen sich nutzen, um physikalische Größen (etwa Kräfte) anschaulich darzustellen. Die Multiplikation eines Vektors mit einer Zahl sowie das Addieren von Vektoren bilden die Rechenoperationen in einem aus Vektoren gebildeten Vektorraum. Die Anwendung der linearen Algebra auf die Geometrie ergibt die analytische Geometrie.

Die Verallgemeinerung zu mehrdimensionalen abstrakten Vektorräumen ist wesentlicher Bestandteil der linearen Algebra. Hier werden der mathematische Ring aller linearen Abbildungen, die als Matrizen darstellbar sind, wichtige Hilfsmittel. Ein Vektorraum ist nur dann vollständig charakterisiert, wenn der Zahlenkörper, über dem der Vektorraum definiert ist, angegeben ist. Typische Zahlenkörper sind die reellen oder komplexen Zahlen.

Wichtige Begriffe der Linearen Algebra, die besser unter Vektorraum beschrieben werden, sind die Basis eines Vektorraums, die Eigenschaften linearer Abbildungen und von Determinanten sowie das Skalarprodukt.

Als Verallgememeinerung der linearen Algebra auf das Studium unendlich dimensionaler Vektorraeume von Funktionen kann die Funktionalanalysis betrachtet werden.

Vektoren und Matrizen

Vektoren können durch ihre Komponenten beschrieben werden, die (je nach Anwendung) als (hier 3-dimensionaler) Spaltenvektor

oder (hier 4-dimensionaler) Zeilenvektor

geschrieben werden.

In der Literatur werden Vektoren unterschiedlich von anderen Größen unterschieden: Es werden Kleinbuchstaben, fettgedruckte Kleinbuchstaben, unterstrichene Kleinbuchstaben oder Kleinbuchstaben mit einem Pfeil darüber benutzt. Dieser Artikel verwendet Kleinbuchstaben.

Eine Matrix wird durch ein 'Raster' von Zahlen angegeben. Hier ist eine Matrix mit 4 Zeilen und 3 Spalten:

Matrizen werden meistens mit Großbuchstaben bezeichnet.

Einzelne Elemente eines Vektors werden bei Spaltenvektoren in der Regel durch einen Index angegeben: Das 2. Element des oben angegebenen Vektors a wäre dann a2=7. In Zeilenvektoren wird manchmal eine Hochzahl verwendet, wobei man aufpassen muss, ob eine Vektorindizierung oder ein Exponent vorliegt: Mit dem obigen Beispiel b hat man etwa b4=7.

Matrixelemente werden durch zwei Indizes angegeben. Dabei werden die Elemente durch Kleinbuchstaben dargestellt: m2,3=2 ist das Element der 2. Zeile in der 3. Spalte.

Der verallgemeinerte Begriff dieser Gebilde ist Tensor, Skalare sind Tensoren 0. Stufe, Vektoren Tensoren 1. Stufe, Matrizen Tensoren 2. Stufe. Ein Tensor n. Stufe kann durch einen n-dimensionalen Zahlen-Würfel repräsentiert werden.

Rechenregeln

Sowohl Vektoren als auch Matrizen werden elementweise addiert (siehe hierzu auch Vektorrechnung und Matrix):

Die Multiplikation mit einer Zahl (Skalarmultiplikation, skalare Multiplikation) erfolgt durch Multiplikation jedes Vektor- oder Matrixelementes mit der Zahl.

Damit eine Multiplikation zweier Matrizen definiert werden kann, muss die Anzahl der Spalten der 'linken' Matrix gleich der Anzahl der Zeilen der 'rechten' Matrix sein. Die anschauliche Merkregel zur Matrixmultiplikation beispielsweise zweier Matrizen zu C = A * B ist, dass man ein Element ci,j der Matrix C aus dem Produkt der i-ten Zeile der Matrix A mit der j-ten Spalte der Matrix B erhält. Nach den oben genannten Bedingungen ist sichergestellt, dass eine Zeile in A genausoviele Elemente wie eine Spalte in B enthält. Dann kann man das Produkt von Zeile mit Spalte als die Summe der paarweisen Produkte (erstes Element der Zeile * erstes Element der Spalte + ... + letztes Element der Zeile * letztes Element der Spalte) definieren. Da man formal einen Vektor als eine Matrix mit einer Zeile oder einer Spalte auffassen kann, fallen Multiplikationen zwischen Matrix und Vektor ebenfalls unter diese Vorschrift.



Formal definiert man die Matrixmultiplikation C = A * B durch

.

Eine wichtige Anwendung der Linearen Algebra ist das Lösen linearer Gleichungssysteme. Beispielsweise kann man das lineare Gleichungssystem,

für das die Lösungswerte für , und berechnet werden sollen, in eine Matrix- und Vektorgleichung A * x = b umformen:

Diese Sichtweise erlaubt die systematische Untersuchung linearer Gleichungssysteme durch das Studium linearer Abbildungen, die durch Matrizen repräsentiert werden. Die Eigenschaften linearer Abbildungen lassen sich dann durch Eigenschaften der Matrizen darstellen und führen zu Begriffen wie der inversen Matrix oder der Determinante.

Eine rechnerische Lösung der Gleichungssysteme kann beispielsweise mittels des Gauß-Algorithmus erfolgen.

Eigenwertprobleme

Ein Eigenwert einer quadratischen Matrix ist eine Zahl mit der Eigenschaft

.

x heisst dann Eigenvektor zum Eigenwert . Eigenwerte und Eigenvektoren einer Matrix charakterisieren wichtige Eigenschaften linearer Abbildungen. So hat beispielsweise ein Gleichungssystem, dessen zugehoerige Matrix einen Eigenwert 0 hat, nie eine eindeutige Loesung.

Literatur