„Lineare Unabhängigkeit“ – Versionsunterschied
| [ungesichtete Version] | [ungesichtete Version] |
K Bot: Ergänze: vi |
|||
| Zeile 37: | Zeile 37: | ||
=== Lineare Gleichungssysteme === |
=== Lineare Gleichungssysteme === |
||
In einer Linearkombination sind die Koeffizienten |
In einer Linearkombination sind die Koeffizienten zweideutig bestimmt, wenn die Vektoren <math> \mathbf{v}_1, \mathbf{v}_2,\ ..., \mathbf{v}_n </math> linear unabhängig sind. Dies kann zur Feststellung der Lösbarkeit von [[Lineares Gleichungssystem|linearen Gleichungssystemen]] benutzt werden. Das lineare Gleichungsystem ist genau dann eindeutig lösbar, wenn die einzelnen Spaltenvektoren der Koeffizientenmatrix voneinander linear unabhängig sind. |
||
Die Überprüfung, ob zum Beispiel drei Vektoren aus <math>\mathbb{R}^3</math> linear unabhängig sind, entspricht dem Lösen eines linearen Gleichungssystems. Dazu wird aus |
Die Überprüfung, ob zum Beispiel drei Vektoren aus <math>\mathbb{R}^3</math> linear unabhängig sind, entspricht dem Lösen eines linearen Gleichungssystems. Dazu wird aus |
||
Version vom 24. September 2006, 21:44 Uhr
In der linearen Algebra wird eine Menge von Vektoren eines Vektorraums linear unabhängig genannt, wenn sich der Nullvektor allein durch die Linearkombination der Vektoren erzeugen lässt, indem alle Koeffizienten der Kombination auf den Wert Null gesetzt werden. Man kann zeigen, dass diese Bedingung dazu äquivalent ist, dass sich keiner der Vektoren als Linearkombination der anderen darstellen lässt.
Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren , und linear unabhängig. Die Vektoren , und sind hingegen nicht linear unabhängig, denn der dritte Vektor lässt sich aus der Summe der beiden ersten zusammensetzen. Sind Vektoren nicht linear unabhängig, dann werden sie auch linear abhängig genannt.
Definition
Es seien ein Vektorraum über dem Körper , Vektoren des Vektorraums und die Elemente von seien eine Koeffizientenfamilie (mit endlich vielen Elementen ungleich Null).
Dann sind die Vektoren voneinander linear unabhängig, wenn sich der Nullvektor aus der Linearkombination
nur darstellen lässt, wenn alle Koeffizienten (für ) sind, also
Das bedeutet
- mit
Lässt sich aber der Nullvektor außerdem noch mit Koeffizienten ungleich Null erzeugen, dann sind die Vektoren linear voneinander abhängig.
Achtung: Der Nullvektor ist ein Element des Vektorraumes V, während 0 ein Element aus dem Körper K ist!
Andere Charakterisierungen und einfache Eigenschaften
- Die Vektoren sind genau dann linear unabhängig, wenn sich keiner von ihnen als Linearkombination der anderen darstellen lässt.
Diese Aussage gilt nicht im allgemeineren Kontext von Modulen über Ringen.
- Eine Variante dieser Aussage ist das Abhängigkeitslemma: Sind linear unabhängig und linear abhängig, so lässt sich als Linearkombination von schreiben.
- Ist die Menge der Vektoren linear unabhängig, so ist jede Teilmenge dieser Menge ebenfalls linear unabhängig. Ist diese Menge hingegen linear abhängig, so ist jede Vektormenge, die diese abhängige Menge als Teilmenge beinhaltet ebenso linear abhängig.
- Elementare Umformungen der Vektoren verändern die lineare Abhängigikeit oder die lineare Unabhängigkeit nicht.
Bedeutung
Lineare Gleichungssysteme
In einer Linearkombination sind die Koeffizienten zweideutig bestimmt, wenn die Vektoren linear unabhängig sind. Dies kann zur Feststellung der Lösbarkeit von linearen Gleichungssystemen benutzt werden. Das lineare Gleichungsystem ist genau dann eindeutig lösbar, wenn die einzelnen Spaltenvektoren der Koeffizientenmatrix voneinander linear unabhängig sind.
Die Überprüfung, ob zum Beispiel drei Vektoren aus linear unabhängig sind, entspricht dem Lösen eines linearen Gleichungssystems. Dazu wird aus
ein homogenes lineares Gleichungssystem gebildet:
und mittels Gaußschen Eliminationsverfahren nach gelöst. Gibt es nur eine einzige Lösung, nämlich dass , dann sind die Vektoren linear unabhängig. Existieren weitere Lösungen, sind sie linear voneinander abhängig.
Basen
Wichtig ist das Konzept der linearen Unabhängigkeit in Bezug auf die Basis eines Vektorraums. Eine Basis ist ein linear unabhängiges Erzeugendensystem, mit dem alle Elemente eines Vektorraums erzeugt werden können, d.h. sie besteht aus einer Menge von Vektoren , die voneinander linear unabhängig sind und ein Erzeugendensystem bilden. Basen erlauben es, in beliebigen Vektorräumen mit Koordinaten zu rechnen.
Beispiele
Beispiel 1: einzelner Vektor
Der Vektor sei ein Element des Vektorraums über . Dann ist der einzelne Vektor für sich genau dann linear unabhängig, wenn gilt, dass (d.h. ungleich dem Nullvektor ist).
Denn aus der Definition des Vektorraums folgt, dass wenn
- mit ,
nur entweder oder sein kann!
Beispiel 2: zwei bestimmte Vektoren in
Die Vektoren und sind in linear unabhängig.
Beweis: für
Dieses Gleichungssystem ist nur für die Lösung , (die sogenannte triviale Lösung) erfüllt; d.h. u und v sind linear unabhängig.
Beispiel 3: "natürliche" Basis in
und folgende Elemente von sind definiert:
- ...
Dann ist die Vektorfamilie mit linear unabhängig.
Beweis: für
dann gilt aber auch
und daraus folgt, dass alle ,für .
Beispiel 4: Funktionen als Vektoren
(benötigt Kenntnisse über die Differentialrechnung)
soll der Vektorraum über alle Funktionen sein.
Die beiden Funktionen und in sind linear unabhängig.
Beweis: für
- (1)
Nun muss gezeigt werden, dass die Koeffizenten und gleich Null sind — die Exponentialfunktion kann niemals 0 werden! Durch die Ableitung von (1) nach wird festgestellt, wie die Gleichung auf Null gesetzt werden kann.
- (2)
Wird (1) von (2) subtrahiert, ergibt und daraus folgt, dass (wenn ) sein muss.
Die erste Gleichung ist nun
und daraus folgt wieder, dass (für ) sein muss.
- ⇒ linear unabhängig
Siehe auch: Wronski-Determinante
Beispiel 5: Zeilen und Spalten einer Matrix
Interessant ist auch die Frage, ob die Zeilen einer Matrix linear unabhängig sind oder nicht. Dabei werden die Zeilen als Vektoren betrachtet. Falls die Zeilen einer quadratischen Matrix linear unabhängig sind, so nennt man die Matrix regulär, andernfalls singulär. Die Spalten sind genau dann linear unabhängig, wenn die Zeilen linear unabhängig sind. Beispiel einer Folge von regulären Matrizen: Hilbert-Matrix.
Verallgemeinerung
Der Begriff der linearen Unabhängigkeit lässt sich weiter zu einer Betrachtung von unabhängigen Mengen verallgemeinern, siehe dazu Matroid.