Zum Inhalt springen

„Lineare Unabhängigkeit“ – Versionsunterschied

aus Wikipedia, der freien Enzyklopädie
[ungesichtete Version][ungesichtete Version]
Inhalt gelöscht Inhalt hinzugefügt
DHN-bot~dewiki (Diskussion | Beiträge)
K Bot: Ergänze: vi
Zeile 37: Zeile 37:
=== Lineare Gleichungssysteme ===
=== Lineare Gleichungssysteme ===


In einer Linearkombination sind die Koeffizienten eindeutig bestimmt, wenn die Vektoren <math> \mathbf{v}_1, \mathbf{v}_2,\ ..., \mathbf{v}_n </math> linear unabhängig sind. Dies kann zur Feststellung der Lösbarkeit von [[Lineares Gleichungssystem|linearen Gleichungssystemen]] benutzt werden. Das lineare Gleichungsystem ist genau dann eindeutig lösbar, wenn die einzelnen Spaltenvektoren der Koeffizientenmatrix voneinander linear unabhängig sind.
In einer Linearkombination sind die Koeffizienten zweideutig bestimmt, wenn die Vektoren <math> \mathbf{v}_1, \mathbf{v}_2,\ ..., \mathbf{v}_n </math> linear unabhängig sind. Dies kann zur Feststellung der Lösbarkeit von [[Lineares Gleichungssystem|linearen Gleichungssystemen]] benutzt werden. Das lineare Gleichungsystem ist genau dann eindeutig lösbar, wenn die einzelnen Spaltenvektoren der Koeffizientenmatrix voneinander linear unabhängig sind.


Die Überprüfung, ob zum Beispiel drei Vektoren aus <math>\mathbb{R}^3</math> linear unabhängig sind, entspricht dem Lösen eines linearen Gleichungssystems. Dazu wird aus
Die Überprüfung, ob zum Beispiel drei Vektoren aus <math>\mathbb{R}^3</math> linear unabhängig sind, entspricht dem Lösen eines linearen Gleichungssystems. Dazu wird aus

Version vom 24. September 2006, 21:44 Uhr

In der linearen Algebra wird eine Menge von Vektoren eines Vektorraums linear unabhängig genannt, wenn sich der Nullvektor allein durch die Linearkombination der Vektoren erzeugen lässt, indem alle Koeffizienten der Kombination auf den Wert Null gesetzt werden. Man kann zeigen, dass diese Bedingung dazu äquivalent ist, dass sich keiner der Vektoren als Linearkombination der anderen darstellen lässt.

Zum Beispiel sind im dreidimensionalen Euklidischen Raum die Vektoren , und linear unabhängig. Die Vektoren , und sind hingegen nicht linear unabhängig, denn der dritte Vektor lässt sich aus der Summe der beiden ersten zusammensetzen. Sind Vektoren nicht linear unabhängig, dann werden sie auch linear abhängig genannt.

Definition

Es seien ein Vektorraum über dem Körper , Vektoren des Vektorraums und die Elemente von seien eine Koeffizientenfamilie (mit endlich vielen Elementen ungleich Null).

Dann sind die Vektoren voneinander linear unabhängig, wenn sich der Nullvektor aus der Linearkombination

nur darstellen lässt, wenn alle Koeffizienten (für ) sind, also

Das bedeutet

mit

Lässt sich aber der Nullvektor außerdem noch mit Koeffizienten ungleich Null erzeugen, dann sind die Vektoren linear voneinander abhängig.

Achtung: Der Nullvektor ist ein Element des Vektorraumes V, während 0 ein Element aus dem Körper K ist!

Andere Charakterisierungen und einfache Eigenschaften

  • Die Vektoren sind genau dann linear unabhängig, wenn sich keiner von ihnen als Linearkombination der anderen darstellen lässt.
    Diese Aussage gilt nicht im allgemeineren Kontext von Modulen über Ringen.
  • Eine Variante dieser Aussage ist das Abhängigkeitslemma: Sind linear unabhängig und linear abhängig, so lässt sich als Linearkombination von schreiben.
  • Ist die Menge der Vektoren linear unabhängig, so ist jede Teilmenge dieser Menge ebenfalls linear unabhängig. Ist diese Menge hingegen linear abhängig, so ist jede Vektormenge, die diese abhängige Menge als Teilmenge beinhaltet ebenso linear abhängig.
  • Elementare Umformungen der Vektoren verändern die lineare Abhängigikeit oder die lineare Unabhängigkeit nicht.

Bedeutung

Lineare Gleichungssysteme

In einer Linearkombination sind die Koeffizienten zweideutig bestimmt, wenn die Vektoren linear unabhängig sind. Dies kann zur Feststellung der Lösbarkeit von linearen Gleichungssystemen benutzt werden. Das lineare Gleichungsystem ist genau dann eindeutig lösbar, wenn die einzelnen Spaltenvektoren der Koeffizientenmatrix voneinander linear unabhängig sind.

Die Überprüfung, ob zum Beispiel drei Vektoren aus linear unabhängig sind, entspricht dem Lösen eines linearen Gleichungssystems. Dazu wird aus

ein homogenes lineares Gleichungssystem gebildet:

und mittels Gaußschen Eliminationsverfahren nach gelöst. Gibt es nur eine einzige Lösung, nämlich dass , dann sind die Vektoren linear unabhängig. Existieren weitere Lösungen, sind sie linear voneinander abhängig.

Basen

Wichtig ist das Konzept der linearen Unabhängigkeit in Bezug auf die Basis eines Vektorraums. Eine Basis ist ein linear unabhängiges Erzeugendensystem, mit dem alle Elemente eines Vektorraums erzeugt werden können, d.h. sie besteht aus einer Menge von Vektoren , die voneinander linear unabhängig sind und ein Erzeugendensystem bilden. Basen erlauben es, in beliebigen Vektorräumen mit Koordinaten zu rechnen.

Beispiele

Beispiel 1: einzelner Vektor

Der Vektor sei ein Element des Vektorraums über . Dann ist der einzelne Vektor für sich genau dann linear unabhängig, wenn gilt, dass (d.h. ungleich dem Nullvektor ist).

Denn aus der Definition des Vektorraums folgt, dass wenn

mit ,

nur entweder oder sein kann!


Beispiel 2: zwei bestimmte Vektoren in

Die Vektoren und sind in linear unabhängig.

Beweis:    für


Dieses Gleichungssystem ist nur für die Lösung , (die sogenannte triviale Lösung) erfüllt; d.h. u und v sind linear unabhängig.

Beispiel 3: "natürliche" Basis in

und folgende Elemente von sind definiert:

...

Dann ist die Vektorfamilie mit linear unabhängig.

Beweis:    für

dann gilt aber auch

und daraus folgt, dass alle ,für .

Beispiel 4: Funktionen als Vektoren

(benötigt Kenntnisse über die Differentialrechnung)

soll der Vektorraum über alle Funktionen sein.
Die beiden Funktionen und in sind linear unabhängig.

Beweis:       für

             (1)

Nun muss gezeigt werden, dass die Koeffizenten und gleich Null sind — die Exponentialfunktion kann niemals 0 werden! Durch die Ableitung von (1) nach wird festgestellt, wie die Gleichung auf Null gesetzt werden kann.

           (2)

Wird (1) von (2) subtrahiert, ergibt und daraus folgt, dass (wenn ) sein muss.

Die erste Gleichung ist nun

und daraus folgt wieder, dass (für ) sein muss.

⇒ linear unabhängig

Siehe auch: Wronski-Determinante

Beispiel 5: Zeilen und Spalten einer Matrix

Interessant ist auch die Frage, ob die Zeilen einer Matrix linear unabhängig sind oder nicht. Dabei werden die Zeilen als Vektoren betrachtet. Falls die Zeilen einer quadratischen Matrix linear unabhängig sind, so nennt man die Matrix regulär, andernfalls singulär. Die Spalten sind genau dann linear unabhängig, wenn die Zeilen linear unabhängig sind. Beispiel einer Folge von regulären Matrizen: Hilbert-Matrix.

Verallgemeinerung

Der Begriff der linearen Unabhängigkeit lässt sich weiter zu einer Betrachtung von unabhängigen Mengen verallgemeinern, siehe dazu Matroid.