Mathe für Nicht-Freaks: Lineare Unabhängigkeit von Vektoren
{{#invoke:Mathe für Nicht-Freaks/Seite|oben}}
Motivation Vorlage:Anker
Grundmotivation
Aus der Schule kennen wir Vektoren als Pfeile in der Ebene oder im Raum. Sowohl die Ebene als auch der Raum sind Vektorräume. Aber worin unterscheiden sie sich?
Eine spontane Antwort könnte lauten: „Die Ebene ist zweidimensional und der Raum dreidimensional.“ Das bringt uns aber gleich zu weiteren Fragen:
- Was ist die Dimension eines Vektorraums?
- Wie können wir sie definieren?
In der Definition des Vektorraums kommt der Begriff „Dimension“ nämlich nicht vor...
Intuition der Dimension

Der Begriff „Dimension“ beschreibt, in wie viele unabhängige Richtungen geometrische Objekte in einem Raum ausgedehnt sein können. Die Objekte können sich auch in genau so vielen unabhängigen Richtungen im Raum bewegen („Freiheitsgrade der Bewegung“).
Die Ebene hat zwei Dimensionen – die Breite und die Länge. Sie ist flach, kein Objekt der Ebene kann in die Höhe reichen. Eine Kugel kann als dreidimensionales Objekt also nicht Teil der Ebene sein. Im Gegensatz dazu besitzt der Raum mit Länge, Breite und Höhe drei Dimensionen. Eine Kugel kann so Teil eines Raums sein.
Wir fassen zusammen: Die Dimension entspricht intuitiv der Anzahl der unabhängigen Richtungen, in die sich ein geometrisches Objekt ausdehnen bzw. bewegen kann. Für die Definition der Dimension müssen wir also folgende Fragen beantworten:
- Was ist eine Richtung in einem Vektorraum?
- Wann sind zwei Richtungen unabhängig?
- Wie kann die Anzahl der unabhängigen Richtungen bestimmt werden?
Herleitung der Definition
Was ist eine Richtung in einem Vektorraum?
Nehmen wir als Beispiel den Vektorraum der Ebene. Eine Richtung können wir mit einem Pfeil darstellen:

Nun ist ein Pfeil nichts anderes als ein Vektor. Mit Hilfe von Vektoren können also Richtungen repräsentiert werden. Dabei dürfen wir nicht den Nullvektor verwenden. Als Pfeil der Länge Null hat dieser nämlich keine Richtung. Dies können wir auf beliebige Vektorräume verallgemeinern:
Die Richtung, in die der Vektor zeigt ist , also der Spann des Vektors . Zu diesem Spann gehören alle Streckungen des Richtungsvektor und beschreibt damit die Gerade, die durch aufgespannt wird:

Von der Geraden zur Ebene
Um jetzt von der Geraden zur Ebene zu kommen, benötigen wir nicht nur einen Vektor sondern mehrere, genauer gesagt mindestens zwei Vektoren (). Dies erschließt sich ja auch intuitiv, da man eine Ebene nur mit zwei Vektoren eindeutig aufspannen kann. Deshalb brauchen wir einen weiteren, linear unabhängigen Vektor. Was bedeutet in diesem Fall „unabhängig“? Zunächst stellen wir fest, dass der neue Vektor nicht der Nullvektor sein darf. Dieser gibt nämlich keine Richtung an. Weiterhin darf der neue Vektor auch kein Vielfaches des ursprünglichen Vektors sein, also . Dies gilt auch für Spiegelungen des Geradenvektors, also Vielfache mit einem negativen Faktor.
-
Der Vektor ist eine Streckung des Vektors um einen positiven Faktor. Dieser Vektor ist keine von unabhängige Richtung.
-
Der Vektor ist eine Spiegelung von mit einem negativem Faktor. Die Richtung von ist nicht unabhängig von .
-
Die Richtung von ist unabhängig von . Beide Vektoren zusammen spannen eine Ebene auf.
Wir fassen zusammen: Der neue Vektor ist genau dann unabhängig vom Richtungsvektor , wenn dieser nicht auf der Geraden liegt. Es muss also für alle reellen Zahlen sein. Der neue Vektor darf also nicht im Spann des anderen liegen. Die beiden Vektoren haben nur den Nullpunkt als Schnittpunkt.
Von der Ebene zum Raum
Wir haben gesehen, dass wir eine Ebene durch zwei unabhängige Vektoren charakterisieren können. Nun möchten wir von der Ebene zum Raum übergehen. Auch hier müssen wir eine unabhängige Richtung hinzunehmen. Was ist aber eine zur Ebene unabhängige Richtung?
Der neue Vektor darf nicht der Nullvektor sein, weil dieser keine Richtung angibt. Der neue Vektor darf auch nicht in der Ebene liegen, da so keine neue Richtung beschrieben wird. Genau dann wenn der neue Vektor nicht in der Ebene liegt, dann zeigt er in eine neue unabhängige Richtung:
-
Der Vektor liegt in der Ebene, welcher von den Vektoren und aufgespannt wird. Damit zeigt in keine von und unabhängige Richtung.
-
Der Vektor liegt nicht in der von und aufgespannten Ebene. Alle drei Vektoren spannen den kompletten Raum auf und damit zeigt in eine von und unabhängige Richtung.
Wie können wir diese Erkenntnis mathematisch formulieren? Seien und die beiden Richtungsvektoren, die die Ebene aufspannen. Diese Ebene ist dann gleich der Menge . Die Ebene ist damit die Menge aller Summen für reelle Zahlen . Damit der neue Vektor nicht in der Ebene liegt, muss für alle sein. Damit ist unabhängig von und genau dann, wenn ist. Mit anderen Worten: .
Mathe für Nicht-Freaks: Vorlage:Frage
Mathe für Nicht-Freaks: Vorlage:Frage
Ein erstes Kriterium für lineare Unabhängigkeit
Fassen wir zusammen: Zur Beschreibung einer Geraden benötigten wir einen Vektor ungleich dem Nullvektor. Im Übergang von der Geraden zur Ebene mussten wir einen zu unabhängigen Vektor hinzufügen. Unabhängigkeit von zur Richtung bedeutet hier, dass nicht in der von beschriebenen Geraden liegt. Es musste also für alle sein.
Im zweiten Schritt haben wir der Ebene eine neue Richtung hinzugefügt, die von den beiden Vektoren und unabhängig ist. Hier manifestiert sich Unabhängigkeit darin, dass nicht in der von und aufgespannten Ebene liegt. Es muss also für alle reellen Zahlen und sein. Dies können wir für eine beliebige Anzahl an Vektoren verallgemeinern (jedoch kann man sich das nicht mehr so gut vorstellen):
In der obigen Beschreibung kommt die Summe vor. Eine solche Summe wird Linearkombination der Vektoren bis genannt. Wir können auch sagen, dass linear unabhängig ist, wenn . Die Beschreibung kann geändert werden zu:
Hier haben wir geklärt, wann ein Vektor unabhängig von anderen Vektoren ist. Reicht dies aus, um die Unabhängigkeit von Vektoren zu beschreiben?! Nimm folgende drei Vektoren , und :

Weil kein Vektor ein Vielfaches eines anderen Vektoren ist, zeigen die drei Vektoren paarweise gesehen in unabhängige Richtungen. Beispielsweise ist unabhängig zu und ist unabhängig zu . Insgesamt gesehen sind die drei Vektoren jedoch nicht unabhängig voneinander, weil sie alle in einer Ebene liegen. Es ist und damit ist abhängig zu und . Dementsprechend müssen wir für die lineare Unabhängigkeit zwischen , und fordern:
- ist unabhängig zu und : Es ist für alle .
- ist unabhängig zu und : Es ist für alle .
- ist unabhängig zu und : Es ist für alle .
An dieser Stelle sei betont, dass es nötig ist alle drei Bedingungen zu fordern. Würden wir auf die letzten beiden Bedingungen verzichten, so würde die erste Forderung zwar garantieren, dass der Vektor linear unabhängig von den Vektoren und ist, aus dieser Forderung ist aber nicht klar, dass und linear unabhängig voneinander sind. Dies muss nicht erfüllt sein, wodurch dann die drei Vektoren untereinander wieder nicht linear unabhängig wären.
Es darf also keiner der drei Vektoren als Linearkombination der anderen zwei Vektoren dargestellt werden können. Ansonsten ist nämlich mindestens einer der Vektoren zu den anderen Vektoren abhängig. Dies können wir für eine beliebige Anzahl von Vektoren verallgemeinern:
Mathe für Nicht-Freaks: Vorlage:Definition
Vom ersten Kriterium zur formalen Definition
Mit unserem ersten Kriterium, welches wir oben gefunden haben, haben wir bereits eine passende Definition für die lineare Unabhängigkeit von Vektoren gefunden. Wir wollen im Folgenden versuchen eine knappere äquivalente Definition zu finden, mit Hilfe derer wir die lineare Unabhängigkeit von Vektoren leichter untersuchen können.
Vektoren sind genau dann unabhängig voneinander, wenn sich kein Vektor als Linearkombination der anderen Vektoren darstellen lässt. Daraus werden wir ein weiteres Kriterium für lineare Unabhängigkeit herleiten, welches weniger rechenaufwändig ist. Nehmen wir Vektoren , bis aus einem Vektorraum , die nicht unabhängig sind. Es gibt also einen Vektor, der durch die anderen dargestellt werden kann. Sei dieser Vektor. Es gibt damit Streckungsfaktoren (Skalare) bis , so dass gilt: Vorlage:Einrücken Diese Gleichung können wir umstellen, indem wir auf beiden Seiten rechnen ( ist der Nullvektor des Vektorraums ): Vorlage:Einrücken Dies ist eine sogenannte nichttriviale Linearkombination des Nullvektors. Eine nichttriviale Linearkombination des Nullvektors ist eine Linearkombination mit dem Ergebnis , bei dem mindestens ein Koeffizient ungleich ist. Für ist nämlich immer . Dies ist die sogenannte triviale Linearkombination des Nullvektors, bei der alle Koeffizienten gleich sind. Diese triviale Linearkombination kannst du stets bilden, egal welche Vektoren bis du wählst. Wenn bis abhängig voneinander sind, gibt es neben der trivialen Linearkombintion noch mindestens eine nichttriviale Linearkombination des Nullvektors (wie wir es oben gesehen haben). Also:
Anders ausgedrückt: Vorlage:Important Nun können wir das Prinzip der Kontraposition anwenden. Dieses besagt, dass eine Aussage genau dann gilt, wenn . Also gilt auch:
Damit haben wir ein Kriterium für Unabhängigkeit gefunden. Wenn der Nullvektor nur trivial durch eine Linearkombination von bis dargestellt werden kann, dann sind diese Vektoren unabhängig. Dieses Kriterium kann aber auch als Definition der linearen Unabhängigkeit benutzt werden. Hierzu müssen wir die Rückrichtung der obigen Implikation zeigen. Wenn es eine nichttriviale Linearkombination des Nullvektors gibt, dann sind die betrachteten Vektoren abhängig voneinander.
Seien also bis Vektoren, für die es eine nichttriviale Linearkombination des Nullvektors gibt. Es gibt also Koeffizienten (Skalare) bis , derart dass und mindestens einer der Koeffizienten bis ungleich ist. Sei dieser Koeffizient. Dann ist
Wegen können wir beide Seiten mit multiplizieren. Wir erhalten damit
Auf beiden Seiten können wir nun addieren:
Damit kann als Linearkombination der anderen Vektoren dargestellt werden und somit sind die Vektoren bis abhängig voneinander. Dies beweist insgesamt die formale Definition der linearen Unabhängigkeit:
Mathe für Nicht-Freaks: Vorlage:Definition
Definition des Begriffs Familie
Wir haben oben davon gesprochen, dass eine Ansammlung von Vektoren linear unabhängig ist. Aber was ist diese Ansammlung von Vektoren aus mathematischer Sicht? Wir kennen bereits den Begriff einer Menge. Also ist es naheliegend auch als Menge aufzufassen. Passt diese Auffassung intuitiv zur linearen Unabhängigkeit? Nehmen wir als Beispiel zwei gleiche Vektoren mit . Beide zeigen in die selbe Richtung und spannen keine zwei unabhängigen Richtungen auf. Damit sind sie intuitiv linear abhängig. Und tatsächlich kann man einen als Linearkombination des anderen schreiben und zwar als . Damit sind die Vektoren auch streng mathematisch linear abhängig. Eine Menge darf allerdings nur verschiedene Elemente enthalten. Das heißt, die Menge, die und enthält ist . Die Menge enthält also nur ein Element und erfasst keine Doppelungen von Vektoren.
Wir brauchen also einen neuen mathematischen Begriff, der auch Doppelungen erfasst. Dies ist der Begriff der Familie:
Mathe für Nicht-Freaks: Vorlage:Definition
Formal kann man eine Familie als eine Abbildung der Indexmenge in die Menge ansehen. Im Gegensatz zu Mengen dürfen in Familien Elemente mehrfach vorkommen, nämlich wenn sie zu verschiedenen Indizes gehören.
Ist die Menge abzählbar, so lassen sich die Elemente der Familie nummerieren: . Die Indexmenge darf aber auch überabzählbar ein, z.B. . In diesem Fall kann nicht als Folge geschrieben werden. Der Begriff "Familie" enthält also alle "Folgen", und umfasst sogar noch größere Ansammlungen von mathematischen Objekten.
Wenn wir also sagen die Vektoren und sind linear abhängig können wir es dadurch ausdrücken, dass die Familie mit linear abhängig ist.
Oft schreibt man (nicht ganz exakt) , wenn die Elemente von sind und aus dem Zusammenhang klar ist, wie die Indexmenge aussieht. Analog bedeutet , dass es ein gibt mit .
Hiermit können wir die zweite Definition der linearen Unabhängigkeit neu aufschreiben:
Mathe für Nicht-Freaks: Vorlage:Definition
Allgemeine Definition der linearen Unabhängigkeit
Motivation
Wir haben oben zwei Definitionen dafür kennen gelernt, dass endlich viele Vektoren linear unabhängig sind:
- Eine etwas sperrige: Die Vektoren sind unabhängig, wenn sich kein Vektor als Linearkombination der anderen schreiben lässt. Also darf nicht vorkommen.
- Eine etwas kompaktere: Der Nullvektor lässt sich nur als triviale Linearkombination darstellen. Also aus folgt .
Bisher haben wir nur endlich viele Vektoren betrachtet. Was passiert bei unendlich vielen Vektoren? Kann es überhaupt unendlich viele linear unabhängige Vektoren geben? Wir bräuchten einen Vektorraum, der unendlich viele linear unabhängige Richtungen hat. Wir wissen intuitiv, dass der Vektorraum höchstens zwei und der höchstens drei unabhängige Richtungen hat. Wir brauchen also einen viel "größeren" Vektorraum, um unendlich viele unabhängige Richtungen zu bekommen. Wir betrachten also einen Vektorraum , in dem jeder Vektor unendlich viele Koordinaten besitzt: mit . Demnach entspricht einer reellen Folge und ist der Folgen-Vektorraum, oder kurz Folgenraum.
Im haben wir die linear unabhängigen Einheitsvektoren . Wir können diese Konstruktion fortsetzen und erhalten für die Vektoren mit der an der -ten Stelle und sonst .
Die unendlich vielen Vektoren bilden eine Familie . Diese Familie repräsentiert intuitiv "unendlich viele verschiedene Richtungen" in und ist damit intuitiv gesehen linear unabhängig. Es ergibt also Sinn, lineare Unabhängigkeit für unendlich viele Vektoren so zu definieren, dass eine linear unabhängige Familie ist. Die "etwas sperrige Definition 1." in der Aufzählung wäre dafür prinzipiell geeignet: Wir könnten sie einfach kopieren und sagen "eine Familie von Vektoren ist linear unabhängig, wenn sich kein als Linearkombination der anderen schreiben lässt". Tatsächlich kann in keiner der als Linearkombination der anderen Vektoren geschrieben werden. Daher ergibt die Definition an dieser Stelle schon einmal Sinn. Allerdings gibt es unendlich viele und damit unendlich viele Bedingungen!
Wir betrachten lieber die "etwas kompaktere Definition 2.": "Vektoren sind linear unabhängig, wenn nur durch die triviale Linearkombination dargestellt werden kann." Was bedeutet diese Formulierung in diesem Beispiel explizit? Wir haben also eine Linearkombination der gegeben. Linearkombinationen sind endlich, das heißt wir haben endlich viele Vektoren und , sodass
Wir müssen nun zeigen, dass alle sind, da dann die obige Linearkombination die triviale Linearkombination der ist. Dies geht genauso wie im , nur dass wir hier unendlich viele Einträge miteinander vergleichen müssen.
Was müssen wir nun tun, um eine allgemeine Definition für allgemeine Familien und allgemeine Vektorräume zu bekommen? Die "etwas kompaktere Definition 2." überträgt sich fast wortwörtlich: "Eine Familie von Vektoren ist linear unabhängig, wenn nur durch die triviale Linearkombination dargestellt werden kann." Für die ausgeschriebene Implikation, können wir für die Endlichkeit der Linearkombination von unserer Sprache von Familien gebrauch machen: Wir ersetzen die Doppelindizes durch das Wort "Teilfamilie".
Definition
Mathe für Nicht-Freaks: Vorlage:Definition
Mathe für Nicht-Freaks: Vorlage:Warnung Mathe für Nicht-Freaks: Vorlage:Hinweis Mathe für Nicht-Freaks: Vorlage:Hinweis
Folgerungen aus der Definition
Umformulierung der Definition für endliche Teilfamilien Vorlage:Anker
Wir haben eine Definition von linearer Unabhängigkeit von beliebeigen Teilfamilien eines Vektorraums . Stimmt diese mit unserer alten Definition für endliche Teilfamilien überein? Intuitiv sollten sie für endliche Teilfamilien übereinstimmen, da wir die allgemeine Definition aus unserer alten Definition hergeleitet haben. Der folgende Satz zeigt das nochmal formal:
Mathe für Nicht-Freaks: Vorlage:Satz
Zurückführen der Definition auf endliche Teilfamilien
Wir haben lineare Unabhängigkeit für eine beliebige Familie von Vektoren definiert, also auch für unendlich viele Vektoren. Aber in der Definition müssen wir nur eine Aussage für endliche Teilfamilien zeigen: Für alle mit gilt folgendes: Vorlage:Einrücken Im vorherigen Satz haben wir gesehen, dass diese Aussage genau lineare Unabhängigkeit von ist.
Mathe für Nicht-Freaks: Vorlage:Satz
Übersicht
Folgende Eigenschaften können mit wenigen Beweisschritten aus der Definition der linearen Unabhängigkeit hergeleitet werden. Dabei sei im Folgenden ein Körper und ein -Vektorraum:
- Jede Teilfamilie einer Familie linear unabhängiger Vektoren ist linear unabhängig. Umgekehrt ist jede Oberfamilie einer Familie linear abhängiger Vektoren wieder linear abhängig.
- Sei ein einzelner Vektor. Dann ist genau dann linear unabhängig, wenn ist. Also "fast immer". Umgekehrt ist jede Familie (egal wie groß) linear abhängig, sobald sie den Nullvektor enthält.
- Seien . Die Vektoren und sind genau dann linear abhängig, wenn es ein mit der Eigenschaft oder gibt.
- Ist eine Familie von Vektoren linear abhängig, so kann einer von ihnen als Linearkombination der anderen dargestellt werden.
Teilfamilien linear unabhängiger Vektoren sind linear unabhängig
Eine linear unabhängige Familie bleibt linear unabhängig, wenn man Vektoren wegnimmt. Lineare Abhängigkeit bleibt hingegen erhalten, wenn man weitere Vektoren hinzufügt. Intuitiv zerstört also das Hinzufügen von Vektoren tendenziell die lineare Unabhängigkeit und kann durch weiteres Hinzufügen auch nicht wiederhergestellt werden.
Mathe für Nicht-Freaks: Vorlage:Satz
Familie mit Nullvektor ist linear abhängig
Wann ist eine Familie mit genau einem Vektor linear unabhängig? Diese Frage lässt sich leicht beantworten: immer dann, wenn dieser Vektor nicht der Nullvektor ist. Umgekehrt ist jede Familie mit dem Nullvektor linear abhängig. Inklusive die, die nur den Nullvektor selbst enthält.
Mathe für Nicht-Freaks: Vorlage:Satz
Bei zwei Vektoren sind genau die Streckungen linear abhängig
Wann ist eine Familie mit zwei Vektoren linear unabhängig? Wir können die Frage beantworten, indem wir sagen, wann das Gegenteil der Fall ist. Also wann sind zwei Vektoren linear abhängig? Lineare Abhängigkeit zweier Vektoren gilt genau dann, wenn beide "auf einer Geraden liegen", d.h. der eine Vektor eine Streckung des anderen ist.
Mathe für Nicht-Freaks: Vorlage:Satz Vorlage:Anker
Von linear abhängigen Vektoren kann einer als Linearkombination der anderen dargestellt werden
Bei endliche vielen Vektoren hatten wir mit der Definition begonnen, dass Vektoren linear abhängig sind, wenn einer der Vektoren als Linearkombination der anderen geschrieben werden kann (erste Definition). Wir haben schon gesehen, dass diese Definition äquivalent dazu ist, dass der Nullvektor als Linearkombination der Vektoren geschrieben werden kann (zweite Definition). Bei der allgemeinen Definition mit möglicherweise unendlich vielen Vektoren haben wir die Version mit dem Nullvektor (die zweite) als unsere Definition genutzt. Und man kann tatsächlich zeigen, dass auch im allgemeinen Fall die erste Definition dazu äquivalent ist:
Mathe für Nicht-Freaks: Vorlage:Satz
Lineare Unabhängigkeit und eindeutige Linearkombinationen Vorlage:Anker
Wir betrachten in diesem Abschnitt den Zusammenhang zwischen Linearer Unabhängigkeit und Linearkombinationen genauer. Dafür machen wir uns klar, was es bedeutet, wenn die Vektoren linear abhängig oder unabhängig sind. Angenommen die Vektoren sind linear abhängig. Aus unserer Definition der linearen Unabhängigkeit wissen wir, dass es dann eine nicht triviale Nulldarstellung geben muss, da mindestens ein Skalar für ein ist. Wir machen uns dies anhand des folgenden Beispiels klar
Mathe für Nicht-Freaks: Vorlage:Beispiel
Unabhängig davon, ob die betrachtete Familie von Vektoren linear unabhängig ist oder nicht, gibt es stets die triviale Nulldarstellung, in dem alle Skalare den Wert haben:
Bei linearer Abhängigkeit der Vektoren ist die Darstellung der Null nicht mehr eindeutig. Wir können unsere Ergebnisse bisher in einem Satz zusammenfassen und verallgemeinern:
Mathe für Nicht-Freaks: Vorlage:Satz
Übungsaufgaben
Aufgabe 1
Mathe für Nicht-Freaks: Vorlage:Aufgabe
Aufgabe 2
Mathe für Nicht-Freaks: Vorlage:Aufgabe
Mathe für Nicht-Freaks: Vorlage:Lösung
Aufgabe 3
Mathe für Nicht-Freaks: Vorlage:Aufgabe
Aufgabe 4
Mathe für Nicht-Freaks: Vorlage:Aufgabe
Aufgabe 5
Mathe für Nicht-Freaks: Vorlage:Aufgabe
Aufgabe 6
Mathe für Nicht-Freaks: Vorlage:Aufgabe
{{#invoke:Mathe für Nicht-Freaks/Seite|unten}}