Mathe für Nicht-Freaks: Lineare Unabhängigkeit von Vektoren

Aus testwiki
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

{{#invoke:Mathe für Nicht-Freaks/Seite|oben}}

Motivation Vorlage:Anker

Grundmotivation

Aus der Schule kennen wir Vektoren als Pfeile in der Ebene oder im Raum. Sowohl die Ebene als auch der Raum sind Vektorräume. Aber worin unterscheiden sie sich?

Eine spontane Antwort könnte lauten: „Die Ebene ist zweidimensional und der Raum dreidimensional.“ Das bringt uns aber gleich zu weiteren Fragen:

  • Was ist die Dimension eines Vektorraums?
  • Wie können wir sie definieren?

In der Definition des Vektorraums kommt der Begriff „Dimension“ nämlich nicht vor...

Intuition der Dimension

Eine Kugel ist ein dreidimensionales Objekt

Der Begriff „Dimension“ beschreibt, in wie viele unabhängige Richtungen geometrische Objekte in einem Raum ausgedehnt sein können. Die Objekte können sich auch in genau so vielen unabhängigen Richtungen im Raum bewegen („Freiheitsgrade der Bewegung“).

Die Ebene hat zwei Dimensionen – die Breite und die Länge. Sie ist flach, kein Objekt der Ebene kann in die Höhe reichen. Eine Kugel kann als dreidimensionales Objekt also nicht Teil der Ebene sein. Im Gegensatz dazu besitzt der Raum mit Länge, Breite und Höhe drei Dimensionen. Eine Kugel kann so Teil eines Raums sein.

Wir fassen zusammen: Die Dimension entspricht intuitiv der Anzahl der unabhängigen Richtungen, in die sich ein geometrisches Objekt ausdehnen bzw. bewegen kann. Für die Definition der Dimension müssen wir also folgende Fragen beantworten:

  • Was ist eine Richtung in einem Vektorraum?
  • Wann sind zwei Richtungen unabhängig?
  • Wie kann die Anzahl der unabhängigen Richtungen bestimmt werden?

Herleitung der Definition

Vorlage:Anker

Was ist eine Richtung in einem Vektorraum?

Nehmen wir als Beispiel den Vektorraum der Ebene. Eine Richtung können wir mit einem Pfeil darstellen:

Pfeil, der eine Richtung in der Ebene markiert
Pfeil, der eine Richtung in der Ebene markiert

Nun ist ein Pfeil nichts anderes als ein Vektor. Mit Hilfe von Vektoren können also Richtungen repräsentiert werden. Dabei dürfen wir nicht den Nullvektor verwenden. Als Pfeil der Länge Null hat dieser nämlich keine Richtung. Dies können wir auf beliebige Vektorräume verallgemeinern:

Vorlage:Important

Die Richtung, in die der Vektor zeigt ist {αv:α}, also der Spann span({v}) des Vektors v. Zu diesem Spann gehören alle Streckungen αv des Richtungsvektor v und beschreibt damit die Gerade, die durch v aufgespannt wird:

Eine Gerade, die durch den Vektor v beschrieben wird
Eine Gerade, die durch den Vektor v beschrieben wird

Von der Geraden zur Ebene

Um jetzt von der Geraden zur Ebene zu kommen, benötigen wir nicht nur einen Vektor sondern mehrere, genauer gesagt mindestens zwei Vektoren (v,w). Dies erschließt sich ja auch intuitiv, da man eine Ebene nur mit zwei Vektoren eindeutig aufspannen kann. Deshalb brauchen wir einen weiteren, linear unabhängigen Vektor. Was bedeutet in diesem Fall „unabhängig“? Zunächst stellen wir fest, dass der neue Vektor nicht der Nullvektor sein darf. Dieser gibt nämlich keine Richtung an. Weiterhin darf der neue Vektor auch kein Vielfaches des ursprünglichen Vektors sein, also wαv . Dies gilt auch für Spiegelungen des Geradenvektors, also Vielfache mit einem negativen Faktor.

Wir fassen zusammen: Der neue Vektor w ist genau dann unabhängig vom Richtungsvektor v, wenn dieser nicht auf der Geraden liegt. Es muss also wαv für alle reellen Zahlen α sein. Der neue Vektor darf also nicht im Spann des anderen liegen. Die beiden Vektoren haben nur den Nullpunkt als Schnittpunkt.

Von der Ebene zum Raum

Wir haben gesehen, dass wir eine Ebene durch zwei unabhängige Vektoren charakterisieren können. Nun möchten wir von der Ebene zum Raum übergehen. Auch hier müssen wir eine unabhängige Richtung hinzunehmen. Was ist aber eine zur Ebene unabhängige Richtung?

Der neue Vektor darf nicht der Nullvektor sein, weil dieser keine Richtung angibt. Der neue Vektor darf auch nicht in der Ebene liegen, da so keine neue Richtung beschrieben wird. Genau dann wenn der neue Vektor nicht in der Ebene liegt, dann zeigt er in eine neue unabhängige Richtung:

Wie können wir diese Erkenntnis mathematisch formulieren? Seien v und w die beiden Richtungsvektoren, die die Ebene aufspannen. Diese Ebene ist dann gleich der Menge {αv+βw:α,β}. Die Ebene ist damit die Menge aller Summen αv+βw für reelle Zahlen α,β. Damit der neue Vektor u nicht in der Ebene liegt, muss uαv+βw für alle α,β sein. Damit ist u unabhängig von v und w genau dann, wenn α,β:uαv+βw ist. Mit anderen Worten: uspan(v,w).

Mathe für Nicht-Freaks: Vorlage:Frage

Mathe für Nicht-Freaks: Vorlage:Frage

Ein erstes Kriterium für lineare Unabhängigkeit

Fassen wir zusammen: Zur Beschreibung einer Geraden benötigten wir einen Vektor v ungleich dem Nullvektor. Im Übergang von der Geraden zur Ebene mussten wir einen zu v unabhängigen Vektor w hinzufügen. Unabhängigkeit von w zur Richtung v bedeutet hier, dass w nicht in der von v beschriebenen Geraden liegt. Es musste also wαv für alle α sein.

Im zweiten Schritt haben wir der Ebene eine neue Richtung u hinzugefügt, die von den beiden Vektoren v und w unabhängig ist. Hier manifestiert sich Unabhängigkeit darin, dass u nicht in der von v und w aufgespannten Ebene liegt. Es muss also uαv+βw für alle reellen Zahlen α und β sein. Dies können wir für eine beliebige Anzahl an Vektoren verallgemeinern (jedoch kann man sich das nicht mehr so gut vorstellen):

Vorlage:Important

In der obigen Beschreibung kommt die Summe λ1v1+λ2v2++λnvn vor. Eine solche Summe wird Linearkombination der Vektoren v1 bis vn genannt. Wir können auch sagen, dass w linear unabhängig ist, wenn wspan{v1,...,vn}. Die Beschreibung kann geändert werden zu:

Vorlage:Important

Hier haben wir geklärt, wann ein Vektor unabhängig von anderen Vektoren ist. Reicht dies aus, um die Unabhängigkeit von Vektoren zu beschreiben?! Nimm folgende drei Vektoren a, b und c:

Drei Vektoren, die in einer Ebene liegen
Drei Vektoren, die in einer Ebene liegen

Weil kein Vektor ein Vielfaches eines anderen Vektoren ist, zeigen die drei Vektoren paarweise gesehen in unabhängige Richtungen. Beispielsweise ist a unabhängig zu b und c ist unabhängig zu a. Insgesamt gesehen sind die drei Vektoren jedoch nicht unabhängig voneinander, weil sie alle in einer Ebene liegen. Es ist c=a+b und damit ist c abhängig zu a und b. Dementsprechend müssen wir für die lineare Unabhängigkeit zwischen a, b und c fordern:

  • a ist unabhängig zu b und c: Es ist aβb+γc für alle β,γ.
  • b ist unabhängig zu a und c: Es ist bαa+γc für alle α,γ.
  • c ist unabhängig zu a und b: Es ist cαa+βb für alle α,β.

An dieser Stelle sei betont, dass es nötig ist alle drei Bedingungen zu fordern. Würden wir auf die letzten beiden Bedingungen verzichten, so würde die erste Forderung zwar garantieren, dass der Vektor a linear unabhängig von den Vektoren b und c ist, aus dieser Forderung ist aber nicht klar, dass b und c linear unabhängig voneinander sind. Dies muss nicht erfüllt sein, wodurch dann die drei Vektoren untereinander wieder nicht linear unabhängig wären.

Es darf also keiner der drei Vektoren als Linearkombination der anderen zwei Vektoren dargestellt werden können. Ansonsten ist nämlich mindestens einer der Vektoren zu den anderen Vektoren abhängig. Dies können wir für eine beliebige Anzahl von Vektoren verallgemeinern:

Mathe für Nicht-Freaks: Vorlage:Definition

Vom ersten Kriterium zur formalen Definition

Mit unserem ersten Kriterium, welches wir oben gefunden haben, haben wir bereits eine passende Definition für die lineare Unabhängigkeit von Vektoren gefunden. Wir wollen im Folgenden versuchen eine knappere äquivalente Definition zu finden, mit Hilfe derer wir die lineare Unabhängigkeit von Vektoren leichter untersuchen können.

Vektoren sind genau dann unabhängig voneinander, wenn sich kein Vektor als Linearkombination der anderen Vektoren darstellen lässt. Daraus werden wir ein weiteres Kriterium für lineare Unabhängigkeit herleiten, welches weniger rechenaufwändig ist. Nehmen wir Vektoren v1, v2 bis vn aus einem Vektorraum V, die nicht unabhängig sind. Es gibt also einen Vektor, der durch die anderen dargestellt werden kann. Sei v1 dieser Vektor. Es gibt damit Streckungsfaktoren (Skalare) λ2 bis λn, so dass gilt: Vorlage:Einrücken Diese Gleichung können wir umstellen, indem wir auf beiden Seiten v1 rechnen (0V ist der Nullvektor des Vektorraums V): Vorlage:Einrücken Dies ist eine sogenannte nichttriviale Linearkombination des Nullvektors. Eine nichttriviale Linearkombination des Nullvektors ist eine Linearkombination mit dem Ergebnis 0V, bei dem mindestens ein Koeffizient ungleich 0 ist. Für λ1=λ2==λn=0 ist nämlich immer λ1v1+λ2v2+λ3v3++λnvn=0V. Dies ist die sogenannte triviale Linearkombination des Nullvektors, bei der alle Koeffizienten gleich 0 sind. Diese triviale Linearkombination kannst du stets bilden, egal welche Vektoren v1 bis vn du wählst. Wenn v1 bis vn abhängig voneinander sind, gibt es neben der trivialen Linearkombintion noch mindestens eine nichttriviale Linearkombination des Nullvektors (wie wir es oben gesehen haben). Also:

Vorlage:Important

Anders ausgedrückt: Vorlage:Important Nun können wir das Prinzip der Kontraposition anwenden. Dieses besagt, dass eine Aussage AB genau dann gilt, wenn ¬B¬A. Also gilt auch:

Vorlage:Important

Damit haben wir ein Kriterium für Unabhängigkeit gefunden. Wenn der Nullvektor nur trivial durch eine Linearkombination von v1 bis vn dargestellt werden kann, dann sind diese Vektoren unabhängig. Dieses Kriterium kann aber auch als Definition der linearen Unabhängigkeit benutzt werden. Hierzu müssen wir die Rückrichtung der obigen Implikation zeigen. Wenn es eine nichttriviale Linearkombination des Nullvektors gibt, dann sind die betrachteten Vektoren abhängig voneinander.

Seien also v1 bis vn Vektoren, für die es eine nichttriviale Linearkombination des Nullvektors gibt. Es gibt also Koeffizienten (Skalare) λ1 bis λn, derart dass λ1v1++λnvn=0V und mindestens einer der Koeffizienten λ1 bis λn ungleich 0 ist. Sei λi dieser Koeffizient. Dann ist

Vorlage:Einrücken

Wegen λi0 können wir beide Seiten mit λi1=1λi multiplizieren. Wir erhalten damit

Vorlage:Einrücken

Auf beiden Seiten können wir nun vi addieren:

Vorlage:Einrücken

Damit kann vi als Linearkombination der anderen Vektoren dargestellt werden und somit sind die Vektoren v1 bis vn abhängig voneinander. Dies beweist insgesamt die formale Definition der linearen Unabhängigkeit:

Mathe für Nicht-Freaks: Vorlage:Definition

Definition des Begriffs Familie

Wir haben oben davon gesprochen, dass eine Ansammlung von Vektoren v1,,vn linear unabhängig ist. Aber was ist diese Ansammlung von Vektoren v1,,vn aus mathematischer Sicht? Wir kennen bereits den Begriff einer Menge. Also ist es naheliegend M={v1,,vn} auch als Menge aufzufassen. Passt diese Auffassung intuitiv zur linearen Unabhängigkeit? Nehmen wir als Beispiel zwei gleiche Vektoren v,v mit v0. Beide zeigen in die selbe Richtung und spannen keine zwei unabhängigen Richtungen auf. Damit sind sie intuitiv linear abhängig. Und tatsächlich kann man einen als Linearkombination des anderen schreiben und zwar als v=1v. Damit sind die Vektoren v,v auch streng mathematisch linear abhängig. Eine Menge darf allerdings nur verschiedene Elemente enthalten. Das heißt, die Menge, die v und v enthält ist M={v,v}={v}. Die Menge M enthält also nur ein Element und erfasst keine Doppelungen von Vektoren.

Wir brauchen also einen neuen mathematischen Begriff, der auch Doppelungen erfasst. Dies ist der Begriff der Familie:

Mathe für Nicht-Freaks: Vorlage:Definition

Formal kann man eine Familie als eine Abbildung der Indexmenge I in die Menge A ansehen. Im Gegensatz zu Mengen dürfen in Familien Elemente mehrfach vorkommen, nämlich wenn sie zu verschiedenen Indizes gehören.

Ist die Menge I abzählbar, so lassen sich die Elemente der Familie nummerieren: (a1,a2,). Die Indexmenge I darf aber auch überabzählbar ein, z.B. I=. In diesem Fall kann (ai)i nicht als Folge (a1,a2,) geschrieben werden. Der Begriff "Familie" enthält also alle "Folgen", und umfasst sogar noch größere Ansammlungen von mathematischen Objekten.

Wenn wir also sagen die Vektoren v und v sind linear abhängig können wir es dadurch ausdrücken, dass die Familie (vi)i{1,2} mit v1=v2=v linear abhängig ist.

Oft schreibt man (nicht ganz exakt) (ai)A, wenn die ai Elemente von A sind und aus dem Zusammenhang klar ist, wie die Indexmenge I aussieht. Analog bedeutet a(ai), dass es ein iI gibt mit ai=a.

Hiermit können wir die zweite Definition der linearen Unabhängigkeit neu aufschreiben:

Mathe für Nicht-Freaks: Vorlage:Definition

Allgemeine Definition der linearen Unabhängigkeit

Motivation

Wir haben oben zwei Definitionen dafür kennen gelernt, dass endlich viele Vektoren v1,,vnV linear unabhängig sind:

  1. Eine etwas sperrige: Die Vektoren sind unabhängig, wenn sich kein Vektor vk als Linearkombination der anderen schreiben lässt. Also vk=λ1v1++λk1vk1+λk+1vk+1++λnvn darf nicht vorkommen.
  2. Eine etwas kompaktere: Der Nullvektor 0V lässt sich nur als triviale Linearkombination darstellen. Also aus 0V=λ1v1++λnvn folgt λ1==λn=0.

Bisher haben wir nur endlich viele Vektoren betrachtet. Was passiert bei unendlich vielen Vektoren? Kann es überhaupt unendlich viele linear unabhängige Vektoren geben? Wir bräuchten einen Vektorraum, der unendlich viele linear unabhängige Richtungen hat. Wir wissen intuitiv, dass der Vektorraum 2 höchstens zwei und der 3 höchstens drei unabhängige Richtungen hat. Wir brauchen also einen viel "größeren" Vektorraum, um unendlich viele unabhängige Richtungen zu bekommen. Wir betrachten also einen Vektorraum V, in dem jeder Vektor unendlich viele Koordinaten besitzt: v=(x1,x2,) mit x1,x2,. Demnach entspricht v einer reellen Folge (xi)i und V ist der Folgen-Vektorraum, oder kurz Folgenraum.

Im d haben wir die linear unabhängigen Einheitsvektoren (1,0,,0),(0,1,,0),,(0,,0,1). Wir können diese Konstruktion fortsetzen und erhalten für i die Vektoren ei=(0,,0,1,0,) mit der 1 an der i-ten Stelle und sonst 0.

Die unendlich vielen Vektoren e1,e2, bilden eine Familie (ei)i. Diese Familie repräsentiert intuitiv "unendlich viele verschiedene Richtungen" in V und ist damit intuitiv gesehen linear unabhängig. Es ergibt also Sinn, lineare Unabhängigkeit für unendlich viele Vektoren so zu definieren, dass (ei)i eine linear unabhängige Familie ist. Die "etwas sperrige Definition 1." in der Aufzählung wäre dafür prinzipiell geeignet: Wir könnten sie einfach kopieren und sagen "eine Familie von Vektoren (vi)i ist linear unabhängig, wenn sich kein vi als Linearkombination der anderen schreiben lässt". Tatsächlich kann in (ei)i keiner der ei als Linearkombination der anderen Vektoren geschrieben werden. Daher ergibt die Definition an dieser Stelle schon einmal Sinn. Allerdings gibt es unendlich viele ei und damit unendlich viele Bedingungen!

Wir betrachten lieber die "etwas kompaktere Definition 2.": "Vektoren (vi)i sind linear unabhängig, wenn 0V nur durch die triviale Linearkombination dargestellt werden kann." Was bedeutet diese Formulierung in diesem Beispiel explizit? Wir haben also eine Linearkombination der 0VV gegeben. Linearkombinationen sind endlich, das heißt wir haben endlich viele Vektoren ei1,,ein und λ1,,λn, sodass

Vorlage:Einrücken

Wir müssen nun zeigen, dass alle λi=0 sind, da dann die obige Linearkombination die triviale Linearkombination der 0VV ist. Dies geht genauso wie im d, nur dass wir hier unendlich viele Einträge miteinander vergleichen müssen.

Was müssen wir nun tun, um eine allgemeine Definition für allgemeine Familien und allgemeine Vektorräume zu bekommen? Die "etwas kompaktere Definition 2." überträgt sich fast wortwörtlich: "Eine Familie (vi)iI von Vektoren ist linear unabhängig, wenn 0V nur durch die triviale Linearkombination dargestellt werden kann." Für die ausgeschriebene Implikation, können wir für die Endlichkeit der Linearkombination von unserer Sprache von Familien gebrauch machen: Wir ersetzen die Doppelindizes durch das Wort "Teilfamilie".

Definition

Mathe für Nicht-Freaks: Vorlage:Definition

Mathe für Nicht-Freaks: Vorlage:Warnung Mathe für Nicht-Freaks: Vorlage:Hinweis Mathe für Nicht-Freaks: Vorlage:Hinweis

Folgerungen aus der Definition

Umformulierung der Definition für endliche Teilfamilien Vorlage:Anker

Wir haben eine Definition von linearer Unabhängigkeit von beliebeigen Teilfamilien eines Vektorraums V. Stimmt diese mit unserer alten Definition für endliche Teilfamilien überein? Intuitiv sollten sie für endliche Teilfamilien übereinstimmen, da wir die allgemeine Definition aus unserer alten Definition hergeleitet haben. Der folgende Satz zeigt das nochmal formal:

Mathe für Nicht-Freaks: Vorlage:Satz

Zurückführen der Definition auf endliche Teilfamilien

Wir haben lineare Unabhängigkeit für eine beliebige Familie (vi)iI von Vektoren definiert, also auch für unendlich viele Vektoren. Aber in der Definition müssen wir nur eine Aussage für endliche Teilfamilien (vj)jJ zeigen: Für alle λjK mit jJ gilt folgendes: Vorlage:Einrücken Im vorherigen Satz haben wir gesehen, dass diese Aussage genau lineare Unabhängigkeit von (vj)jJ ist.

Mathe für Nicht-Freaks: Vorlage:Satz

Übersicht

Folgende Eigenschaften können mit wenigen Beweisschritten aus der Definition der linearen Unabhängigkeit hergeleitet werden. Dabei sei im Folgenden K ein Körper und V ein K-Vektorraum:

  1. Jede Teilfamilie einer Familie linear unabhängiger Vektoren ist linear unabhängig. Umgekehrt ist jede Oberfamilie einer Familie linear abhängiger Vektoren wieder linear abhängig.
  2. Sei vV ein einzelner Vektor. Dann ist v genau dann linear unabhängig, wenn v0V ist. Also "fast immer". Umgekehrt ist jede Familie (egal wie groß) linear abhängig, sobald sie den Nullvektor enthält.
  3. Seien v,wV. Die Vektoren v und w sind genau dann linear abhängig, wenn es ein λK mit der Eigenschaft w=λv oder v=λw gibt.
  4. Ist eine Familie von Vektoren linear abhängig, so kann einer von ihnen als Linearkombination der anderen dargestellt werden.

Teilfamilien linear unabhängiger Vektoren sind linear unabhängig

Eine linear unabhängige Familie bleibt linear unabhängig, wenn man Vektoren wegnimmt. Lineare Abhängigkeit bleibt hingegen erhalten, wenn man weitere Vektoren hinzufügt. Intuitiv zerstört also das Hinzufügen von Vektoren tendenziell die lineare Unabhängigkeit und kann durch weiteres Hinzufügen auch nicht wiederhergestellt werden.

Mathe für Nicht-Freaks: Vorlage:Satz

Familie mit Nullvektor ist linear abhängig

Wann ist eine Familie mit genau einem Vektor linear unabhängig? Diese Frage lässt sich leicht beantworten: immer dann, wenn dieser Vektor nicht der Nullvektor ist. Umgekehrt ist jede Familie mit dem Nullvektor linear abhängig. Inklusive die, die nur den Nullvektor selbst enthält.

Mathe für Nicht-Freaks: Vorlage:Satz

Bei zwei Vektoren sind genau die Streckungen linear abhängig

Wann ist eine Familie mit zwei Vektoren linear unabhängig? Wir können die Frage beantworten, indem wir sagen, wann das Gegenteil der Fall ist. Also wann sind zwei Vektoren linear abhängig? Lineare Abhängigkeit zweier Vektoren gilt genau dann, wenn beide "auf einer Geraden liegen", d.h. der eine Vektor eine Streckung des anderen ist.

Mathe für Nicht-Freaks: Vorlage:Satz Vorlage:Anker

Von linear abhängigen Vektoren kann einer als Linearkombination der anderen dargestellt werden

Bei endliche vielen Vektoren hatten wir mit der Definition begonnen, dass Vektoren linear abhängig sind, wenn einer der Vektoren als Linearkombination der anderen geschrieben werden kann (erste Definition). Wir haben schon gesehen, dass diese Definition äquivalent dazu ist, dass der Nullvektor als Linearkombination der Vektoren geschrieben werden kann (zweite Definition). Bei der allgemeinen Definition mit möglicherweise unendlich vielen Vektoren haben wir die Version mit dem Nullvektor (die zweite) als unsere Definition genutzt. Und man kann tatsächlich zeigen, dass auch im allgemeinen Fall die erste Definition dazu äquivalent ist:

Mathe für Nicht-Freaks: Vorlage:Satz

Lineare Unabhängigkeit und eindeutige Linearkombinationen Vorlage:Anker

Wir betrachten in diesem Abschnitt den Zusammenhang zwischen Linearer Unabhängigkeit und Linearkombinationen genauer. Dafür machen wir uns klar, was es bedeutet, wenn die Vektoren v1,,vn linear abhängig oder unabhängig sind. Angenommen die Vektoren v1,,vn sind linear abhängig. Aus unserer Definition der linearen Unabhängigkeit wissen wir, dass es dann eine nicht triviale Nulldarstellung geben muss, da mindestens ein Skalar λi0 für ein 1in ist. Wir machen uns dies anhand des folgenden Beispiels klar

Mathe für Nicht-Freaks: Vorlage:Beispiel

Unabhängig davon, ob die betrachtete Familie von Vektoren linear unabhängig ist oder nicht, gibt es stets die triviale Nulldarstellung, in dem alle Skalare λ1,...,λn den Wert 0 haben:

Vorlage:Einrücken

Bei linearer Abhängigkeit der Vektoren ist die Darstellung der Null nicht mehr eindeutig. Wir können unsere Ergebnisse bisher in einem Satz zusammenfassen und verallgemeinern:

Mathe für Nicht-Freaks: Vorlage:Satz

Übungsaufgaben

Aufgabe 1

Mathe für Nicht-Freaks: Vorlage:Aufgabe

Aufgabe 2

Mathe für Nicht-Freaks: Vorlage:Aufgabe

Mathe für Nicht-Freaks: Vorlage:Lösung

Aufgabe 3

Mathe für Nicht-Freaks: Vorlage:Aufgabe

Aufgabe 4

Mathe für Nicht-Freaks: Vorlage:Aufgabe

Aufgabe 5

Mathe für Nicht-Freaks: Vorlage:Aufgabe

Aufgabe 6

Mathe für Nicht-Freaks: Vorlage:Aufgabe

{{#invoke:Mathe für Nicht-Freaks/Seite|unten}}