Mathe für Nicht-Freaks: Kern einer linearen Abbildung: Unterschied zwischen den Versionen

Aus testwiki
Zur Navigation springen Zur Suche springen
 
(kein Unterschied)

Aktuelle Version vom 26. April 2023, 12:29 Uhr

{{#invoke:Mathe für Nicht-Freaks/Seite|oben}} Der Kern einer linearen Abbildung enthält die Informationen, die unter der Abbildung verloren gehen. Mit dem Kern lässt sich die Injektivität von linearen Abbildungen charakterisieren. Er spielt außerdem eine zentrale Rolle beim Lösen linearer Gleichungssysteme.

Einführung

Wir haben spezielle Abbildungen zwischen Vektorräumen kennengelernt, sogenannte lineare Abbildungen. Sie sind strukturerhaltend; das heißt, sie vertragen sich mit der Addition und der skalaren Multiplikation eines Vektorraums. Wir können uns eine lineare Abbildung von V nach W deshalb als etwas vorstellen, das die Vektorraumstruktur von V nach W transportiert.

Einleitende Beispiele

Wir betrachten zwei Konten, die jeweils den Kontostand x bzw. y aufweisen. Diese Information können wir mit einem Vektor (x,y)T2 beschreiben. Der Gesamtkontostand ist die Summe der beiden Kontostände. Wir können ihn ausrechnen, indem wir die Abbildung Vorlage:Einrücken anwenden. Diese Abbildung ist linear und transportiert daher die Vektorraumstruktur von 2 nach . Dabei geht Information verloren: Man weiß nicht mehr, wie das Geld auf die Konten verteilt ist. Beispielsweise kann man die Einzelkontostände (500,0)T und (200,300)T nicht mehr unterscheiden, da sie beide auf denselben Gesamtkontostand 500+0=200+300=500 abgebildet werden. Insbesondere ist die Abbildung nicht injektiv. Dafür bekommen wir die Information, wie viel Geld insgesamt auf den Konten liegt.

Drehung der reellen Ebene um 90° gegen den Uhrzeigersinn

Wir betrachten als Nächstes die Abbildung Vorlage:Einrücken Anschaulich entspricht das einer Drehung des 2 um 90 Grad gegen den Uhrzeigersinn. Durch Rückgängigmachen dieser Drehung kann man aus jedem gedrehten Vektor in 2 den ursprünglichen Vektor zurückgewinnen. Formal gesprochen ist diese Abbildung ein Isomorphismus und es geht keine Information verloren. Insbesondere ist das Bild linear unabhängiger Vektoren wieder linear unabhängig (weil ein Isomorphismus injektiv ist, siehe den Artikel Monomorphismus) und das Bild eines Erzeugendensystems des 2 ist wieder ein Erzeugendensystem des 2 (weil ein Isomorphismus surjektiv ist, siehe den Artikel Epimorphismus).

Zuletzt betrachten wir wieder die Drehung, aber betten die gedrehte Ebene anschließend in den 3 ein: Vorlage:Einrücken Obwohl diese Abbildung nicht mehr bijektiv ist, geht hier genauso wie oben beim Transport der Vektorraumstruktur des 2 in den 3 keine Information verloren: Wie im vorherigen Beispiel werden wegen der Injektivität verschiedene Vektoren im 2 auf verschiedene Vektoren im 3 abgebildet. Auch lineare Unabhängigkeit von Vektoren bleibt erhalten. Allerdings wird ein Erzeugendensystem des 2 nicht auf ein Erzeugendensystem des 3 abgebildet. Zum Beispiel schickt die Abbildung die Standardbasis {(1,0)T,(0,1)T} auf {(0,1,0)T,(1,0,0)T}, was kein Erzeugendensystem des 3 ist. Die Eigenschaft einer Menge von Vektoren, ein Erzeugendensystem zu sein, hängt vom umliegenden Raum ab. Das ist bei der linearen Unabhängigkeit nicht der Fall; sie ist eine „intrinsische“ Eigenschaft von Mengen von Vektoren.

Herleitung Vorlage:Anker

Wir haben verschiedene Beispiele von linearen Abbildungen gesehen, die einen K-Vektorraum strukturerhaltend in einen anderen K-Vektorraum transportieren. Dabei ging unterschiedlich viel „intrinsische“ Information aus dem ursprünglichen Vektorraum (etwa Unterschiede von Vektoren oder lineare Unabhängigkeit) verloren. Das letzte Beispiel legt nahe, dass injektive Abbildungen solche intrinsischen Eigenschaften erhalten. Andererseits sehen wir: Wenn f:VW nicht injektiv ist, dann gibt es Vektoren v,vV mit f(v)=f(v). In dem Fall geht also unter f der Unterschied vv von v und v verloren. Die Differenz vv ist wieder ein Element in V. Da f linear ist, können wir f(v)=f(v) umformulieren: Es gilt Vorlage:Einrücken Intuitiv ist f genau dann injektiv, wenn Unterschiede vv von Vektoren unter f nicht verloren gehen (auf null abgebildet werden). Weil f strukturerhaltend ist, gilt für alle v,vV und λK: Wenn f(vv)=0, dann ist auch Vorlage:Einrücken Wenn der Unterschied von v und v unter f verloren geht, dann auch der von λv und λv. Genauso gilt für v,v,w,wV: Ist f(vv)=0 und f(ww)=0, so gilt auch Vorlage:Einrücken Also geht auch der Unterschied von v+w und v+w verloren. Die Unterschiede, die unter f verloren gehen, sind selbst Vektoren in V. Diese schickt f auf das Nullelement 0W von W und sie liegen damit in f1({0W}). Umgekehrt lässt sich jeder Vektor vf1({0W}) als Differenz v=v0 schreiben; das heißt, der Unterschied v0 zwischen v und dem Nullvektor geht unter f verloren. Das Urbild f1({0W}) misst genau, welche Unterschiede von Vektoren (wie viel „Information“) beim Transport von V nach W verloren geht. Unsere Überlegungen zeigen, dass f1({0W}) sogar ein Untervektorraum von V ist. Wir geben diesem Unterraum einen Namen: den Kern von f.

Definition

Der Kern einer linearen Abbildung misst intuitiv, wie viel „intrinsische“ Information über Vektoren aus V (Unterschiede von Vektoren oder lineare Unabhängigkeit) beim Anwenden der Abbildung verloren geht. Der Kern ist das Urbild des Nullvektors. Mathe für Nicht-Freaks: Vorlage:Definition

In der Herleitung haben wir gesehen, dass der Kern einer linearen Abbildung von V nach W ein Untervektorraum von V ist. Wir beweisen es noch einmal ausführlich.

Mathe für Nicht-Freaks: Vorlage:Satz

Beispiele

Wir bestimmen den Kern der Beispiele aus der Einleitung.

Vektor wird auf die Summe der Einträge abgebildet

Wir betrachten die Abbildung Vorlage:Einrücken Der Kern von f besteht aus den Vektoren (x,y)T2 mit 0=f((x,y)T)=x+y, also y=x. Mit anderen Worten ist Vorlage:Einrücken Damit ist der Kern von f ein eindimensionaler Untervektorraum von 2. Allgemeiner können wir für n die Abbildung Vorlage:Einrücken betrachten. Wieder liegt ein Vektor (x1,,xn)Tn per Definition genau dann im Kern von g, wenn 0=g((x1,,xn))=x1++xn gilt. Wir können x1,,xn1 also frei wählen und setzen dann xn=x1xn1. Damit ist Vorlage:Einrücken Somit ist der Kern von g ein (n1)-dimensionaler Unterraum von n. Man sagt auch, er ist eine Hyperebene im n.

Rotation im 2

Wir betrachten die Rotation Vorlage:Einrücken Angenommen (x,y)T liegt im Kern von f, d.h. es gilt Vorlage:Einrücken Daraus folgt x=y=0. Also liegt nur der Nullvektor im Kern von f und es ist kerf={(0,0)T}.

2 wird gedreht in den 3 eingebettet Vorlage:Anker

Als nächstes betrachten wir Vorlage:Einrücken Wie im vorherigen Beispiel bestimmen wir den Kern, indem wir einen beliebigen Vektor (x,y)Tkerf wählen. Es gilt also Vorlage:Einrücken Wieder folgt x=y=0, sodass auch für diese Abbildung kerf={(0,0)T} gilt.

Ableitung von Polynomen Vorlage:Anker

Zum Schluss betrachten wir eine Abbildung, die nicht in der Einleitung vorkam: die Abbildung Vorlage:Einrücken die ein reelles Polynom auf seine Ableitung abbildet. Das heißt, ein Polynom Vorlage:Einrücken mit Koeffizienten a0,,an wird auf das Polynom Vorlage:Einrücken abgebildet. Anschaulich bestimmen wir zu p ein Polynom p, das in jedem Punkt die Steigung von p angibt. Aus dieser Information erfährt man noch, wie das Polynom „aussieht“ (ähnlich wie bei einer Schablone). Wir wissen aber nicht mehr, wo genau es sich auf der y-Achse befindet, denn beim Ableiten geht die Information über den konstanten Teil des Polynoms verloren. Polynome, die eine Verschiebung entlang der y-Achse voneinander sind, können wir nach dem Ableiten nicht mehr unterscheiden. Zum Beispiel haben sowohl p=x2x+1 als auch q=x2x+42 die Ableitung p=q=2x1. Die Abbildung f bildet sie also auf dasselbe Polynom ab.

Der Kern von f enthält somit genau die konstanten Polynome: Vorlage:Einrücken Die Inklusion „“ ist klar, denn die Ableitung eines konstanten Polynoms ist immer das Nullpolynom. Für die umgekehrte Inklusion „“ betrachten wir ein beliebiges Polynom pkerf und zeigen, dass es konstant ist. Es gilt p=i=1naiXi für ein n und gewisse Koeffizienten a0,,an. Wegen pkerf gilt Vorlage:Einrücken und mit Koeffizientenvergleich folgt a1=a2==an=0. Also ist p konstant. Vorlage:Todo

Kern und Injektivität

In der Herleitung haben wir gesehen, dass eine lineare Abbildung genau dann Unterschiede von Vektoren erhält, wenn der Kern nur aus dem Nullvektor besteht. Wir haben dort auch gesehen, dass die Linearität impliziert: Eine lineare Abbildung ist genau dann injektiv, wenn der Unterschied von Vektoren nicht verloren geht. Wir haben also den folgenden Satz: <section begin="InjektivitätSatz" /> Mathe für Nicht-Freaks: Vorlage:Satz <section end="InjektivitätSatz" />

Je größer der Kern ist, desto mehr Unterschiede zwischen Vektoren gehen verloren und desto „weniger injektiv“ ist die Abbildung. Der Kern ist damit ein Maß für die „Nicht-Injektivität“ einer linearen Abbildung.

Injektive Abbildungen und Untervektorräume

In den einleitenden Beispielen haben wir vermutet, dass injektive lineare Abbildungen „intrinsische“ Eigenschaften von Vektorräumen erhalten. Das sind Eigenschaften, die nicht vom umliegenden Vektorraum abhängen: etwa die lineare Unabhängigkeit von Vektoren oder die Verschiedenheit von Vektoren. Die Eigenschaft, ein Erzeugendensystem zu sein, kann bei injektiven linearen Abbildungen verloren gehen, wie wir im Beispiel der gedrehten Einbettung von 2 in den 3 gesehen haben: Die Abbildung ist injektiv, aber die Standardbasis von 2 wird nicht auf ein Erzeugendensystem von 3 abgebildet.

Was genau bedeutet es, dass eine Eigenschaft einer Familie N=(vi)iIV von Vektoren nicht vom umliegenden Vektorraum V abhängt, also eine „intrinsische“ Eigenschaft von N ist? Oft wird für Eigenschaften von Vektoren aus V (zum Beispiel die lineare Unabhängigkeit) die Vektorraumstruktur von V benötigt, also die Addition und die skalare Multiplikation. Um Eigenschaften der Vektoren in N zu untersuchen, betrachten wir deshalb den kleinsten Unterraum von V, der diese enthält. Das ist gerade der von den Vektoren in N aufgespannte Unterraum span(N). Wir wollen eine Eigenschaft von N intrinsisch nennen, wenn sie nur von span(N), aber nicht von V abhängt.

Mathe für Nicht-Freaks: Vorlage:Beispiel

Was haben intrinsische Eigenschaften einer Familie von Vektoren mit der Injektivität zu tun? Sei f:VW eine lineare Abbildung. Angenommen, f erhält intrinsische Eigenschaften von Vektoren, das heißt: Hat eine Familie N=(vi)iIV eine gewisse intrinsische Eigenschaft, so hat auch ihr Bild f(N)=(f(vi))iI unter f diese Eigenschaft. Dann erhält f auch die Verschiedenheit von Vektoren, da dies eine intrinsische Eigenschaft ist. Das bedeutet: Sind v,vV verschieden, vv, so ist auch ihr Bild unter f verschieden, f(v)f(v). Also ist f injektiv.

Umgekehrt gilt: Ist f injektiv, dann ist V isomorph zu dem Unterraum f(V) von W. Denn, indem wir die Abbildung f im Bild einschränken, erhalten wir eine injektive und surjektive lineare Abbildung f:Vf(V), also einen Isomorphismus. Insbesondere gilt für jede Familie N in V, dass der Unterraum span(N) von V zu f(span(N)) isomorph ist. Letzterer hat damit dieselben Eigenschaften wie span(N). Somit erhält f intrinsische Eigenschaften von Teilmengen von V.

Wir haben also gesehen: f:VW ist genau dann injektiv, wenn f intrinsische Eigenschaften von Teilmengen von V erhält.

Kern und lineare Unabhängigkeit

Im vorherigen Abschnitt haben wir gesehen, dass injektive lineare Abbildungen VW genau die linearen Abbildungen sind, die intrinsische Eigenschaften von V erhalten. Eine solche intrinsische Eigenschaft ist auch die lineare Unabhängigkeit einer Familie von Vektoren: Die Frage, ob gewisse Vektoren linear unabhängig sind, betrifft nur die Vektoren selbst und den Nullvektor.

Also sollten injektive lineare Abbildungen die lineare Unabhängigkeit von Vektoren erhalten, d. h. das Bild linear unabhängiger Vektoren ist wieder linear unabhängig. Umgekehrt kann eine lineare Abbildung nicht injektiv sein, wenn sie die lineare Unabhängigkeit von Vektoren nicht erhält, da die intrinsische Information „linear unabhängig sein“ verloren geht.

Insgesamt erhalten wir den folgenden Satz, welcher schon im Artikel zum Monomorphismus bewiesen wurde:

Mathe für Nicht-Freaks: Vorlage:Satz

Insbesondere ist für jede lineare Abbildung f:VW der Vektorraum f(V) ein dim(V)-dimensionaler Unterraum von W. Deshalb kann es im Endlichdimensionalen keine injektive lineare Abbildung von V nach W geben, wenn dim(W)<dim(V) gilt. Das wurde ebenfalls schon im Artikel zum Monomorphismus gezeigt.

Kern und lineare Gleichungssysteme Vorlage:Anker

Der Kern einer linearen Abbildung ist bei der Untersuchung von linearen Gleichungssystemen ein wichtiger Begriff.

Sei K ein Körper und m,n. Wir betrachten ein lineares Gleichungssystem Vorlage:Einrücken mit n Unbekannten x1,,xn und m Zeilen. Es ist aij,biK, wobei i{1,,m} und j{1,,n}. Wir können dieses Gleichungssystem auch mithilfe der Matrixmultiplikation schreiben: Vorlage:Einrücken wobei AKm×n, xKn und bKm. Die Lösungsmenge bezeichnen wir mit Vorlage:Einrücken

Eine Lösung des linearen Gleichungssystems Ax=b für eine gegebene rechte Seite b zu bestimmen bedeutet, Urbilder von b unter der linearen Abbildung Vorlage:Einrücken zu finden. Vorlage:Todo Das Gleichungssystem Ax=b hat Lösungen, wenn das Urbild fA1(b) nicht leer ist. In diesem Fall, können wir uns fragen, ob es mehrere Lösungen gibt oder ob die Lösung eindeutig ist. Mit anderen Worten, uns interessiert, wie viele Urbilder ein b unter fA hat.

Per Definition der Injektivität gilt: Jeder Punkt bKm hat genau dann ein höchstens einelementiges Urbild, wenn die Abbildung fA injektiv ist. Das bedeutet, dass das lineare Gleichungssystem Ax=b für jedes bKm höchstens eine Lösung hat, also |L(A,b)|1. Weil fA linear ist, ist die Injektivität gleichbedeutend mit ker(fA)={0}. Wir können also schon festhalten: Mathe für Nicht-Freaks: Vorlage:Satz Mathe für Nicht-Freaks: Vorlage:Hinweis

Auch wenn fA nicht injektiv ist, also ker(fA){0} gilt, können wir mithilfe des Kerns noch Genaueres über das Aussehen der Lösungsmenge aussagen: Die Differenz zweier Vektoren x und x, die fA auf denselben Vektor abbildet, liegt im Kern von fA. Deshalb kann man das Urbild eines bKm unter fA als Vorlage:Einrücken schreiben, wobei x^ ein beliebiges Element aus fA1(b) ist. Das zeigt der folgende Satz: Mathe für Nicht-Freaks: Vorlage:Satz Wir haben damit die Aussage des obigen Satzes noch erweitert. Je größer der Kern von fA ist, also je "weniger injektiv" die Abbildung xAx ist, desto „weniger eindeutig“ sind Lösungen von Ax=b, sofern welche existieren. Die Lösungsmenge eines linearen Gleichungssystems Ax=b ist der um eine partikuläre Lösung x^ verschobene Kern der induzierten linearen Abbildung fA. Des Weiteren gilt Vorlage:Einrücken Die Lösungsmenge des homogenen Gleichungssystems Ax=0 (das heißt mit rechter Seite Null) ist der Kern von fA. Mathe für Nicht-Freaks: Vorlage:Hinweis

Aufgaben

<section begin=injektivität_und_dimension /> Mathe für Nicht-Freaks: Vorlage:Aufgabe<section end=injektivität_und_dimension /> <section begin=aufgabe_kern_bestimmen /> Mathe für Nicht-Freaks: Vorlage:Aufgabe

Mathe für Nicht-Freaks: Vorlage:Frage<section end=aufgabe_kern_bestimmen /> <section begin=kern_nilpotenter_endo /> Mathe für Nicht-Freaks: Vorlage:Aufgabe<section end=kern_nilpotenter_endo />

{{#invoke:Mathe für Nicht-Freaks/Seite|unten}}