Eigenvektoren lin. unabh. Bew. < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 21:29 Mo 17.03.2014 | Autor: | Paivren |
Guten Abend.
Ich habe eine Frage zu dem Beweis der linearen Unabhängigkeit von Eigenvektoren, die jeweils zu einem eigenen Eigenwert gehören.
Der Beweis ist hier kurz aufgeführt:
http://de.wikiversity.org/wiki/Endomorphismus/Eigenvektoren/Linear_unabh%C3%A4ngig/Fakt_Beweis
Das Prinzip verstehe ich an sich.
Nur das Anwenden der Voraussetzung nicht.
Es sei angenommen, dass die Aussage meinetwegen für n=3 stimmt.
Dann sind [mm] a_{1}=a_{2}=0.
[/mm]
Über [mm] a_{3} [/mm] kann wegen [mm] \lambda_{3}-\lambda_{3}=0 [/mm] keine Aussage gemacht werden.
Sei nun n=4.
Dann kommt ein Summand hinzu, also
0= [mm] (\lambda_{4}-\lambda_{1})a_{1}v_{1} [/mm] + [mm] (\lambda_{4}-\lambda_{2})a_{2}v_{2} [/mm] + [mm] (\lambda_{4}-\lambda_{3})a_{3}v_{3} [/mm] + [mm] (\lambda_{4}-\lambda_{4})a_{4}v_{4} [/mm]
[mm] =(\lambda_{4}-\lambda_{1})a_{1}v_{1} [/mm] + [mm] (\lambda_{4}-\lambda_{2})a_{2}v_{2} [/mm] + [mm] (\lambda_{4}-\lambda_{3})a_{3}v_{3}
[/mm]
Jetzt darf ich scheinbar die Voraussetzung benutzen und sagen, dass [mm] a_{i}=0 [/mm] für i=1 und i=2, ist.
Dann folgt, dass [mm] a_{3}=0 [/mm] ist.
Aber:
Ich überprüfe ja lineare Abhängigkeit.
Wieso kann ich einfach so davon ausgehen, dass die [mm] a_{1} [/mm] und [mm] a_{2} [/mm] gleich bleiben, wenn ich einen weiteren Summanden anfüge?
Wenn ich zwei voneinander linear unabhängige Vektoren habe, und sie als Linearkombination nur für [mm] a_{1}=a_{2}=0 [/mm] zu 0 werden, dann kann ich doch trotzdem einen eventuell linear abhängigen Vektor dazu addieren, und auf einmal geht die Gleichung auch auf, wenn nicht alle Vorfaktoren Null sind.
Ich hoffe, ihr versteht meine Frage^^"
Ich verstehe nicht ganz, warum man davon ausgehen kann, dass die vorherigen Koeffizienten zwangsweise gleich bleiben, wenn man einen (oder mehrere) weitere Summanden anfügt.
Gruß
|
|
|
|
Hallo,
beweisen möchtest Du die Aussage:
Es sei K ein Körper, V ein K-Vektorraum und
[mm] \varphi \colon [/mm] V [mm] \longrightarrow [/mm] V [mm] \, [/mm]
eine lineare Abbildung. Es seien [mm] v_1 [/mm] , [mm] \ldots [/mm] , [mm] v_n [/mm] Eigenvektoren zu (paarweise) verschiedenen Eigenwerten [mm] \lambda_1 [/mm] , [mm] \ldots [/mm] , [mm] \lambda_n \in [/mm] K.
Dann sind {{}} [mm] v_1 [/mm] , [mm] \ldots [/mm] , [mm] v_n [/mm] linear unabhängig.
> Der Beweis ist hier kurz aufgeführt:
>
> http://de.wikiversity.org/wiki/Endomorphismus/Eigenvektoren/Linear_unabh%C3%A4ngig/Fakt_Beweis
>
>
> Das Prinzip verstehe ich an sich.
> Nur das Anwenden der Voraussetzung nicht.
>
> Es sei angenommen, dass die Aussage meinetwegen für n=3
> stimmt.
Okay. Wir nehmen an, daß es für n=3 stimmt und zeigen, daß es dann auch für n=4 gilt.
Angenommen, die Aussage, daß die 3 pw verschiedenen Eigenvektoren [mm] v_1, v_2, v_3 [/mm] linear unabhängig sind, stimmt.
Aus [mm] b_1v_1+b_2v_2+b_3v_3=0 [/mm] folgt dann [mm] b_1=b_2=b_3=0.
[/mm]
(in Worten: wenn irgendeine Linearkombination dieser Vektoren Null ergibt, sind alle Vorfaktoren=0.)
Hieraus wollen wir nun schließen, daß die 4 pw verschiedenen Eigenvektoren [mm] v_1, v_2, v_3, v_4 [/mm] linear unabhängig sind, daß also aus
[mm] a_1v_1+a_2v_2+a_3v_3+a_4v_4=0 [/mm] folgt: [mm] a_1=a_2=a_3=a_4=0.
[/mm]
(Zu zeigen ist also: wenn irgendeine Linearkombination dieser Vektoren Null ergibt, sind alle Vorfaktoren=0.)
Sei also
[mm] (\*) a_1v_1+a_2v_2+a_3v_3+a_4v_4=0.
[/mm]
[mm] \varphi [/mm] darauf anwenden ergibt
[mm] \varphi(a_1v_1+a_2v_2+a_3v_3+a_4v_4)=\varphi(0)
[/mm]
<==>
[mm] a_1\lambda_1v_1+a_2\lambda_2v_2+a_3\lambda_3v_3+a_4\lambda_4v_4=0
[/mm]
Multipliziert man [mm] (\*) [/mm] mit [mm] \lambda_4. [/mm] bekommt man
[mm] a_1\lambda_4v_1+a_2\lambda_4v_2+a_3\lambda_4v_3+a_4\lambda_v_4=0
[/mm]
Subtraktion beider Gleichungen liefert
[mm] a_1(\lambda_1-\lambda_4)v_1+a_2(\lambda_2-\lambda_4)v_2+a_3(\lambda_3-\lambda_4)v_3=0
[/mm]
Da [mm] v_1, v_2, v_3 [/mm] lnach Voraussetzung inear unabhängig sind, folgt, daß die Faktoren vor den [mm] v_i [/mm] alle =0 sind.
Es ist also [mm] a_i(\lambda_i-\lambda_4)=0, [/mm] (i=1,2,3)
und da die Eigenwerte pw verschieden sind, folgt
[mm] a_1=a_2=a_3=0.
[/mm]
[mm] (\*) [/mm] wird also zu [mm] a_4v_4=0,
[/mm]
da [mm] v_4 [/mm] ein EV ist, ist es nicht der Nullvektor, also ist [mm] a_4=0.
[/mm]
Damit sind alle [mm] a_i=0, [/mm] i=1,2,3,4,
und die lineare Unabhängigkeit von [mm] v_1, v_2, v_3, v_4 [/mm] ist gezeigt.
Ich hoffe, Dir ist Dein Gedankenfehler klargeworden.
Hier wird nichts "einfach angehängt".
Vorausgesetzt wird, daß sofern irgendeine Linearkombination von [mm] v_1,v_2,v_3 [/mm] den Nullvektor ergibt, folgt, daß die Vorfaktoren alle =0 sind.
Und daraus wird dann geschlossen:
wenn irgendeine Linearkombination von [mm] v_1,v_2,v_3, v_4 [/mm] den Nullvektor ergibt, folgt, daß die Vorfaktoren alle =0 sind.
Wenn Du das verstanden hast, fällt Dir die Übertragung auf n Vektoren nicht schwer.
LG Angela
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:40 Di 18.03.2014 | Autor: | Paivren |
Hallo Angela,
vielen, vielen Dank für die Erklärung.
Mein Gedankenfehler ist offensichtlich. ich habe außer Acht gelassen, dass ich bereits gezeigt habe, dass die 3 Vektoren linear unabhängig sind, und die [mm] a_{1},a_{2},a_{3} [/mm] deswegen in der entstehenden Gleichung Null sein müssen.
Ich war nur verwirrt, weil ich ja einen weiteren Vektor hinzugenommen hatte und dann hatte ich den Gedanken im Kopf, dass sich die Koeffizienten ja nun ändern könnten und nicht mehr alle 0 sind.
Da ich mit den beiden Gleichungen aber selbst mit dem weiteren Vektor auf eine Gleichung komme, die die Linearkombination der ersten drei Vektoren =0 setzt, und jene ja linear unabh. sind, folgt daraus, dass die Koeffizienten (immer noch) 0 sind.
Ich kann also die Gleichung mit n Vektoren stets auf eine Gleichung mit der Anzahl von Vektoren zurückführen, deren Unabhängigkeit ich schon gezeigt habe.
Danke Dir!
Gruß
|
|
|
|