Beweis diagonalisierbar < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 18:54 Mi 24.03.2010 | Autor: | natascha |
Aufgabe | Sei M eine Matrix, die aus zwei Diagonalkästchen aufgebaut ist:
M= ( A 0
0 D)
Man beweise, dass M genau dann diagonalisierbar ist, wenn sowohl A als auch D diagonalisierbar sind. |
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
Ich soll diesen Beweis durchführen, jedoch habe ich Probleme, wie ich das Problem angehen soll, da mir bei Beweisen alles immer so "unkonkret" und abstrakt vorkommt, so ohne Zahlen irgendwie.
Meine Idee ist, dass ich also Behauptung nehmen sollte, dass M genau dann diagonalisierbar ist, wenn eine Basis aus Eigenvektoren existiert.
Das bedeutet, dass wir wissen, wenn A und D Eigenvektoren haben, die linear unabhängig sind, bilden diese jeweils Basen für A bzw. D. Da wir wissen, dass alle Eigenwerte von M die Eigenwerte von A und D sind, da man die Eigenwerte einer Diagonalmatrix an der Diagonale ablesen kann, wissen wir auch, dass diese Aussage korrekt sein muss.
Jedoch wie schreibe ich das formal als Beweis auf?
Vielen Dank für Hilfe!
|
|
|
|
> Sei M eine Matrix, die aus zwei Diagonalkästchen aufgebaut
> ist:
> M= ( A 0
> 0 D)
> Man beweise, dass M genau dann diagonalisierbar ist, wenn
> sowohl A als auch D diagonalisierbar sind.
Ich denken nicht, dass Diagonalkästchen heißt, dass [mm]A[/mm] bzw. [mm]D[/mm] auch wirklich Diagonalmatrizen sind, sondern dass diese Teilmatrizen auf der Diagonalen angeordnet sind. Ansonsten wäre die Aufgabe sinnlos und die Standardbasis wäre die Eigenvektorbasis von [mm]M[/mm].
> Ich soll diesen Beweis durchführen, jedoch habe ich
> Probleme, wie ich das Problem angehen soll, da mir bei
> Beweisen alles immer so "unkonkret" und abstrakt vorkommt,
> so ohne Zahlen irgendwie.
>
> Meine Idee ist, dass ich also Behauptung nehmen sollte,
> dass M genau dann diagonalisierbar ist, wenn eine Basis aus
> Eigenvektoren existiert.
Ist richtig.
> Das bedeutet, dass wir wissen, wenn A und D Eigenvektoren
> haben, die linear unabhängig sind, bilden diese jeweils
> Basen für A bzw. D.
Nein! Jede Matrix hat Eigenvektoren. Fraglich ist nur, ob es genau soviele Eigenvektoren gibt, wie die Dimension hergibt. Das ist ja der Knackpunkt an der Diagonalisierbarkeit.
> Da wir wissen, dass alle Eigenwerte
> von M die Eigenwerte von A und D sind, da man die
> Eigenwerte einer Diagonalmatrix an der Diagonale ablesen
> kann, wissen wir auch, dass diese Aussage korrekt sein
> muss.
Wie gesagt, ich glaube, dass du die Aufgabe/ die Begriffe falsch verstanden hast.
Vielleicht hilft dir ja dieser Tipp: Sei [mm]v[/mm] ein Eigenvektor von [mm]A[/mm], dann ist auch [mm]\vektor{v\\0}[/mm] ein Eigenvektor von [mm]M[/mm]. Das sollte leicht einzusehen sein.
Außerdem ist die Aufgabe ein "g.d.w."-Beweis. D.h., es sind zwei Richtungen zu zeigen.
Gruß
Tobias
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:01 Do 25.03.2010 | Autor: | natascha |
Vielen Dank für den Tip! Ich habe das jetzt folgendermassen angesetzt:
Richtung " <-- "
Behauptung: A und D sind diagonalisierbar, also ist M diagonalisierbar
Beweis: Sei v1 ein Eigenvektor von A und v2 ein Eigenvektor von D. Wir füllen v1 oben und v2 unten mit Nullen aus, so dass (v1 0) und (0 v2) entstehen, welche dann Eigenvektoren für M sind.
Es gilt: Av1=c1v1 und Dv2=c2v2 und daraus folgt c1(v1 0) und c2(v2 0) -> Das sind zwei Eigenvektoren für M, die linear unabhängig sind und eine Basis bilden -> M ist diagonalisierbar.
Stimmt das so?
Richtung "--> "
Behauptung: M ist diagonalisierbar, also sind auch A und D diagonalisierbar.
Beweis: Sei v ein Eigenvektor von M. Dann gilt Mv=cv
v hat die Dimension n = Dimension von M = Dimension von A + Dimension von D
Wir schreiben v als (v1 v2) wobei v1 die Dimension von A und v2 die Dimension von D hat.
Es gilt also M(v1 v2) = ... = c (v1 v2)
Jetzt kommt das Problem: Daraus müsste ich irgendwie ja 2 Vektoren machen, so wie (v1 0) und (0 v2)...aber leider komme ich hier nicht weiter...
Vielen Dank im Voraus!
|
|
|
|
|
> Vielen Dank für den Tip! Ich habe das jetzt
> folgendermassen angesetzt:
> Richtung " <-- "
> Behauptung: A und D sind diagonalisierbar, also ist M
> diagonalisierbar
> Beweis: Sei v1 ein Eigenvektor von A und v2 ein
> Eigenvektor von D. Wir füllen v1 oben und v2 unten mit
> Nullen aus, so dass (v1 0) und (0 v2) entstehen, welche
> dann Eigenvektoren für M sind.
>
> Es gilt: Av1=c1v1 und Dv2=c2v2 und daraus folgt c1(v1 0)
> und c2(v2 0) -> Das sind zwei Eigenvektoren für M, die
> linear unabhängig sind und eine Basis bilden -> M ist
> diagonalisierbar.
> Stimmt das so?
Nun ja, zwei linear unabhängige Eigenvektoren bilden für sichgenommen im Allgemeinen keine Basis. Dennoch der Grundgedanke ist richtig. Ersetze [mm]v_1[/mm] durch [mm]\{v_1,\dots,v_n\}[/mm] Eigenvektorbasis von [mm]A[/mm] und [mm]v_2[/mm] durch [mm]\{w_1,\dots,w_m\}[/mm] Eigenvektorbasis von [mm]D[/mm], dann müsste es passen.
>
> Richtung "--> "
> Behauptung: M ist diagonalisierbar, also sind auch A und D
> diagonalisierbar.
> Beweis: Sei v ein Eigenvektor von M. Dann gilt Mv=cv
> v hat die Dimension n = Dimension von M = Dimension von A
> + Dimension von D
> Wir schreiben v als (v1 v2) wobei v1 die Dimension von A
> und v2 die Dimension von D hat.
> Es gilt also M(v1 v2) = ... = c (v1 v2)
> Jetzt kommt das Problem: Daraus müsste ich irgendwie ja 2
> Vektoren machen, so wie (v1 0) und (0 v2)...aber leider
naja, wo ist denn das Problem. Es gilt jetzt sowohl [mm]M\vektor{v_1\\0}=c\vektor{v_1\\0}[/mm] als auch [mm]M\vektor{0\\v_2}=c\vektor{0\\v_2}[/mm]. Jetzt muss man noch ein wenig argumentieren, dass es genau so viele Eigenvektoren von [mm]A[/mm] bzw. [mm]D[/mm] gibt, wie wir brauchen. Dies folgt aber im Wesentlichen aus der Dimension von [mm]M[/mm] (wenn ich das recht sehe). Am besten nimmst du jetzt wieder meine Notation von oben. D.h., [mm]\left\{\vektor{v_1\\w_1},\dots,\vektor{v_{n+m}\\w_{n+m}}\right\}[/mm] sei eine Eigenvektorbasis von [mm]M[/mm]. Nun solltest du begründen können, warum [mm]n[/mm] linear unabhängige Vektor [mm]v_i[/mm] bzw. [mm]m[/mm] l.u. Vektoren [mm]w_i[/mm] existieren. Ich bin überzeugt, dass du das hinbekommst.
Gruß
Tobias
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 20:49 Do 25.03.2010 | Autor: | natascha |
Vielen Dank für deine Erklärung, jetzt ist mir einiges klarer :)
Ich denke, dass diese n linear unabhängigen Vektoren vi und die m linear unabhängigen Vektoren wi existieren müssen, weil dies auch genau die Dimensionen der Matrizen A und D sind, denn der Eigenvektor v von M ist ja genau daraus zusammengesetzt. Ist das richtig?
|
|
|
|
|
> Vielen Dank für deine Erklärung, jetzt ist mir einiges
> klarer :)
> Ich denke, dass diese n linear unabhängigen Vektoren vi
> und die m linear unabhängigen Vektoren wi existieren
> müssen, weil dies auch genau die Dimensionen der Matrizen
> A und D sind, denn der Eigenvektor v von M ist ja genau
> daraus zusammengesetzt. Ist das richtig?
Das ist natürlich so, aber nur weil das grad so passt, muss es nicht wahr sein.
Überleg dir, was passiert, wenn z.B. nur [mm]n-1[/mm] l.u. Vektoren [mm]v_i[/mm] existieren. Dann existiert ein [mm]\hat v[/mm], so dass [mm]\hat v\neq \sum^{n+m}_{i=1}\alpha_i v_i[/mm] für beliebige [mm]\alpha_i[/mm]. Dann gilt aber auch [mm]\vektor{\hat v\\0}\neq \sum^{m+n}_{i=1}\alpha_i\vektor{v_i\\w_i}[/mm] für beliebige [mm]\alpha_i[/mm]. Dies ist aber ein Widerspruch zur Annahme, dass [mm]\vektor{v_i\\w_i}[/mm] eine Basis des [mm]\IR^{n+m}[/mm] ist. Das gleiche Argument funktioniert umgedreht bei [mm]D[/mm].
Ich gebe zu, ich hab mich aber auch grade etwas schwer getan, obwohl es eigentlich einfach ist. Trotzdem wünsche ich dir einen schönen Abend.
Tobias
|
|
|
|