matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Hochschulmathe
  Status Uni-Analysis
    Status Reelle Analysis
    Status UKomplx
    Status Uni-Kompl. Analysis
    Status Differentialgl.
    Status Maß/Integrat-Theorie
    Status Funktionalanalysis
    Status Transformationen
    Status UAnaSon
  Status Uni-Lin. Algebra
    Status Abbildungen
    Status ULinAGS
    Status Matrizen
    Status Determinanten
    Status Eigenwerte
    Status Skalarprodukte
    Status Moduln/Vektorraum
    Status Sonstiges
  Status Algebra+Zahlentheo.
    Status Algebra
    Status Zahlentheorie
  Status Diskrete Mathematik
    Status Diskrete Optimierung
    Status Graphentheorie
    Status Operations Research
    Status Relationen
  Status Fachdidaktik
  Status Finanz+Versicherung
    Status Uni-Finanzmathematik
    Status Uni-Versicherungsmat
  Status Logik+Mengenlehre
    Status Logik
    Status Mengenlehre
  Status Numerik
    Status Lin. Gleich.-systeme
    Status Nichtlineare Gleich.
    Status Interpol.+Approx.
    Status Integr.+Differenz.
    Status Eigenwertprobleme
    Status DGL
  Status Uni-Stochastik
    Status Kombinatorik
    Status math. Statistik
    Status Statistik (Anwend.)
    Status stoch. Analysis
    Status stoch. Prozesse
    Status Wahrscheinlichkeitstheorie
  Status Topologie+Geometrie
  Status Uni-Sonstiges

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenUni-Lineare AlgebraMatrix
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Deutsch • Englisch • Französisch • Latein • Spanisch • Russisch • Griechisch
Forum "Uni-Lineare Algebra" - Matrix
Matrix < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Matrix: Diagonalisieren
Status: (Frage) beantwortet Status 
Datum: 01:34 Do 04.08.2005
Autor: d.liang

Hilfeee, brauche dringend Rat ... bin nähmlich um diese Uhrzeit schon langsam am verzweifeln, folgendes:


Sind folgende Matrizen diagonalisierbar ? Berechnen Sie ggf eine diagonalisierende Matrix S sowie S^-1AS

Nr.1

[mm] \pmat{ -1 & 4 & -2 \\ -3 & 4 & 0 \\ -3 & 1 & 3 } [/mm]

Die Lösung soll so lauten:

S =  [mm] \pmat{ 1 & 2 & 1 \\ 1 & 3 & 3 \\ 1 & 0 & 0 } [/mm]

Nr.2

[mm] \pmat{ 0 & 0 & 0 \\ 0 & 0 & 0 \\ 3 & 0 & 1 } [/mm]

Die Lösung soll so lauten:

S^-1 AS =  [mm] \pmat{ 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 } [/mm]



Ich habe kein Plan wie ich das richtig löse, meine Unterlagen geben mir irgendwie nicht richtig aufschluss darüber.

Hier steht ich solle

- n linear unabhängige Eigenvektoren bilden von A
- Die Matrix S aus den Spaltenvektoren bilden
- Das Produkt S^-1 AS ist dann die Diagonalmatrix

Hab ich alles schon durchprobiert, komme aber nicht aufs Ergebnis.
Wann kann man überhaupt eine Diagonalmatrix bilden ?... mache ich beim bilden von S was falsch ? Ich weiß es nicht...
Ist hier jemand der es mir ganz einfach mal vorrechnen kann ? Irgendwann nähmlich, sieht man den Wald vor lauter Bäumen nicht mehr ... :(

Vielen Dank schonmal !


        
Bezug
Matrix: Antwort
Status: (Antwort) fertig Status 
Datum: 08:16 Do 04.08.2005
Autor: DaMenge

Hallo,

allgemein bildest du erstmal das charackteriestische Polynom.
Wenn dieses in verschiedene Linaerfaktoren zerfällt, hast du Glück, denn dann gibt es n verschiedene Eigenwerte und dazugehörige Eigenvektoren.

Angenommen du hättest eine Basis aus Eigenvektoren, wie würde dann die Darstellungsmatrix aussehen?
Richtig: Sie wäre gerade eine Diagonalmatrix und hat die EigenWERTE auf der Diagonale.

S ist also gerade die MBTransformationsmatrix, die einen Vektor bzgl. der Eigenvektor-Basis in die kanonische umrechnet - lies dir mal denn Link durch, dann sollte einiges klarer werden...

Da ich dir aber nicht deine Aufgabe lösen will, sondern dir nur helfen will, dir selbst zu helfen, mach doch mal Folgendes:
1) bilde das CharPoly und seine Linearfaktoren
2) Suche Eigenvektoren dazu
3) lies den Link und versuche mal S auszurechnen.
4) Bilde das Produkt [mm] $S^{-1}*A*S$ [/mm]

Wenn bei 4) NICHT die Diagonale rauskommt, schreib das mal alles hier hin, dann können wir schauen, wo der Fehler liegt.

noch zwei Hinweise:
1) Wenn das CharPoly in n versch. Linearfaktoren zerfällt ist es nur hinreichend für die Diagonalisierbarkeit - bei gleichen Linearfaktoren muss man noch mit der geometrischen und algebraischen Vielfachheit schauen
(Benutzt mal dazu die Suche, oder Hier (ganzer Thread?))

2)

> [mm]\pmat{ 0 & 0 & 0 \\ 0 & 0 & 0 \\ 3 & 0 & 1 }[/mm]
>  
> Die Lösung soll so lauten:
>  
> S^-1 AS =  [mm]\pmat{ 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 }[/mm]

Also an der Diagonalmatrix erkennt man die Eigenwerte 1,2 und 3, aber die ursprüngliche Matrix, wie sie hier steht, hat offensichtlich den eigenwert 0 für den zweiten Einheitsvektor. Überprüf doch mal bitte beide Matrizen auf Tippos....

viele Grüße
DaMenge

Bezug
                
Bezug
Matrix: Rückfrage
Status: (Frage) beantwortet Status 
Datum: 12:55 Do 04.08.2005
Autor: d.liang

Ich hab mich nun nochmal an der zweiten Aufgabe versucht, , schaffe es aber leider nicht... das mit dem bilden von S verstehe ich nicht.

So weit bin ich (wenn das überhaupt richtig ist):

[mm] \pmat{ 0 & 0 & 0 \\ 0 & 0 & 0 \\ 3 & 0 & 1 } [/mm]


Mein charackteriestische Polynom sieht dazu so aus:

[mm] \lambda [/mm] ² *(1- [mm] \lambda) [/mm]

dh eine doppelte Nullstelle bei 0 und eine bei 1

für  [mm] \lambda [/mm] = 0 hab ich die Eigenvektoren

[mm] \pmat{ 0 \\ 1 \\ 0 } [/mm]

und

[mm] \pmat{ 1 \\ 0 \\ -3 } [/mm]

für [mm] \lambda [/mm] = 1

[mm] \pmat{ 0 \\ 0 \\ 0 } [/mm]


So, und hier bin ich mit meinem Latein am Ende, denn ich verstehe nicht genau wie ich das nun mit der Transformationmatrix gehen soll, so wie es in dem Link beschrieben ist...

Um weitere Hilfe wäre ich dankbar, denn es ist nicht mehr weit bis zur Klausur ;)

Bezug
                        
Bezug
Matrix: fast fertig
Status: (Antwort) fertig Status 
Datum: 13:07 Do 04.08.2005
Autor: DaMenge

Hallöchen, du bist schon fast fertig :

> Ich hab mich nun nochmal an der zweiten Aufgabe versucht, ,
> schaffe es aber leider nicht... das mit dem bilden von S
> verstehe ich nicht.
>  
> So weit bin ich (wenn das überhaupt richtig ist):
>  
> [mm]\pmat{ 0 & 0 & 0 \\ 0 & 0 & 0 \\ 3 & 0 & 1 }[/mm]
>  
>
> Mein charackteriestische Polynom sieht dazu so aus:
>  
> [mm]\lambda[/mm] ² *(1- [mm]\lambda)[/mm]
>  
> dh eine doppelte Nullstelle bei 0 und eine bei 1

absolut richtig ! Das heißt aber, dass später auf der Diagonalen auch zwei Nullen und eine 1 stehen werden , hmkay?


>  
> für  [mm]\lambda[/mm] = 0 hab ich die Eigenvektoren
>  
> [mm]\pmat{ 0 \\ 1 \\ 0 }[/mm]
>  
> und
>
> [mm]\pmat{ 1 \\ 0 \\ -3 }[/mm]
>  

[ok]

> für [mm]\lambda[/mm] = 1
>  
> [mm]\pmat{ 0 \\ 0 \\ 0 }[/mm]

stopp : der Nullvektor ist NIEMALS eigenvektor
(wobei aber die 0 auch EigenWERT sein kann)

ein Eigenvektor wäre aber $ [mm] \vektor{0\\0\\1} [/mm] $

> So, und hier bin ich mit meinem Latein am Ende, denn ich
> verstehe nicht genau wie ich das nun mit der
> Transformationmatrix gehen soll, so wie es in dem Link
> beschrieben ist...

Nun gut - du hast deine drei Eigenvektoren, diese sind dir bezüglich der Standardbasis gegeben - nun ist S aber die Transformationsmatrix, die einen Vektor in Eigenvektorbasis umwandeln soll in Standardbasis, denn erst dann kann man die ursprüngliche Matrix benutzen.

Wie im Link beschrieben musst du nun als SPALTEN von S einfach deine Eigenvektoren einsetzen, also : [mm] $S=\pmat{0&1&0\\1&0&0\\0&-3&1}$ [/mm]
Dann noch die Inverse mittels MBGauß-Jordan berechnen, dann erhält man: [mm] $S^{-1}=\pmat{0&1&0\\1&0&0\\3&0&1}$ [/mm]
also ausrechnen:
[mm] $S^{-1}*A*S=\pmat{0&1&0\\1&0&0\\3&0&1}*\pmat{ 0 & 0 & 0 \\ 0 & 0 & 0 \\ 3 & 0 & 1 }*\pmat{0&1&0\\1&0&0\\0&-3&1}=\pmat{0&0&0\\0&0&0\\0&0&1}$ [/mm]

also deine gesuchte Diagonalmatrix.

hast du denn bei der ersten das Richtige raus?

viele Grüße
DaMenge

Bezug
                                
Bezug
Matrix: fast verstanden
Status: (Frage) beantwortet Status 
Datum: 14:40 Do 04.08.2005
Autor: d.liang

Sehr gut, jetzt ist mir das Prinzip klar ...

ich hab das ganze nochmalfür die erste Aufgabe gemacht

[mm] \pmat{ -1 & 4 & -2 \\ -3 & 4 & 0 \\ -3 & 1 & 3 } [/mm]

das ist mein polynom
- [mm] \lambda³ [/mm] + 6 [mm] \lambda² [/mm] -11 [mm] \lambda [/mm] + 6

welches die Nullstellen
[mm] \lambda [/mm] = 3
[mm] \lambda [/mm] = 1
[mm] \lambda [/mm] = 2

hat

Ich hab diese wieder eingesetzt um die Eigenvektoren zu erhalten

[mm] \pmat{ 1 \\ 3 \\ 4 } [/mm] für  [mm] \lambda [/mm] = 3

[mm] \pmat{ 1 \\ 1 \\ 1 } [/mm] für  [mm] \lambda [/mm] = 1

[mm] \pmat{ 1 \\ 2 \\ 1 } [/mm] für  [mm] \lambda [/mm] = 2

damit wäre mein S =  [mm] \pmat{ 1 & 1 & 1 \\ 3 & 1 & 2 \\ 4 & 1 &1 } [/mm]


das stimmt mir meiner vorliegenden Lösung aber nicht überein

S = [mm] \pmat{ 1 & 2 & 1 \\ 1 & 3 & 3 \\ 1 & 0 & 0 } [/mm]

Habe ich mich nur verrechnet ? Oder kann man mehrere korrekte Eigenwerte bilden ?

Bezug
                                        
Bezug
Matrix: Antwort
Status: (Antwort) fertig Status 
Datum: 15:12 Do 04.08.2005
Autor: DaMenge

Hallo,

> Sehr gut, jetzt ist mir das Prinzip klar ...
>
> ich hab das ganze nochmalfür die erste Aufgabe gemacht
>  
> [mm]\pmat{ -1 & 4 & -2 \\ -3 & 4 & 0 \\ -3 & 1 & 3 }[/mm]
>  
> das ist mein polynom
> - [mm]\lambda³[/mm] + 6 [mm]\lambda²[/mm] -11 [mm]\lambda[/mm] + 6
>  
> welches die Nullstellen
> [mm]\lambda[/mm] = 3
>   [mm]\lambda[/mm] = 1
>   [mm]\lambda[/mm] = 2
>  
> hat
>  
> Ich hab diese wieder eingesetzt um die Eigenvektoren zu
> erhalten
>  
> [mm]\pmat{ 1 \\ 3 \\ 4 }[/mm] für  [mm]\lambda[/mm] = 3
>  
> [mm]\pmat{ 1 \\ 1 \\ 1 }[/mm] für  [mm]\lambda[/mm] = 1
>  

bis hierhin alles richtig - super !

> [mm]\pmat{ 1 \\ 2 \\ 1 }[/mm] für  [mm]\lambda[/mm] = 2
>  

Das stimmt nicht ganz, ich bekomme als Eigenvektor zum Beispiel [mm] $\vektor{2\\3\\3}$ [/mm]


> damit wäre mein S =  [mm]\pmat{ 1 & 1 & 1 \\ 3 & 1 & 2 \\ 4 & 1 &1 }[/mm]


müsste man natürlich anpassen ;-)


>  
>
> das stimmt mir meiner vorliegenden Lösung aber nicht
> überein
>  
> S = [mm]\pmat{ 1 & 2 & 1 \\ 1 & 3 & 3 \\ 1 & 0 & 0 }[/mm]
>  
> Habe ich mich nur verrechnet ? Oder kann man mehrere
> korrekte Eigenwerte bilden ?  

Also zu einem EigenWERT gibt es natürlich verschiedene EigenVEKTOREN und diese können auch unterschiedlich aussehen, wenn ein Eigenraum mehrdimensional ist.
Hier jedoch hast du drei eindimensionale Eigenräume, das heißt alle k-fachen deiner Eigenvektoren sind selbst wieder eigenvektoren.
NICHT jedoch die beiden anderen Vektoren aus deiner "Lösung"smatrix - die sind keine Eigenvektoren - da hat sich jemand anderes vertan.
(die beiden Nullen stimmen also in der Lösung NICHT)

Mit deinem S sollte es dann aber klappen!
(ich hab's überprüft.)

viele Grüße
DaMenge

Bezug
                                                
Bezug
Matrix: Danke!!!!
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 15:34 Do 04.08.2005
Autor: d.liang

Danke DaMenge, du hast mir sehr weitergeholfen, hab das Prinzip nun verstanden !

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.unimatheforum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]