Suche Sätze zu Eigenwerten < Eigenwerte < Lineare Algebra < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 14:08 Do 07.08.2008 | Autor: | Denny22 |
Hallo an alle,
ich suche zwei Sätze (und insbesondere deren Voraussetzungen) zur Eigenwerttheorie. Die Aussagen sollen die folgenden sein:
Satz 1:
Sei [mm] $B\in\IR^{n\times n}$ [/mm] eine Matrix mit den Eigenwerten [mm] $\lambda_1,\ldots,\lambda_n$. [/mm] Dann besitzt die Inversmatrix [mm] $B^{-1}$ [/mm] die Eigenwerte [mm] $\frac{1}{\lambda_1},\ldots,\frac{1}{\lambda_n}$.
[/mm]
Satz 2:
Seien [mm] $A,B\in\IR^{n\times n}$ [/mm] zwei Matrizen und Eigenwerten [mm] $\lambda_1,\ldots,\lambda_n$ [/mm] (von $A$) bzw. [mm] $\mu_1,\ldots,\mu_n$ [/mm] (von $B$). Dann besitzt das Matrixprodukt $AB$ die Eigenwerte [mm] $\lambda_1\mu_1,\ldots,\lambda_n\mu_n$. [/mm]
Wäre schön, wenn mir jemand einen Link mit den Sätzen schicken könnte oder mir vielleicht die Voraussetzungen der Aussage nennen könnte.
Danke und Gruß
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 14:12 Do 07.08.2008 | Autor: | Denny22 |
Ich bin's nochmal: Satz 1 hat sich erledigt. Dort benötigt man nur, dass die Matrix invertierbar ist.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:50 Do 07.08.2008 | Autor: | fred97 |
> Hallo an alle,
>
> ich suche zwei Sätze (und insbesondere deren
> Voraussetzungen) zur Eigenwerttheorie. Die Aussagen sollen
> die folgenden sein:
>
> Satz 1:
> Sei [mm]B\in\IR^{n\times n}[/mm] eine Matrix mit den Eigenwerten
> [mm]\lambda_1,\ldots,\lambda_n[/mm]. Dann besitzt die Inversmatrix
> [mm]B^{-1}[/mm] die Eigenwerte
> [mm]\frac{1}{\lambda_1},\ldots,\frac{1}{\lambda_n}[/mm].
>
> Satz 2:
> Seien [mm]A,B\in\IR^{n\times n}[/mm] zwei Matrizen und Eigenwerten
> [mm]\lambda_1,\ldots,\lambda_n[/mm] (von [mm]A[/mm]) bzw. [mm]\mu_1,\ldots,\mu_n[/mm]
> (von [mm]B[/mm]). Dann besitzt das Matrixprodukt [mm]AB[/mm] die Eigenwerte
> [mm]\lambda_1\mu_1,\ldots,\lambda_n\mu_n[/mm].
Satz 2 ist ohne weitere Vor. falsch !
Bsp.: A = [mm] \pmat{ 0 & 1 \\ 0 & 0}, [/mm] B = [mm] \pmat{ 1 & 0 \\ 1 & 1 }
[/mm]
Dann ist AB = [mm] \pmat{ 1 & 1 \\ 0 & 0 }.
[/mm]
AB hat also die Eigenwerte 0 und 1.
Mit Deinen Bez. ist [mm] \lambda_1 [/mm] = [mm] \lambda_2 [/mm] = 0 und [mm] \mu_1 [/mm] = [mm] \mu_2 [/mm] = 1
>
> Wäre schön, wenn mir jemand einen Link mit den Sätzen
> schicken könnte oder mir vielleicht die Voraussetzungen der
> Aussage nennen könnte.
>
> Danke und Gruß
Wo hast Du Satz 2 her ??
FRED
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:56 Do 07.08.2008 | Autor: | Denny22 |
Hallo nochmal,
> Satz 2 ist ohne weitere Vor. falsch !
Dass der Satz ohne weitere Voraussetzungen falsch ist, habe ich schon vermutet. Deswegen wollte ich die Voraussetzungen wissen, unter denen dieser Satz gilt.
> Bsp.: A = [mm]\pmat{ 0 & 1 \\ 0 & 0},[/mm] B = [mm]\pmat{ 1 & 0 \\ 1 & 1 }[/mm]
>
> Dann ist AB = [mm]\pmat{ 1 & 1 \\ 0 & 0 }.[/mm]
>
> AB hat also die Eigenwerte 0 und 1.
>
> Mit Deinen Bez. ist [mm]\lambda_1[/mm] = [mm]\lambda_2[/mm] = 0 und [mm]\mu_1[/mm]
> = [mm]\mu_2[/mm] = 1
Okay, gutes Gegenbeispiel. In meinem Fall sind die Matrizen $A$ und $B$ aber beide reell, symmetrisch, positiv definit und invertierbar. Außerdem besitzen sie keine doppelten Eigenwerte. Vielleicht spielt eines dieser Argumente dabei im Satz 2 eine Rolle, weil - wie ich sehe - hat Deine Matrix $A$ beispielsweise den Rang 1 und ist daher nicht invertierbar. Weiter sind die Matrizen weder symmetrisch noch positiv definit. An irgendeiner dieser Eigenschaften muss es liegen.
>
> Wo hast Du Satz 2 her ??
>
Mein Professor hat diese Eigenschaft ausgenutzt, aber ich erinnere mich nicht mehr, unter welchen Bedingungen dies gilt und den Satz finde ich nirgendwo.
Hast Du oder jemand anderes eine Idee, unter welche (zusätzlichen) Eigenschaften der Satz 2 gilt?
Gruß
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:22 Do 07.08.2008 | Autor: | pelzig |
Also Für Diagonalmatrizen ist diser Satz trivialerweise erfüllt, denn da sind ja die Diagonaleinträge genau die Eigenwerte und wie man Diagonalmatrizen miteinander multipliziert sollte klar sein... Damit gilt Satz 2 sogar für alle Matrizen A,B, die simultan diagonalisierbar sind, da das Spektrum unter Basistransformationen invariant ist. Dies ist (!) genau dann der Fall, falls A und B diagonalisierbar sind und kommutieren. Aber ich vermute es gilt noch unter wesentlich schwächeren Voraussetzungen...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:13 Do 07.08.2008 | Autor: | felixf |
Hallo
> Also Für Diagonalmatrizen ist diser Satz trivialerweise
> erfüllt, denn da sind ja die Diagonaleinträge genau die
> Eigenwerte und wie man Diagonalmatrizen miteinander
> multipliziert sollte klar sein...
Ja, die Diagonalelemente multiplizieren sich, allerdings muss man dann noch sagen, dass [mm] $\lambda_1, \dots, \lambda_n$ [/mm] die Diagonalelemente in genau dieser Reihenfolge sind (genauso fuer die [mm] $\mu_i$), [/mm] ansonsten gilt das naemlich nicht.
Den Satz sollte man besser so formulieren (mit passenden Voraussetzungen): es gibt eine Permutation [mm] $\pi [/mm] : [mm] \{ 1, \dots, n \} \to \{ 1, \dots, n \}$ [/mm] so, dass $A B$ die Eigenwerte [mm] $\lambda_1 \mu_{\pi(1)}, \dots, \lambda_n \mu_{\pi(n)}$ [/mm] hat.
> Damit gilt Satz 2 sogar
> für alle Matrizen A,B, die simultan diagonalisierbar sind,
> da das Spektrum unter Basistransformationen invariant ist.
> Dies ist (!) genau dann der Fall, falls A und B
> diagonalisierbar sind und kommutieren. Aber ich vermute es
> gilt noch unter wesentlich schwächeren Voraussetzungen...
Es reicht ja voellig aus, dass die beiden Matrizen simultan triagonalisierbar sind. Apropos, weiss jemand wie man solche Matrizenpaare klassifizieren kann?
LG Felix
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 09:12 Fr 08.08.2008 | Autor: | fred97 |
> Hallo nochmal,
>
> > Satz 2 ist ohne weitere Vor. falsch !
>
> Dass der Satz ohne weitere Voraussetzungen falsch ist, habe
> ich schon vermutet. Deswegen wollte ich die Voraussetzungen
> wissen, unter denen dieser Satz gilt.
>
> > Bsp.: A = [mm]\pmat{ 0 & 1 \\ 0 & 0},[/mm] B = [mm]\pmat{ 1 & 0 \\ 1 & 1 }[/mm]
>
> >
> > Dann ist AB = [mm]\pmat{ 1 & 1 \\ 0 & 0 }.[/mm]
> >
> > AB hat also die Eigenwerte 0 und 1.
> >
> > Mit Deinen Bez. ist [mm]\lambda_1[/mm] = [mm]\lambda_2[/mm] = 0 und [mm]\mu_1[/mm]
> > = [mm]\mu_2[/mm] = 1
>
> Okay, gutes Gegenbeispiel. In meinem Fall sind die Matrizen
> [mm]A[/mm] und [mm]B[/mm] aber beide reell, symmetrisch, positiv definit und
> invertierbar. Außerdem besitzen sie keine doppelten
> Eigenwerte.
WARUM SAGST DU DAS NICHT GLEICH ?????
FRED
>Vielleicht spielt eines dieser Argumente dabei
> im Satz 2 eine Rolle, weil - wie ich sehe - hat Deine
> Matrix [mm]A[/mm] beispielsweise den Rang 1 und ist daher nicht
> invertierbar. Weiter sind die Matrizen weder symmetrisch
> noch positiv definit. An irgendeiner dieser Eigenschaften
> muss es liegen.
>
> >
> > Wo hast Du Satz 2 her ??
> >
>
> Mein Professor hat diese Eigenschaft ausgenutzt, aber ich
> erinnere mich nicht mehr, unter welchen Bedingungen dies
> gilt und den Satz finde ich nirgendwo.
>
> Hast Du oder jemand anderes eine Idee, unter welche
> (zusätzlichen) Eigenschaften der Satz 2 gilt?
>
> Gruß
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:10 Fr 08.08.2008 | Autor: | felixf |
Hallo
> > Satz 2 ist ohne weitere Vor. falsch !
>
> Dass der Satz ohne weitere Voraussetzungen falsch ist, habe
> ich schon vermutet. Deswegen wollte ich die Voraussetzungen
> wissen, unter denen dieser Satz gilt.
>
> > Bsp.: A = [mm]\pmat{ 0 & 1 \\ 0 & 0},[/mm] B = [mm]\pmat{ 1 & 0 \\ 1 & 1 }[/mm]
>
> >
> > Dann ist AB = [mm]\pmat{ 1 & 1 \\ 0 & 0 }.[/mm]
> >
> > AB hat also die Eigenwerte 0 und 1.
> >
> > Mit Deinen Bez. ist [mm]\lambda_1[/mm] = [mm]\lambda_2[/mm] = 0 und [mm]\mu_1[/mm]
> > = [mm]\mu_2[/mm] = 1
>
> Okay, gutes Gegenbeispiel. In meinem Fall sind die Matrizen
> [mm]A[/mm] und [mm]B[/mm] aber beide reell, symmetrisch, positiv definit und
> invertierbar. Außerdem besitzen sie keine doppelten
> Eigenwerte. Vielleicht spielt eines dieser Argumente dabei
> im Satz 2 eine Rolle, weil - wie ich sehe - hat Deine
> Matrix [mm]A[/mm] beispielsweise den Rang 1 und ist daher nicht
> invertierbar. Weiter sind die Matrizen weder symmetrisch
> noch positiv definit. An irgendeiner dieser Eigenschaften
> muss es liegen.
Nein, die beiden Eigenschaften reichen nicht. Du brauchst noch dass die Matrizen kommutieren (und immernoch dass die Eigenwerte in der richtigen Reihenfolge angegeben sind, oder du brauchst eine Permutation!).
Gegenbeispiel:
$A = [mm] \pmat{ 1 & 0 \\ 0 & 2 }$, [/mm] $B = [mm] \pmat{ 3/2 & -1/2 \\ -1/2 & 3/2 }$; [/mm] es ist $B = T A [mm] T^t$ [/mm] mit der orthogonalen Matrix $T = [mm] \frac{1}{\sqrt{2}} \pmat{ 1 & -1 \\ 1 & 1 }$.
[/mm]
Die Matrix $A B$ hat nun laut MAPLE die Eigenwerte [mm] $\frac{9 + \sqrt{17}}{4}$ [/mm] und [mm] \frac{9 - \sqrt{17}}{4}$, [/mm] und das hat keine Aehnlichkeit mit den Produkten $1 [mm] \cdot [/mm] 1$, $1 [mm] \cdot [/mm] 2$ und $2 [mm] \cdot [/mm] 2$.
LG Felix
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:32 Fr 08.08.2008 | Autor: | fred97 |
Ist A eine komplexe Bannachalgebra mit Einselement und bez. man mit [mm] \sigma(x) [/mm] das Spektrum von x [mm] \in [/mm] A, so gilt für a, b [mm] \in [/mm] A mit ab = ba:
[mm] \sigma(ab) \subseteq [/mm] {ts: t [mm] \in \sigma(a), [/mm] s [mm] \in \sigma(b) [/mm] }
Dieser Sachverhalt ist nicht einfach zu beweisen, man benötigt Gelfand -Theorie.
Ein Spezialfall wäre:
A = Menge der komplexen nxn -Matrizen (in diesem Fall ist das Spektrum gerade die Menge der Eigenwerte).
FRED
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:54 Fr 08.08.2008 | Autor: | Denny22 |
Ich bin mir nicht sicher, ob ich es schon geschrieben habe und ob es wichtig ist, aber sie Matrix $A$ ist bei mir eine diagonaldominante Tridiagonalmatrix und $B$ ist die Inverse irgendeiner diagonaldominanten Tridiagonalmatrix. Weiter müsste damit (glaube ich zumindest) $AB=BA$ gelten. Hilf mir das für die Voraussetzungen für Satz 2?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:04 Fr 08.08.2008 | Autor: | fred97 |
> Ich bin mir nicht sicher, ob ich es schon geschrieben habe
> und ob es wichtig ist, aber sie Matrix [mm]A[/mm] ist bei mir eine
> diagonaldominante Tridiagonalmatrix und [mm]B[/mm] ist die Inverse
> irgendeiner diagonaldominanten Tridiagonalmatrix. Weiter
> müsste damit (glaube ich zumindest) [mm]AB=BA[/mm] gelten.
Das fogt nicht azs Deinen Vor.
>Hilf mir
> das für die Voraussetzungen für Satz 2?
Frage: Warum rückst Du erst nach und nach mit den speziellen Eigenschaften von A und B heraus ??????????
FRED
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 14:14 Fr 08.08.2008 | Autor: | Denny22 |
Diese Eigenschaften sind mir gerade noch eingefallen. Sorry, dass sie mir nicht früher auf- bzw. eingefallen sind.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 11:35 Sa 09.08.2008 | Autor: | felixf |
Hallo
> Ich bin mir nicht sicher, ob ich es schon geschrieben habe
> und ob es wichtig ist, aber sie Matrix [mm]A[/mm] ist bei mir eine
> diagonaldominante Tridiagonalmatrix und [mm]B[/mm] ist die Inverse
> irgendeiner diagonaldominanten Tridiagonalmatrix. Weiter
> müsste damit (glaube ich zumindest) [mm]AB=BA[/mm] gelten. Hilf mir
> das für die Voraussetzungen für Satz 2?
Da die Matrizen symmetrisch sind sind sie orthogonal diagonalisierbar, und da $A B = B A$ gilt sind sie simultan diagonalisierbar. Damit bekommt man die Aussage natuerlich sehr einfach hin.
LG Felix
|
|
|
|