matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Hochschulmathe
  Status Uni-Analysis
    Status Reelle Analysis
    Status UKomplx
    Status Uni-Kompl. Analysis
    Status Differentialgl.
    Status Maß/Integrat-Theorie
    Status Funktionalanalysis
    Status Transformationen
    Status UAnaSon
  Status Uni-Lin. Algebra
    Status Abbildungen
    Status ULinAGS
    Status Matrizen
    Status Determinanten
    Status Eigenwerte
    Status Skalarprodukte
    Status Moduln/Vektorraum
    Status Sonstiges
  Status Algebra+Zahlentheo.
    Status Algebra
    Status Zahlentheorie
  Status Diskrete Mathematik
    Status Diskrete Optimierung
    Status Graphentheorie
    Status Operations Research
    Status Relationen
  Status Fachdidaktik
  Status Finanz+Versicherung
    Status Uni-Finanzmathematik
    Status Uni-Versicherungsmat
  Status Logik+Mengenlehre
    Status Logik
    Status Mengenlehre
  Status Numerik
    Status Lin. Gleich.-systeme
    Status Nichtlineare Gleich.
    Status Interpol.+Approx.
    Status Integr.+Differenz.
    Status Eigenwertprobleme
    Status DGL
  Status Uni-Stochastik
    Status Kombinatorik
    Status math. Statistik
    Status Statistik (Anwend.)
    Status stoch. Analysis
    Status stoch. Prozesse
    Status Wahrscheinlichkeitstheorie
  Status Topologie+Geometrie
  Status Uni-Sonstiges

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenUni-Lineare AlgebraCayley Hamilton
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Deutsch • Englisch • Französisch • Latein • Spanisch • Russisch • Griechisch
Forum "Uni-Lineare Algebra" - Cayley Hamilton
Cayley Hamilton < Lineare Algebra < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Cayley Hamilton: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 15:18 Di 21.09.2004
Autor: Oche

Hallo, kann mir einer den Satz von Cayley Hamilton erklären, bzw den beweis etwas verständlich machen. Zu zeigen ist ja, dass das char Polynom von einer quadratischen matrix A = 0 ist.

ich wäre dafür echt dankbar.

        
Bezug
Cayley Hamilton: Antwort
Status: (Antwort) fertig Status 
Datum: 18:52 Di 21.09.2004
Autor: Stefan

Hallo Oche!

Wir können den Beweis morgen gerne zusammen durchgehen. Hast du den "Fischer"? Dann nehmen wir den Beweis aus diesem Buch. Hast du Interesse daran?

Um sich den Satz plausibel zu machen, nehmen wir mal an, dass $A$ diagonalisierbar ist. Dann gibt es eine Basis [mm] $\{x_1,\ldots,x_n\}$ [/mm] aus Eigenvektoren von $A$. Sei $X$ ein beliebiger Vektor. Dann lässt sich $x$ in der Form [mm] $\sum\limits_{i=1}^n \lambda_i x_i$ [/mm] darstellen. Aus

(*) [mm] $[CP(A)]x_i=0$ [/mm] für alle [mm] $i=1,\ldots,n$ [/mm] (beachte: $CP(A)$ ist eine Matrix!)

würde dann auch

$[CP(A)]x = [CP(A)] [mm] \left( \sum\limits_{i=1}^n \lambda_i x_i \right) [/mm] = [mm] \sum\limits_{i=1}^n \lambda_i [CP(A)]x_i [/mm] = 0$

folgen, also (da $x$ beliebig war):

$CP(A)=0$.

Zu zeigen bleibt also (*). Es gilt aber, wenn [mm] $\lambda_i$ [/mm] der Eigenwert von [mm] $x_i$ [/mm] ist:

[mm] $[CP(A)]x_i [/mm] = [mm] [CP(\lambda_i)] \cdot x_i [/mm] = 0$    (ist dir klar, dass  [mm] $[CP(A)]x_i [/mm] = [mm] [CP(\lambda_i)] \cdot x_i$ [/mm] gilt?)

wegen [mm] $CP(\lambda_i)=0$ [/mm] (die Eigenwerte sind ja gerade die Nullstellen des charakteristischen Polynoms).

Für diagonalisierbare Matrizen ist der Beweis also einfach zu führen. Er gilt aber für beliebige Matrizen, und dies ist nicht mehr so einfach zu zeigen. Das ist die Aussage des Satzes von Cayley-Hamilton. Morgen mehr dazu, wenn du magst (melde dich dann bitte).

Melde dich auch, wenn du Fragen zu dem obigen Beweis für diagonalisierbare Matrizen hast.

Liebe Grüße
Stefan

Bezug
                
Bezug
Cayley Hamilton: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:53 Di 21.09.2004
Autor: Oche

Hallo stefan,

ich würde sehr gerne mit dir den beweis durchgehen.allerdings bin ich morgen (mittwoch) leider den ganzen tag in münchen.
ich werde mir donnerstag den fischer aber einmal holen und den beweis mir anschauen. wenn du dann immer noch lust und natürlich zeit hast mir dabei zu helfen, wäre das super. ich habe einen beweis aus der uni, den wir wohl auch so lernen sollen, da ich diesen aber eventuell mündlich vortragen muss, müsste ich diesen auch bis ins kleinste verstehen. allerdings scheitere ich noch daran. wenn du magst schicke ich dir gerne einmal den beweis zu. als newbie kann ich dir aber leider keine dateien an deine email-adresse schicken.
also schonmal besten dank für dein Interesse und deine hilfe. ich bin für jeder form der hilfe dankbar.
melde dich, wenn du magst direkt an danmarburger@aol.com , das bin ich.
danke und schönen abend, tag ...

Bezug
                        
Bezug
Cayley Hamilton: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:59 Di 21.09.2004
Autor: Stefan

Hallo!

Mit Trottel fällt gerade ein, dass ich morgen eh nicht da bin. Erst muss ich bei der Kölner-Rückversicherung vortragen, und dann bin ich auf einem Kolloquium.

Naja, umso besser, dass du auch nicht kannst. ;-)

Schicke mir den Beweis einfach per Email, ich schaue ihn mir dann am Donnerstag an und wir gehen ihn dann zusammen am Donnerstag oder Freitag in Ruhe durch. Es ist besser euren Beweis zu nehmen als den im Fischer, klar.

Liebe Grüße
Stefan

Bezug
                
Bezug
Cayley Hamilton: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 13:00 So 26.09.2004
Autor: Micha

Hallo Stefan!
Kannst du bitte noch angeben, wo sich der Beweis im Fischer (ich habe die 14. Auflage hier) befindet? Kapitel oder sowas?

Das wäre sehr lieb, weil ich zu dumm bin das zu finden irgendwie, lol. ;-)

Gruß Micha

Bezug
                        
Bezug
Cayley Hamilton: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 22:16 So 26.09.2004
Autor: Stefan

Lieber Micha!

In meiner 11. Auflage steht er auf Seite 241 (Kapitel 4: Eigenwerte, Abschnitt 4.5: Potenzen eines Endomorphismus, 4.5.3).

Aber vielleicht ist es ja in der 14. Auflage rausgenommen worden (ich habe eh gehört, dass die 14. Auflage ziemlich schlecht sein soll, da sich zahlreiche Fehler eingeschlichen haben, die seltsamerweise in den alten Auflagen vorher nicht vorhanden waren).

Liebe Grüße
Stefan

Bezug
        
Bezug
Cayley Hamilton: Antwort
Status: (Antwort) fertig Status 
Datum: 00:46 Mi 22.09.2004
Autor: Sorgenkind

Hallo Oche!

Da ich heute Vordiplom in LA hatte, und diesen Satz nicht beweisen musste werde ich das mal spontan hier versuchen ;-)

Was man für den Beweis, wie wir ihn in der Vorlesung behandelt haben braucht, sind folgende Sätze:
1) Jede komplexe $nxn$ Matrix ist ähnlich zu einer oberen Dreiecksmatrix
2) für $p [mm] \in \IK[\lambda], [/mm] A [mm] \in GL_n(\IK)$ [/mm] und $C [mm] \in M_n(\IK)$ [/mm] gilt: [mm] $p(A^{-1}CA)=A^{-1}p(C)A$ [/mm]

Also gut. Zu zeigen ist:  [mm] $\chi_C(C)=0$ [/mm] für $C [mm] \in M_n(\IK)$. [/mm]
Nach 1)  ist $C$ ähnlich zu einer oberen Dreiecksmatrix $D$, also [mm] $C=A^{-1}DA$, [/mm] wobei $D$ dann von der Form [mm] $D=\pmat{d_1 & \* & \* \\ 0 & \ddots & \* \\ 0 & 0 & d_n}$ [/mm] ist.
Und weil nach 2) [mm] $\chi_C(C)=\chi_C(A^{-1}DA)=A^{-1}\chi_C(D)A$ [/mm] gilt, genügt es, die Behauptung für obere Dreiecksmatrizen zu beweisen.
Man kann also annehmen, dass die Matrix in der Form
[mm] $D=\pmat{d_1 & \* & \* \\ 0 & \ddots & \* \\ 0 & 0 & d_n}$ [/mm] vorliegt.
Das charakteristische Polynom ist dann von der Form
[mm] $\chi_D(\lambda)=(d_1-\lambda)\ctimes(d_2-\lambda)\ctimes\cdots(d_n-\lambda)$ [/mm]
bzw.
[mm] $\chi_D(D)=(d_1E-D)\ctimes(d_2E-D)\ctimes\cdots(d_nE-D)$ [/mm]
Jetzt kann man per Induktion zeigen, dass die ersten $k$ Spalten der Matrix [mm] $(d_1E-D)\ctimes\cdots\ctimes(d_kE-D)$ [/mm] Nullspalten sind, also [mm] $(d_1E-D)\ctimes\cdots\ctimes(d_kE-D)$ [/mm] = [mm] $\pmat{0 & 0 & \* \\ 0 & 0 & \* \\ 0 & 0 & d_n}$. [/mm]  Für $k=n$ ergibt sich dann die Behauptung.
Dies lässt sich auch so ausdrücken
(*) [mm] $(d_1E-D)\ctimes\cdots\ctimes(d_kE-D)e_i=0$ [/mm] für [mm] $i=1,\cdots,k$. [/mm]
und ist zugleich unsere Induktionsannahme.
Induktionsbeweis
Induktionsanfang:
$k=1$: [mm] $(d_1E-D)=\pmat{d_1 & 0 & 0 \\ 0 & d_1 & 0 \\ 0 & 0 & d_1}-\pmat{d_1 & \* & \* \\ 0 & \ddots & \* \\ 0 & 0 & d_n}=\pmat{0 & \* & \* \\ 0 & d_1-d_2 & \* \\ 0 & 0 & \ddots}$. [/mm]
Induktionssschritt:
$k [mm] \to [/mm] k+1$: für $i=k+1$ ist [mm] $(d_{k+1}E-D)e_{k+1}=\pmat{d_{k+1}-d_1 & \* & \* & \* \\ 0 & \ddots & \* & \* \\ 0 & 0 & d_{k+1}-d_{k+1} & \* \\ 0 & 0 & 0 & \ddots}e_{k+1}=\vektor{\* \\ \* \\ 0 \\ 0}$. [/mm]
Das heißt, die ${k+1}$te Spalte hat die Form [mm] $\vektor{\* \\ \* \\ 0 \\ 0}$ [/mm] und lässt sich somit als Linearkombination der [mm] $e_i$s, $i=1\cdots [/mm] k$ schreiben: [mm] $\vektor{\* \\ \* \\ 0 \\ 0} [/mm] = [mm] \summe_{i=1}^{k}a_ie_i$. [/mm] Nun ist ja nach (*)
[mm] $(d_1E-D)\ctimes\cdots\ctimes(d_kE-D)(d_{k+1}E-D)e_{k+1}=(d_1E-D)\cdots\ctimes\cdots(d_kE-D)\summe_{i=1}^{k}a_ie_i=0$ [/mm]
und somit der Satz bewiesen.

Ich hoffe dass ich dir damit helfen konnte bzw. dass der Beweis so "durchgeht" :-)


Viele Grüße,
Steffen

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Lineare Algebra"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.unimatheforum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]