matheraum.de
Raum für Mathematik
Offene Informations- und Nachhilfegemeinschaft

Für Schüler, Studenten, Lehrer, Mathematik-Interessierte.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Hochschulmathe
  Status Uni-Analysis
    Status Reelle Analysis
    Status UKomplx
    Status Uni-Kompl. Analysis
    Status Differentialgl.
    Status Maß/Integrat-Theorie
    Status Funktionalanalysis
    Status Transformationen
    Status UAnaSon
  Status Uni-Lin. Algebra
    Status Abbildungen
    Status ULinAGS
    Status Matrizen
    Status Determinanten
    Status Eigenwerte
    Status Skalarprodukte
    Status Moduln/Vektorraum
    Status Sonstiges
  Status Algebra+Zahlentheo.
    Status Algebra
    Status Zahlentheorie
  Status Diskrete Mathematik
    Status Diskrete Optimierung
    Status Graphentheorie
    Status Operations Research
    Status Relationen
  Status Fachdidaktik
  Status Finanz+Versicherung
    Status Uni-Finanzmathematik
    Status Uni-Versicherungsmat
  Status Logik+Mengenlehre
    Status Logik
    Status Mengenlehre
  Status Numerik
    Status Lin. Gleich.-systeme
    Status Nichtlineare Gleich.
    Status Interpol.+Approx.
    Status Integr.+Differenz.
    Status Eigenwertprobleme
    Status DGL
  Status Uni-Stochastik
    Status Kombinatorik
    Status math. Statistik
    Status Statistik (Anwend.)
    Status stoch. Analysis
    Status stoch. Prozesse
    Status Wahrscheinlichkeitstheorie
  Status Topologie+Geometrie
  Status Uni-Sonstiges

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
StartseiteMatheForenAnalysis des R1Tensoranalysis
Foren für weitere Schulfächer findest Du auf www.vorhilfe.de z.B. Geschichte • Erdkunde • Sozialwissenschaften • Politik/Wirtschaft
Forum "Analysis des R1" - Tensoranalysis
Tensoranalysis < eindimensional < reell < Analysis < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Analysis des R1"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Tensoranalysis: Einsteinsche Summenkonvention
Status: (Umfrage) Beendete Umfrage Status 
Datum: 15:19 Do 17.05.2012
Autor: Marcel

Aufgabe
Hallo,

ich habe mir das Buch Tensoranalysis von Schade und Neeman zugelegt. Im ersten Kapitel wird dort über die Einsteinsche Summenkonvention gesprochen (mir ist bisher deren Bedeutung noch immer nicht klar, mich persönlich verwirrt sie oft mehr, als dass sie hilft - vieles verstehe ich erst, wenn ich's mathematisch wie üblich aufschreibe: Zumal ja eh die Summenzeichen schon "abkürzend" sind - aber nun gut...).

Dort gibt es unter anderem auch den Begriff des "angebundenen Index" - diese werden unterstrichen etc.pp., genaueres kann ich gerne auch aus dem Buch zitieren, falls notwendig.

Sei nun [mm] $i\,$ [/mm] ein laufender Index, beispielsweise [mm] $i=1,2,3\,.$ [/mm] Dann steht dort, dass etwa
[mm] $$\alpha_{\underline{i}} A_{ii}=\sum_{i=1}^3 \alpha_i A_{ii}$$ [/mm]
sei.



Nun dazu ein paar Fragen:
1.) Ist es möglich bzw. kann ich mithilfe angebundener Indizes auch "die Menge" (im Buch wird das so genannt, für mich ist es ein Zeilenvektor) [mm] $(\alpha_1 A_{11},\alpha_2 A_{22},\alpha_3 A_{33})$ [/mm] beschreiben:
Vielleicht so: [mm] $\alpha_i A_{\underline{i}\underline{i}}$? [/mm]

2.) Gilt nicht auch [mm] $\alpha_{\underline{i}}A_{ii}=\alpha_{i}A_{\underline{i}i}=\alpha_{i}A_{i\underline{i}}$? [/mm]

Falls nein:
Was bedeutet dann

     2a) [mm] $\alpha_{i}A_{\underline{i}i}$ [/mm]

bzw.

     2b) [mm] $\alpha_{i}A_{i\underline{i}}$? [/mm]

P.S.
Spart diese "Summenkonvention" eigentlich nur Schreibarbeit, oder kommen mit ihrer Hilfe irgendwann auch mal "tolle Ergebnisse, die man sich ohne diese nur schwer 'merken' könnte"? Denn rein mathematisch erkenne ich in ihr momentan noch nicht wirklich einen großen Sinn/eine große Bedeutung - außer, dass man zwar "schreibfauler" arbeiten kann, aber dafür umso schneller mal von den Notationen verwirrt wird...

P.P.S.
Für jedes empfehlenswerte Skript bzgl. Tensoranalysis (idealerweise mit Übungsaufgaben und deren Lösungen) bin ich natürlich auch dankbar!

Gruß,
  Marcel

        
Bezug
Tensoranalysis: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 12:23 Mo 21.05.2012
Autor: Marcel

Hat niemand eine Idee? Oder sollte ich die Frage eher ins Physikforum verschieben?

Bezug
        
Bezug
Tensoranalysis: Antwort
Status: (Antwort) fertig Status 
Datum: 17:27 Mo 30.07.2012
Autor: MontBlanc

Hi,

da ich im englischsprachigen Raum studiere, habe ich habe den Begriff "angebundener Index" noch nicht gehört - kann mir aber vorstellen, was es zu bedeuten hat. Nehme ich also dein Beispiel:

$ [mm] \alpha_{i}A_{ii} [/mm] $ macht so keinen Sinn, da laut Summenkonvention nur über einem doppelten Index summiert wird, bsp. "normale" Matrixmultiplikation sieht dann so aus $ [mm] \sum_{j=1}^{n}A_{ij}x_{j}=A_{ij}x_{j} [/mm] $ für $ [mm] A\in\IR^{n\times n} [/mm] $ und $ [mm] \mathbf{x}\in\IR^{n} [/mm] $.

Für $ [mm] \alpha_{i}A_{ii} [/mm] $ kann ich mir nur folgendes vorstellen:

$ [mm] \alpha{\underline{i}}A_{ii} [/mm] $ bedeutet dann, dass der kovariante Vektoreintrag $ [mm] \alpha_{i} [/mm] $ mit $ [mm] \mathrm{tr}(A) [/mm] $ multipliziert wird. Du also nicht über dem ersten "i" summierst. Gleiches gilt dann eben für jeden anderen Index - stimmt das so ? Falls ja, finde ich, dass die Vorteile der Summenkonvention gerade in der Relativitätstheorie auf der Hand liegen, Summation über ko- und kontravarianten Indizes macht es in vielen Fällen leichter eventuelle Symmetrien zu erkennen, die man unter den vielen Summenzeichen mal übersieht.

Ich glaube nicht, dass $ [mm] \alpha_{i}A_{\underline{ii}} [/mm] $ einen Vektor beschreibt, zumindest nicht, wenn ich davon ausgehe, dass über unterstrichenen Indizes nicht summiert wird...

Ich weiß es ist spät mit der Antwort - aber besser als gar keine!


LG

Bezug
                
Bezug
Tensoranalysis: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 07:54 Di 31.07.2012
Autor: Marcel

Hallo MontBlanc,

> Hi,
>
> da ich im englischsprachigen Raum studiere, habe ich habe
> den Begriff "angebundener Index" noch nicht gehört - kann
> mir aber vorstellen, was es zu bedeuten hat. Nehme ich also
> dein Beispiel:
>  
> [mm]\alpha_{i}A_{ii}[/mm] macht so keinen Sinn, da laut
> Summenkonvention nur über einem doppelten Index summiert
> wird,

das ist mir klar - das wird in dem Buch auch mehr als einmal erwähnt ;-)

> bsp. "normale" Matrixmultiplikation sieht dann so aus
> [mm]\sum_{j=1}^{n}A_{ij}x_{j}=A_{ij}x_{j}[/mm] für [mm]A\in\IR^{n\times n}[/mm]
> und [mm]\mathbf{x}\in\IR^{n} [/mm].

Jepp, auch das ist mir klar :-)
  

> Für [mm]\alpha_{i}A_{ii}[/mm]

Du meinst sicher [mm] $\alpha_{\underline{i}}A_{ii}$ [/mm]

> kann ich mir nur folgendes
> vorstellen:
>  
> [mm]\alpha{\underline{i}}A_{ii}[/mm] bedeutet dann, dass der
> kovariante Vektoreintrag

Den Begriff kenne ich nicht: Was ist ein kovarianter Vektoreintrag? (Das hat wohl irgendwas mit den Koordinatendarstellungen von (physikalischen?) Vektoren zu tun?)

> [mm]\alpha_{i}[/mm] mit [mm]\mathrm{tr}(A)[/mm]
> multipliziert wird. Du also nicht über dem ersten "i"
> summierst. Gleiches gilt dann eben für jeden anderen Index
> - stimmt das so ?

Das weiß ich ja leider nicht. ^^ Kannst Du die Summierung mal mit dem Summenzeichen hinschreiben - denn so ganz ist mir nicht klar, was Du meinst...

> Falls ja, finde ich, dass die Vorteile
> der Summenkonvention gerade in der Relativitätstheorie auf
> der Hand liegen, Summation über ko- und kontravarianten
> Indizes macht es in vielen Fällen leichter eventuelle
> Symmetrien zu erkennen, die man unter den vielen
> Summenzeichen mal übersieht.

Okay - dann wird das vielleicht mal für mich interessanter, wenn ich in die Relativitätstheorie eintauche. :-)
Allerdings direkt eine Nachfrage: In der linearen Algebra rechnet man doch ständig mit Matrizen. Warum ist die Summenkonvention dann vorteilhafter als eine Darstellung mit Matrizen? Ich meine, alleine, dass in dem Buch Koordinatentransformationsregeln "mittels Summierungen" beschrieben werden, sowas wie
[mm] $$x_j=a_{ji}\tilde{x}_i+b_j$$ [/mm]
liefert
[mm] $$\tilde{x}_j=a_{ij}x_i-a_{ij}b_i$$ [/mm]
(ich muss auch diese Formeln nochmal nachgucken, ob ich da nicht Verschreiber habe)
ist doch nichts anderes als der Zusammenhang
[mm] $$x=A\tilde{x}+b \Rightarrow \tilde{x}=A^Tx-A^Tb$$ [/mm]
(wobei man auch anstatt des [mm] $\Rightarrow$ [/mm] ein [mm] $\gdw$ [/mm] schreiben darf) für [mm] $A\,$ [/mm] mit [mm] $A^TA=AA^T=I\,,$ [/mm] oder anders gesagt [mm] $A^T=A^{-1}$ [/mm] bzw. [mm] $A\,$ [/mm] Orthonormalmatrix. (Die Bezeichnung finde ich besser als Orthogonalmatrix, auch, wenn letztere eigentlich die übliche ist!)

Da finde ich die Matrizendarstellung dann doch irgendwie übersichtlicher...

> Ich glaube nicht, dass [mm]\alpha_{i}A_{\underline{ii}}[/mm] einen
> Vektor beschreibt, zumindest nicht, wenn ich davon ausgehe,
> dass über unterstrichenen Indizes nicht summiert wird...

Was beschreibt es aber dann? Ich muss nochmal nachgucken, aber ich glaube, in dem Buch wurde geschrieben, dass bspw. [mm] $\alpha_{\underline{i}} A_i$ [/mm] für "die Menge" [mm] $(\alpha_1A_1,\alpha_2 A_2, \alpha_3 A_3)$ [/mm] steht. (Wenn [mm] $i=1,2,3\,.$) [/mm] Ich kann's heute abend nochmal nachgucken, wenn ich dran denke!
  

> Ich weiß es ist spät mit der Antwort - aber besser als
> gar keine!

Natürlich. Vielen Dank schonmal!! (Außerdem beschäftige ich mich nur rein aus Selbstinteresse nebenher damit, daher ist's nicht wirklich dringend. Was nicht heißt, dass ich mich über schnelle Antworte nicht freue, im Gegenteil! ;-) )

P.S.
Jetzt hatte ich doch tatsächlich in dem Wort Verschreiber einen Verschreiber: Ich hatte Verrschreiber geschrieben :-)

Gruß,
  Marcel

Bezug
                        
Bezug
Tensoranalysis: Antwort
Status: (Antwort) fertig Status 
Datum: 17:04 Di 31.07.2012
Autor: MontBlanc

Hi,

kovariant bezieht sich auf die Transformationsregel bei Wechsel des Koordinatensystems. Haben wir also zwei Koordinatensysteme $ [mm] \mathbf{x}=(x_{1},...,x_{n}) [/mm] $ und $ [mm] x'=(x_{1}',...,x_{n}') [/mm] $ und gehen von $ [mm] \mathbf{x} \to \mathbf{x}' [/mm] $, dann transformiert ein kovarianter Vektor wie folgt:

$ [mm] x_{a}'=\frac{\partial x^{b}}{\partial x_{a}'}x_{b},\ [/mm] a=1...n $

Wie du wahrscheinlich siehst, sind $ [mm] \frac{\partial x^{b}}{\partial x_{a}'} [/mm] $ die Eintrage der Jacobi-Matrix.

Ähnlich gilt für einen kontravarianten Vektor (bzw. kontravariante Komponenten)

$ [mm] x^{a}'=\frac{\partial x^{a}'}{\partial x^{b}}x^{b} [/mm] $.

Dies findet hauptsächlich Anwendung - wie schon erwähnt - in der Relativitätstheorie. Hier gilt dann im Besonderen, dass nur über wiederholten Indizes summiert wird von denen einer kovariant (unten) und einer kontravariant (oben) ist. Hier kommt man dann ganz schnell zu Vektorräumen und entsprechenden Dualräumen in denen kontravariante bzw. kovariante vektoren "leben" (oder in der Quantenmechanik entsprechend Bra- und -ket vektoren).

Es kann sein, dass ich die Terminologie hier falsch angewandt habe - für mich ist ein Index unten eben kovariant und ein index oben kontravariant da ich hauptsächlich mit Problemen der Physik konfrontiert werde.

Zu deiner anderen Frage: Ich interpretiere $ [mm] \alpha_{\underline{i}}A_{ii} [/mm] $ als $ [mm] \alpha_{i}\sum_{i=1}^{n}A_{ii}=\boldsymbol{\alpha}*\mathrm{tr}(A) [/mm] $. Ich bin mir nicht ganz sicher was der deutsche Begriff für "trace" ist - sowas wie Spur der Matrix ?!

Meiner Meinung nach ist die Komponentenschreibweise unter Anwendung der Summenkonvention besonders praktisch, wenn es um Sachen wie Differenzierung von Matrizen bzw Tensorgleichungen geht. Also so etwas wie

$  [mm] \frac{\partial}{\partial\mathbf{x}}(\mathbf{x}^{T}A\mathbf{x}) [/mm] = [mm] \frac{\partial}{\partial x^{k}}x^{i}A_{i}^{j}x_{j} [/mm] = [mm] \delta_{k}^{i}A_{i}^{j}x_{j}+\delta_{jk}x^{i}A_{i}^{j}=A^{kj}x_{j}+x^{i}A_{ik} [/mm] $

Für eine symmetrische Matrix A vereinfacht sich das noch weiter. Mir fällt das ableiten in Komponenten schlichtweg leichter - deswegen bevorzuge ich das weil ich so nie in Verlegenheit komme $ [mm] \mathbf{x}^{T} [/mm] $ und $ [mm] \mathbf{x} [/mm] $ zu verwechseln.

Du magst mit deiner Vermutung Recht haben, was die unterstrichenen Indizes angeht - die sind mir bisher auch noch nicht über den Weg gelaufen, daher bin ich mir nicht sicher.

Puh, das war's erstmal.

Bis denn.

LG

Bezug
                                
Bezug
Tensoranalysis: Umfrage (beendet)
Status: (Umfrage) Beendete Umfrage Status 
Datum: 07:56 Mi 01.08.2012
Autor: Marcel

Hallo Montblanc,

> Hi,
>  
> kovariant bezieht sich auf die Transformationsregel bei
> Wechsel des Koordinatensystems. Haben wir also zwei
> Koordinatensysteme [mm]\mathbf{x}=(x_{1},...,x_{n})[/mm] und
> [mm]x'=(x_{1}',...,x_{n}')[/mm] und gehen von [mm]\mathbf{x} \to \mathbf{x}' [/mm],
> dann transformiert ein kovarianter Vektor wie folgt:
>  
> [mm]x_{a}'=\frac{\partial x^{b}}{\partial x_{a}'}x_{b},\ a=1...n[/mm]
>  
> Wie du wahrscheinlich siehst, sind [mm]\frac{\partial x^{b}}{\partial x_{a}'}[/mm]
> die Eintrage der Jacobi-Matrix.
>  
> Ähnlich gilt für einen kontravarianten Vektor (bzw.
> kontravariante Komponenten)
>  
> [mm]x^{a}'=\frac{\partial x^{a}'}{\partial x^{b}}x^{b} [/mm].
>  
> Dies findet hauptsächlich Anwendung - wie schon erwähnt -
> in der Relativitätstheorie. Hier gilt dann im Besonderen,
> dass nur über wiederholten Indizes summiert wird von denen
> einer kovariant (unten) und einer kontravariant (oben) ist.
> Hier kommt man dann ganz schnell zu Vektorräumen und
> entsprechenden Dualräumen in denen kontravariante bzw.
> kovariante vektoren "leben" (oder in der Quantenmechanik
> entsprechend Bra- und -ket vektoren).
>  
> Es kann sein, dass ich die Terminologie hier falsch
> angewandt habe - für mich ist ein Index unten eben
> kovariant und ein index oben kontravariant da ich
> hauptsächlich mit Problemen der Physik konfrontiert
> werde.
>  
> Zu deiner anderen Frage: Ich interpretiere
> [mm]\alpha_{\underline{i}}A_{ii}[/mm] als
> [mm]\alpha_{i}\sum_{i=1}^{n}A_{ii}=\boldsymbol{\alpha}*\mathrm{tr}(A) [/mm].
> Ich bin mir nicht ganz sicher was der deutsche Begriff für
> "trace" ist - sowas wie Spur der Matrix ?!

ah okay - natürlich. Der Begriff im Deutschen ist in der Tat die "Spur der Matrix". Allerdings finde ich das dann wieder komisch:
Denn um's deutlicher zu schreiben, meinst Du, dass
[mm] $$\alpha_{\underline{i}}A_{ii}$$ [/mm]
eigentlich dann doch bedeutet
[mm] $$\alpha_{i}\sum_{\red{k}=1}^{\red{k}=n}A_{kk}\,.$$ [/mm]
  
Das würde man dann aber doch direkt [mm] $\alpha_i A_{pp}$ [/mm] etwa schreiben, oder?

> Meiner Meinung nach ist die Komponentenschreibweise unter
> Anwendung der Summenkonvention besonders praktisch, wenn es
> um Sachen wie Differenzierung von Matrizen bzw
> Tensorgleichungen geht. Also so etwas wie
>
> [mm]\frac{\partial}{\partial\mathbf{x}}(\mathbf{x}^{T}A\mathbf{x}) = \frac{\partial}{\partial x^{k}}x^{i}A_{i}^{j}x_{j} = \delta_{k}^{i}A_{ij}x_{j}+\delta_{jk}x^{i}A_{i}^{j}=A^{kj}x_{j}+x^{i}A_{ik}[/mm]

Ah, okay. Da sieht man nun auch die Bedeutung von ko- und kontravariant ^^
  

> Für eine symmetrische Matrix A vereinfacht sich das noch
> weiter. Mir fällt das ableiten in Komponenten schlichtweg
> leichter - deswegen bevorzuge ich das weil ich so nie in
> Verlegenheit komme [mm]\mathbf{x}^{T}[/mm] und [mm]\mathbf{x}[/mm] zu
> verwechseln.

Okay - das verstehe ich. Diese Erfahrung mit der Summenkonvention muss ich dann erst noch machen!
  

> Du magst mit deiner Vermutung Recht haben, was die
> unterstrichenen Indizes angeht - die sind mir bisher auch
> noch nicht über den Weg gelaufen, daher bin ich mir nicht
> sicher.

Das macht nichts - ich mir ja auch nicht. Deswegen will ich es ja diskutieren - kann ja auch sein, dass sowas, wie ich geschrieben habe, irgendwie von vorneherein nicht üblich ist.

> Puh, das war's erstmal.

Vielen Dank! :-)
  

> Bis denn.

Bis bald!

LG,
  Marcel

Bezug
        
Bezug
Tensoranalysis: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 05:19 Fr 19.10.2012
Autor: Richie1401

Hallo lieber Marcel,

ich möchte dir auf dein P.S. antworten.
Tolle Ergebnisse liefert es nun wirklich nicht. Aber es ist praktisch, insbesondere für schreibfaule Physiker, wie es sie weit und breit gibt.

Hier taucht eben das Problem auf, dass z.B. auch ein "e" mit extrem vielen Indizes belegt werden kann. Neulich tauchte bei uns dies auf: [mm] {e'_{i}}^j. [/mm]
Da weiß man nicht, ob man sich selbst bemitleiden soll, oder doch eher das Mitleid dem armen "e" schenken sollte....

Es ist einfach praktisch. Schaust du dir ein Buch über theoretische Physik (bes. E-Dynamik) an, dann sieht man die Schreibweise haufenweise. Es geht einfach schneller.

Noch einmal zur Summenkonvention. Ich weiß, dass später in der E-Dynamik die Summenkonvention so erfolgt: Summiert wird generell ja, wenn zwei Indizes gleich sind. Etwas schärfer ist es, wenn man sagt, dass ein Index unten und einer oben stehen muss, also in der Art:
[mm] a_ib^i\not=a_ib_i. [/mm]

Diese Information aber nur am Rande. Ich beginne nun auch erst mit dem ganzen Spaß. Nach 5 Monaten hast du es aber eventll. schon richtig drauf ;)


Beste Grüße vom
Richard

P.S. Relativitätstheorie nutzt das ganze zwar, aber schon bei einer recht simplen Galilei-Transformation findet die Summenkonvention schon Anwendung.

Bezug
                
Bezug
Tensoranalysis: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 01:14 So 21.10.2012
Autor: Marcel

Hallo Richie,

> Hallo lieber Marcel,
>  
> ich möchte dir auf dein P.S. antworten.
>  Tolle Ergebnisse liefert es nun wirklich nicht. Aber es
> ist praktisch, insbesondere für schreibfaule Physiker, wie
> es sie weit und breit gibt.

gegen Schreibfaulheit ist nichts einzuwenden - schreibfaul sind Mathematiker
ja auch gerne (warum sagt man sonst z.B. wir betrachten die Funktion
[mm] $f(x)=x^2\,,$ [/mm] diese hat die Ableitung $f'(x)=2x$ (manchmal auch einfach
ohne das [mm] $f(x)=\,$ [/mm] bzw. [mm] $f\,'(x)=$...)). [/mm] Die Frage ist immer: Welchen Preis
zahlt man dabei. Aber ich nehme an, dass die Physiker schon aus
Erfahrung wissen, dass der nicht allzuhoch ist evtl. im Vergleich zu dem
Gewinn, den man erfährt...
  

> Hier taucht eben das Problem auf, dass z.B. auch ein "e"
> mit extrem vielen Indizes belegt werden kann. Neulich
> tauchte bei uns dies auf: [mm]{e'_{i}}^j.[/mm]
>  Da weiß man nicht, ob man sich selbst bemitleiden soll,
> oder doch eher das Mitleid dem armen "e" schenken
> sollte....

Okay. Aber bei sowas muss man dem Autor dann auf die Füße treten.
Einer meiner Prof's hatte mal gesagt, dass irgendwann mal ein Buch
geschrieben wurde, wo man sowas wie [mm] $Q^p_q$ [/mm] schrieb. Und [mm] $p\,$ [/mm]
hatte dann eine gewisse Bedeutung, und [mm] $q\,$ [/mm] auch. Und dann gab's
auch die Notation [mm] $Q^q_p\,,$ [/mm] welche eben nicht einfach nur das gleiche
war wie [mm] $Q^p_q$ [/mm] mit vertauschtem [mm] $q\,$ [/mm] und [mm] $p\,,$ [/mm] sondern hier wurden
dem [mm] $p\,$ [/mm] und [mm] $q\,$ [/mm] gewisse Eigenschaften zugeschrieben - aber sie
waren gleich (also Eigenschaften der gleichen Art).
Er meinte dann, dass das ganze in dem Buch deswegen
gutgegangen sei, weil halt das [mm] $Q^q_p$ [/mm] und [mm] $Q^p_q$ [/mm] immer nur
"theoretisch" verwendet worden sei. Hätte man einfach mal ein -
mögliches - Zahlenbeispiel für [mm] $p\,$ [/mm] und [mm] $q\,$ [/mm] eingesetzt, dann wäre
schon gar nicht mehr klar, was nun [mm] $Q^{2}_3$ [/mm] etwa hätte heißen sollen.
Okay, man hätte es sicher retten können mit etwa [mm] $Q^{p=2}_{q=3}\,,$ [/mm]
aber das ist ja nicht im Sinne des Erfinders...
Aber wenn ich mich nicht täusche, findet man das auch in Halmos - How to
write mathematics!
  

> Es ist einfach praktisch. Schaust du dir ein Buch über
> theoretische Physik (bes. E-Dynamik) an, dann sieht man die
> Schreibweise haufenweise. Es geht einfach schneller.

Okay, in E-Dynamik habe ich noch nie reingeguckt.
  

> Noch einmal zur Summenkonvention. Ich weiß, dass später
> in der E-Dynamik die Summenkonvention so erfolgt: Summiert
> wird generell ja, wenn zwei Indizes gleich sind. Etwas
> schärfer ist es, wenn man sagt, dass ein Index unten und
> einer oben stehen muss, also in der Art:
>  [mm]a_ib^i\not=a_ib_i.[/mm]

Genau - sowas steht eigentlich auch meistens da, wenn man irgendwie
in der Differentialgeometrie sowas formuliert - jedenfalls habe ich das
meistens dann gesehen!
  

> Diese Information aber nur am Rande. Ich beginne nun auch
> erst mit dem ganzen Spaß. Nach 5 Monaten hast du es aber
> eventll. schon richtig drauf ;)

Schön wär's - ich habe kaum Zeit, mich intensiver mit dem Buch zu
befassen. Das ist reiner "privater Spaß", den ich vielleicht aber irgendwann
auch mal gebrauchen kann. Interessieren tut mich das alles, aber man
merkt schon, dass das ein für mich total neues Gebiet ist. Auch, wenn ich
natürlich doch schon an vielen Stellen einiges altbekannte einfach
wiedererkenne - hat sich mein Studium doch gelohnt ;-) - aber manchmal
frage ich mich echt, warum erklären die hier manches so kompliziert, was
man in der linearen Algebra schneller da stehen hat. Z.B. in LA:
Aus
$$y=Ax+b$$
folgt
$$A^Ty=A^TAx+A^Tb$$
und ist [mm] $A\,$ [/mm] eine orthogonale Matrix (wobei ich die sinnvoller
orthonormale Matrix nennen würde, aber das nur am Rande - denn warum
sagt man nicht einfach, dass eine orthogonale Matrix einfach eine ist, wo
die Spaltenvektoren paarweise orthogonal aufeinander stehen? Aber das
habe ich mir auch noch nie zu Ende überlegt - vll. gibt's ja 'nen Grund -
etwa, weil die Menge der dann definierten orthogonalen Matrizen nicht
irgendwie "was tolles" wären...), so folgt
[mm] $$A^T y=x+A^Tb\,.$$ [/mm]

Diese drei Zeilen stehen in dem Buch auf anderem Wege erklärt so auf ca.
2 Seiten... Da frage ich mich: Was sehe ich da nicht - oder passen meine
obigen 3 Zeilen mit Wissen aus der LA nicht zu dem Buch - machen die
doch was anderes und es sieht nur zufällig am Ende genauso aus?

>
> Beste Grüße vom
> Richard
>  
> P.S. Relativitätstheorie nutzt das ganze zwar, aber schon
> bei einer recht simplen Galilei-Transformation findet die
> Summenkonvention schon Anwendung.

Hehe, ja, Du alter Physiker... ich hab' - ehrlich gesagt - keine Ahnung, was
eine Galilei-Transformation ist. Ich glaube mal, dass ich das Wort mal
gelesen habe, als ich mal in ein Einführungsskript in die Mechanik
reingeguckt habe... mehr aber auch nicht ^^

P.S.
Alles Wissen - insbesondere natürlich das relevante zu meiner Frage - zur
Tensoranalysis darf hier gerne verbreitet werden. Auch von anderen. Aber
natürlich nochmal Danke(!) für Deine Mitteilung!!

Gruß,
  Marcel

Bezug
                        
Bezug
Tensoranalysis: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 08:01 So 21.10.2012
Autor: Richie1401

Hey Marcel,

eine Mitteilung noch zu diesem Thema, weil ich gestern ein schönes Buch gesehen habe.

Aber erst einmal:

> gegen Schreibfaulheit ist nichts einzuwenden - schreibfaul
> sind Mathematiker
>  ja auch gerne

Es ist sicherlich nicht nur die Schreibfaulheit. Es ist sogar übersichtlicher. Wenn man weiß, dass bei zwei gleichen Indizes summiert wird, dann sieht es doch besser aus, als dort mit Summenzeichen zu hantieren. Ich denke da jetzt besonders an ein Produkt von zwei Matrizen. Möchte man jeden Eintrag hinschreiben, könnte man natürlich [mm] a_{11}*b_{11}+a_{12}b_{21}+a_{13}b_{31} [/mm] für den ersten Eintrag schreiben (für 3x3Matrix) oder über das Summenzeichen [mm] \Sigma. [/mm] Oder natürlich elegant über die Summenkonvention [mm] a_{1j}b_{j1}. [/mm] Das ist doch mal sehr übersichtlich.

> > Hier taucht eben das Problem auf, dass z.B. auch ein "e"
> > mit extrem vielen Indizes belegt werden kann. Neulich
> > tauchte bei uns dies auf: [mm]{e'_{i}}^j.[/mm]
>  >  Da weiß man nicht, ob man sich selbst bemitleiden
> soll,
> > oder doch eher das Mitleid dem armen "e" schenken
> > sollte....
>  
> Okay. Aber bei sowas muss man dem Autor dann auf die Füße
> treten.

Ich glaube in der Physik ist diese Überladung üblich...

> > Es ist einfach praktisch. Schaust du dir ein Buch über
> > theoretische Physik (bes. E-Dynamik) an, dann sieht man die
> > Schreibweise haufenweise. Es geht einfach schneller.
>  
> Okay, in E-Dynamik habe ich noch nie reingeguckt.
>
> > Noch einmal zur Summenkonvention. Ich weiß, dass später
> > in der E-Dynamik die Summenkonvention so erfolgt: Summiert
> > wird generell ja, wenn zwei Indizes gleich sind. Etwas
> > schärfer ist es, wenn man sagt, dass ein Index unten und
> > einer oben stehen muss, also in der Art:
>  >  [mm]a_ib^i\not=a_ib_i.[/mm]
>  
> Genau - sowas steht eigentlich auch meistens da, wenn man
> irgendwie
>  in der Differentialgeometrie sowas formuliert - jedenfalls
> habe ich das
>  meistens dann gesehen!
>    
> > Diese Information aber nur am Rande. Ich beginne nun auch
> > erst mit dem ganzen Spaß. Nach 5 Monaten hast du es aber
> > eventll. schon richtig drauf ;)
>  
> Schön wär's - ich habe kaum Zeit, mich intensiver mit dem
> Buch zu
> befassen. Das ist reiner "privater Spaß", den ich
> vielleicht aber irgendwann
>  auch mal gebrauchen kann. Interessieren tut mich das
> alles, aber man
> merkt schon, dass das ein für mich total neues Gebiet ist.
> Auch, wenn ich
>  natürlich doch schon an vielen Stellen einiges
> altbekannte einfach
> wiedererkenne - hat sich mein Studium doch gelohnt ;-) -
> aber manchmal
>  frage ich mich echt, warum erklären die hier manches so
> kompliziert, was
>  man in der linearen Algebra schneller da stehen hat. Z.B.
> in LA:
>  Aus
> [mm]y=Ax+b[/mm]
>  folgt
>  [mm]A^Ty=A^TAx+A^Tb[/mm]
>  und ist [mm]A\,[/mm] eine orthogonale Matrix (wobei ich die
> sinnvoller
> orthonormale Matrix nennen würde, aber das nur am Rande -
> denn warum
>  sagt man nicht einfach, dass eine orthogonale Matrix
> einfach eine ist, wo
>  die Spaltenvektoren paarweise orthogonal aufeinander
> stehen? Aber das
>  habe ich mir auch noch nie zu Ende überlegt - vll. gibt's
> ja 'nen Grund -
> etwa, weil die Menge der dann definierten orthogonalen
> Matrizen nicht
> irgendwie "was tolles" wären...), so folgt
>  [mm]A^T y=x+A^Tb\,.[/mm]
>  
> Diese drei Zeilen stehen in dem Buch auf anderem Wege
> erklärt so auf ca.
>  2 Seiten... Da frage ich mich: Was sehe ich da nicht -
> oder passen meine
>  obigen 3 Zeilen mit Wissen aus der LA nicht zu dem Buch -
> machen die
> doch was anderes und es sieht nur zufällig am Ende genauso
> aus?

Sorry, kein Plan. Ich nix verstehen tu. Ich nix weiß Buch und Lineare Algebra ;-)

>  
> >
> > Beste Grüße vom
> > Richard
>  >  
> > P.S. Relativitätstheorie nutzt das ganze zwar, aber schon
> > bei einer recht simplen Galilei-Transformation findet die
> > Summenkonvention schon Anwendung.
>
> Hehe, ja, Du alter Physiker... ich hab' - ehrlich gesagt -
> keine Ahnung, was
>  eine Galilei-Transformation ist. Ich glaube mal, dass ich
> das Wort mal

Salopp: Du verschiebst ein festes Koordinatensystem und suchst dann die neuen Koordinaten zu deinem beliebigen Punkt. Eigentlich ein ziemlich hässliches Thema, gerade weil es so Indexüberladen ist. :(

> gelesen habe, als ich mal in ein Einführungsskript in die
> Mechanik
> reingeguckt habe... mehr aber auch nicht ^^
>  
> P.S.
>  Alles Wissen - insbesondere natürlich das relevante zu
> meiner Frage - zur
> Tensoranalysis darf hier gerne verbreitet werden. Auch von
> anderen. Aber
>  natürlich nochmal Danke(!) für Deine Mitteilung!!
>  
> Gruß,
>    Marcel

So, jetzt wollte ich noch eine Zeile zu dem Buch schreiben. Gestern hat mir ein Kommilitone ein Buch zur Schreibweise mathematischer Sachverhalte in der Physik gezeigt. Und ich fand es echt gut.
Dort gibt es ein Kapitel "Rechnen mit Indizes" welches eben auch diese ganzen Sachen mit Summenkonvention usw. beinhaltet. Man findet auch Rechnungen mit dem Kroneckersymbol. Alles andere in dem Buch ist relativ uninteressant ("Trivialmathematik") aber das eine Kapitel ist wirklich klasse. Vielleicht hast du die Möglichkeit das Kapitel, falls Interesse besteht, i-wo her zu bekommen.

[]http://www.springerlink.com/content/978-3-8274-2455-6/
(oder bei mir melden)

Ich weiß leider nicht, ob Mathematiker bei solch einer Notation die Hände über den Kopf schlagen. Würde mich auch mal interessieren!

Bezug
                                
Bezug
Tensoranalysis: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 14:16 So 21.10.2012
Autor: Marcel

Hallo Richie,

nur kurz:

> So, jetzt wollte ich noch eine Zeile zu dem Buch schreiben.
> Gestern hat mir ein Kommilitone ein Buch zur Schreibweise
> mathematischer Sachverhalte in der Physik gezeigt. Und ich
> fand es echt gut.
>  Dort gibt es ein Kapitel "Rechnen mit Indizes" welches
> eben auch diese ganzen Sachen mit Summenkonvention usw.
> beinhaltet. Man findet auch Rechnungen mit dem
> Kroneckersymbol. Alles andere in dem Buch ist relativ
> uninteressant ("Trivialmathematik") aber das eine Kapitel
> ist wirklich klasse. Vielleicht hast du die Möglichkeit
> das Kapitel, falls Interesse besteht, i-wo her zu
> bekommen.
>  
> []http://www.springerlink.com/content/978-3-8274-2455-6/
>  
> (oder bei mir melden)

ja, ich kann mir das ganze Buch mal angucken. Inwiefern das alles
Trivialmathematik ist, weiß ich nicht - im Inhaltsverzeichnis standen nicht
nur Stichwörter bzgl. "trivialem"! Aber ich guck' mir das mal ganz an,
demnächst!

Übrigens macht er einen Fehler auf Seite 94, Beispiel 3.2 2., wo er erstmal
"falsch" rechnet:
Da schreibt er [mm] $\sqrt{a_\ell^2}=a_\ell\,,$ [/mm] und auch, wenn das
vorangegangene Gleichheitszeichen ja schon falsch war (das wollte er ja
demonstrieren!), es gilt dennoch "nur" [mm] $\sqrt{a^2}=|a|\,,$ [/mm] denn i.a. ist
[mm] $\sqrt{a^2}=a$ [/mm] falsch, wie man für echt negative [mm] $a\,$ [/mm] sieht!
  

> Ich weiß leider nicht, ob Mathematiker bei solch einer
> Notation die Hände über den Kopf schlagen. Würde mich
> auch mal interessieren!

Welche nun? Die Summenkonvention? Ich hab' bisher zumindest noch
keinen getroffen, der davon begeistert war. ;-)

Gruß,
  Marcel

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Analysis des R1"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.unimatheforum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]