erwartungstreue Kovarianz < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 21:04 Do 26.05.2005 | Autor: | andibar |
Hallo!
Ich versuche zu zeigen, dass der Korrekturfaktor n-1 auch bei der Kovarianzformel verwendet werden muss, damit diese erwartungstreu ist. Ich beginne, analog zur Umformung bei der Varianz mit: [mm] \bruch{1}{n^{2}} \summe_{i=1}^{n} \summe_{j=1}^{n} ((x_{i}- \overline{x})+(\overline{x}-x_{j}))((y_{i}- \overline{y})+(\overline{y}-y_{j})) [/mm]
[mm] \gdw \bruch{1}{n^{2}} \summe_{i=1}^{n} \summe_{j=1}^{n}(x_{i}- \overline{x})((y_{i}- \overline{y})+(\overline{y}-y_{j})) +(\overline{x}-x_{j}) ((y_{i}- \overline{y})+(\overline{y}-y_{j})) [/mm]
Leider komme ich an dieser Stelle nicht weiter...
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
Vielen Dank für eure Hilfe!
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 10:14 Fr 27.05.2005 | Autor: | Julius |
Hallo Andi!
Also: OBdA können wir zunächst
[mm] $E[x_i]=E[x]=0$ [/mm]
annehmen, da die Kovarianz invariant gegenüber Translationen ist.
Nun folgt:
$E [mm] \left[ \sum\limits_{i=1}^n (x_i - \bar{x})(y_i-\bar{y}) \right]$
[/mm]
$=n [mm] \cdot E((x_1-\bar{x})(y_1-\bar{y})$
[/mm]
$= n [mm] \cdot E\left[ \left( \left(1-\frac{1}{n} \right)x_1 - \frac{1}{n}x_2 - \ldots - \frac{1}{n}x_n \right) \cdot \left(\left(1-\frac{1}{n} \right)y_1 - \frac{1}{n}y_2 - \ldots - \frac{1}{n}y_n \right) \right]$
[/mm]
$= n [mm] \cdot \left( \left( 1 - \frac{1}{n} \right)^2 E[x_1y_1] + \frac{1}{n^2} \sum\limits_{i=2}^n E[x_iy_i] \right)$
[/mm]
$= n [mm] \cdot \left( \left( 1 - \frac{1}{n} \right)^2 Cov[x,y] + \frac{1}{n^2} (n-1) Cov[x,y] \right)$
[/mm]
$ = n [mm] \cdot \left( 1- \frac{2}{n} + \frac{1}{n^2} + \frac{1}{n} - \frac{1}{n^2} \right) [/mm] Cov(x,y)$
$= n [mm] \cdot \frac{n-1}{n} [/mm] Cov(x,y)$
$= (n-1) Cov(x,y)$,
was zu zeigen war.
Viele Grüße
Julius
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 18:20 Fr 27.05.2005 | Autor: | andibar |
Hallo Julius!
Erstmal vielen Dank für diese schnelle Antwort. Leider ist mir das Ganze dadurch nicht klarer geworden. Kannst Du vielleicht kurz dabei schreiben, was da jeweils passiert...
Mein Ansatz wäre auch ein ganz anderer gewesen, ich wollte zeigen, dass die Kovarianz aller möglichen Wertepaare doppelt so groß ist, wie die Kovarianz der Differenzen vom Mittelwert, also der "normalen" Kovarianzformel. Da man im ersten Fall die a priori Nulldifferenzen durch [mm] n^{2}-n [/mm] entfernt, ergibt sich im zweiten Fall der Nenner n-1.
Du siehst, ich kann mir das Ganze inhaltlich vorstellen, habe aber viel zu wenig Erfahrung mit der formalen mathematischen Darstellung...
Ich denke aber, dass dein Beweis eine ganz andere Idee zu Grunde liegen hat, wenn ich das richtig verstehe, was ich ja nicht so ganz tue.....
Ich schreibe am besten mal, wie weit ich das verstehe:
>
> [mm]E[x_i]=E[x]=0[/mm]
ist das zugleich die Forderung der Erwartungstreue und die Translation des Mittelwertes nach Null?
>
> [mm]E \left[ \sum\limits_{i=1}^n (x_i - \bar{x})(y_i-\bar{y}) \right][/mm]
>
> [mm]=n \cdot E((x_1-\bar{x})(y_1-\bar{y})[/mm]
>
warum folgt das aus der Annahme?
> [mm]= n \cdot E\left[ \left( \left(1-\frac{1}{n} \right)x_1 - \frac{1}{n}x_2 - \ldots - \frac{1}{n}x_n \right) \cdot \left(\left(1-\frac{1}{n} \right)y_1 - \frac{1}{n}y_2 - \ldots - \frac{1}{n}y_n \right) \right][/mm]
>
wie Du zu dieser Zeile kommst, verstehe ich leider gar nicht...
> [mm]= n \cdot \left( \left( 1 - \frac{1}{n} \right)^2 E[x_1y_1] + \frac{1}{n^2} \sum\limits_{i=2}^n E[x_iy_i] \right)[/mm]
>
auch das musst Du mir erklären... ab hier ist alles klar....
außer: [mm] E[x_iy_i] [/mm] = Cov[x,y] ???
> [mm]= n \cdot \left( \left( 1 - \frac{1}{n} \right)^2 Cov[x,y] + \frac{1}{n^2} (n-1) Cov[x,y] \right)[/mm]
>
> [mm]= n \cdot \left( 1- \frac{2}{n} + \frac{1}{n^2} + \frac{1}{n} - \frac{1}{n^2} \right) Cov(x,y)[/mm]
>
> [mm]= n \cdot \frac{n-1}{n} Cov(x,y)[/mm]
>
> [mm]= (n-1) Cov(x,y)[/mm],
|
|
|
|
|
Hallo Andi!
> Mein Ansatz wäre auch ein ganz anderer gewesen, ich wollte
> zeigen, dass die Kovarianz aller möglichen Wertepaare
> doppelt so groß ist, wie die Kovarianz der Differenzen vom
> Mittelwert, also der "normalen" Kovarianzformel. Da man im
> ersten Fall die a priori Nulldifferenzen durch [mm]n^{2}-n[/mm]
> entfernt, ergibt sich im zweiten Fall der Nenner n-1.
Hm, diesen Ansatz verstehe ich wiederum nicht, aber ich kann Dir gerne erklären, welche Schritte Stefan im Einzelnen vorgenommen hat.
> Du siehst, ich kann mir das Ganze inhaltlich vorstellen,
> habe aber viel zu wenig Erfahrung mit der formalen
> mathematischen Darstellung...
> Ich denke aber, dass dein Beweis eine ganz andere Idee zu
> Grunde liegen hat, wenn ich das richtig verstehe, was ich
> ja nicht so ganz tue.....
> Ich schreibe am besten mal, wie weit ich das verstehe:
>
> >
> > [mm]E[x_i]=E[x]=0[/mm]
>
> ist das zugleich die Forderung der Erwartungstreue und die
> Translation des Mittelwertes nach Null?
Also mit Erwartungstreue hat das Ganze nichts zu tun. Stefan geht nur der Einfachheit halber davon aus, dass die eingehenden Zufallsvariablen [mm] $x_1,\ldots,x_n$ [/mm] alle den Erwartungswert 0 besitzen. Oft schreibt man ja, dass [mm] $x_1,\ldots,x_n$ [/mm] identisch verteilt sind wie eine Zufallsvariable x, und deshalb gilt dann [mm]E[x_i]=E[x][/mm]
Hier geht es nur um die Tatsache, dass sich die Kovarianz nicht ändert, wenn man eine Konstante addiert:
$Cov(X+a,Y)=E((X+a)Y)-E(X+a)E(Y)=E(XY)+aE(Y)-E(X)E(Y)-aE(Y)=Cov(X,Y)$
(ich habe hier Zufallsvariablen mal groß geschrieben, im Gegensatz zur Konstanten a).
> >
> > [mm]E \left[ \sum\limits_{i=1}^n (x_i - \bar{x})(y_i-\bar{y}) \right][/mm]
>
> >
> > [mm]=n \cdot E((x_1-\bar{x})(y_1-\bar{y})[/mm]
> >
> warum folgt das aus der Annahme?
Das folgt nicht aus der eben diskutierten Annahme, sondern aus der Tatsache, dass [mm] $x_1,\ldots,x_n$ [/mm] identisch verteilte Zufallsvariablen sind. Bei Betrachtung des Erwartungswerts ist es demnach egal, ob ich [mm] $x_1$, $x_2$ [/mm] oder [mm] $x_n$ [/mm] hernehme. Stefan hat sich für [mm] $x_1$ [/mm] entschieden.
> > [mm]= n \cdot E\left[ \left( \left(1-\frac{1}{n} \right)x_1 - \frac{1}{n}x_2 - \ldots - \frac{1}{n}x_n \right) \cdot \left(\left(1-\frac{1}{n} \right)y_1 - \frac{1}{n}y_2 - \ldots - \frac{1}{n}y_n \right) \right][/mm]
>
> >
>
> wie Du zu dieser Zeile kommst, verstehe ich leider gar
> nicht...
Schreib' mal das arithmetische Mittel [mm] $(x_1+\ldots+x_n)/n$ [/mm] aus und fasse mit dem ersten Term [mm] $x_1$ [/mm] zusammen; dann siehst Du, welche Vorfaktoren die Zufallsvariablen [mm] $x_1,\ldots,x_n$ [/mm] besitzen. Für die y's geht es ganz analog.
> > [mm]= n \cdot \left( \left( 1 - \frac{1}{n} \right)^2 E[x_1y_1] + \frac{1}{n^2} \sum\limits_{i=2}^n E[x_iy_i] \right)[/mm]
>
> >
> auch das musst Du mir erklären... ab hier ist alles
> klar....
OK, ich füge noch einen Zwischenschritt ein:
[mm]= n \cdot \left( \left( 1 - \frac{1}{n} \right)^2 E[x_1y_1]
-\left(1-\frac{1}{n}\right)\left[E\left(\frac{1}{n}y_1\sum\limits_{i=2}^n x_i\right)+E\left(\frac{1}{n}x_1\sum\limits_{i=2}^n y_i\right) \right]+ \frac{1}{n^2} E\left(\sum\limits_{i=2}^n x_i\sum\limits_{i=2}^n y_i \right)\right)[/mm]
Nun fällt aber einiges aus folgendem Grund weg: Die Zufallsvektoren [mm] $(x_i,y_i)$ [/mm] werden paarweise als unabhängig angenommen, d.h. es gilt
[mm] $Cov(x_i,y_j)=0,\forall i\neq [/mm] j.$
Wegen [mm] $E(x_i)=0$ [/mm] folgt daraus schon
[mm] $E(x_iy_j)=0,\forall i\neq [/mm] j.$
(siehe auch zwei Zeilen weiter.)
> außer: [mm]E[x_iy_i][/mm] = Cov[x,y] ???
Das folgt wiederum aus Stefans Annahme [mm] $E(x_i)=0$, [/mm] denn es gilt ja
[mm] $Cov(x_i,y_i)=E(x_iy_i)-E(x_i)E(y_i)=E(x_iy_i)$.
[/mm]
Da [mm] $(x_i,y_i)$ [/mm] als Zufallsvektoren identisch verteilt sind wie $(x,y)$ (selbe Schreibweise wie oben im eindim. Fall), gilt [mm] $Cov(x_i,y_i)=Cov(x,y)$.
[/mm]
> > [mm]= n \cdot \left( \left( 1 - \frac{1}{n} \right)^2 Cov[x,y] + \frac{1}{n^2} (n-1) Cov[x,y] \right)[/mm]
>
> >
> > [mm]= n \cdot \left( 1- \frac{2}{n} + \frac{1}{n^2} + \frac{1}{n} - \frac{1}{n^2} \right) Cov(x,y)[/mm]
>
> >
> > [mm]= n \cdot \frac{n-1}{n} Cov(x,y)[/mm]
> >
> > [mm]= (n-1) Cov(x,y)[/mm],
>
Siehst Du jetzt klarer?
Viele Grüße
Brigitte
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:23 Sa 28.05.2005 | Autor: | andibar |
Hallo Brigitte!
Vielen, vielen Dank! Jetzt verstehe ich alle Schritte, auch wenn ich bei manchen Schritten in der Umformung ganz schön lange gebraucht habe, um sie nachzuvollziehen...
> [mm]= n \cdot \left( \left( 1 - \frac{1}{n} \right)^2 E[x_1y_1]
-\left(1-\frac{1}{n}\right)\left[E\left(\frac{1}{n}y_1\sum\limits_{i=2}^n x_i\right)+E\left(\frac{1}{n}x_1\sum\limits_{i=2}^n y_i\right) \right]+ \frac{1}{n^2} E\left(\sum\limits_{i=2}^n x_i\sum\limits_{i=2}^n y_i \right)\right)[/mm]
Dieser Schritt ist doch nichts anderes, als (a-b-c...)(a-b-c...) ausmultipliziert, oder? Eigentlich ist das klar, aber ich habe etwas gebraucht....
Alle anderen Schritte waren für mich jetzt recht schnell verständlich.
DANKE!
Ich beschreibe meinen Ansatz mal für die Varianz, ich wollte dasselbe für die Kovarianz machen...:
Ich gehe von den Abweichugen der Werte voneinander aus, minus n steht im Nenner, weil diese Einträge in der Matrix auf jeden Fall Null sind, bei vielen kleinen Stichproben würde die "wahre Varianz" also systematisch unterschätzt:
[mm] \bruch{1}{n^{2}-n}\summe_{i=1}^{n}\summe_{j=1}^{n} (x_{i}- x_{j})^{2}
[/mm]
= [mm] \bruch{1}{n^{2}-n}\summe_{i=1}^{n}\summe_{j=1}^{n}((x_{i}- \overline{x}) [/mm] ( [mm] \overline{x}-x_{j}))^{2}
[/mm]
[mm] =\bruch{1}{n^{2}-n} [\summe_{i=1}^{n}\summe_{j=1}^{n}(x_{i}- \overline{x})^{2} [/mm] + [mm] 2\summe_{i=1}^{n}\summe_{j=1}^{n}(x_{i}- \overline{x})( \overline{x}-x_{j}) [/mm] + [mm] \summe_{i=1}^{n}\summe_{j=1}^{n}(x_{j}- \overline{x})^{2}]
[/mm]
(Die einfachen Abweichungen vom Mittelwert sind Null, der unterschiedliche Index im ersten und dritten Summanden ändert nichts an ihrer Gleichheit)
[mm] =\bruch{1}{n^{2}-n} (2\summe_{i=1}^{n}\summe_{j=1}^{n}(x_{i}- \overline{x})^{2})
[/mm]
[mm] =\bruch{1}{n^{2}-n} (2n\summe_{i=1}^{n}(x_{i}- \overline{x})^{2})
[/mm]
[mm] =\bruch{2n}{n(n-1)} \summe_{i=1}^{n}(x_{i}- \overline{x})^{2}
[/mm]
[mm] =\bruch{n}{n-1} 2\summe_{i=1}^{n}(x_{i}- \overline{x})^{2}
[/mm]
Das ist ja die Kovarianzformel multipliziert mit dem Faktor zwei, durch den Nenner n-1 ist diese nun erwartungstreu, da die systematische Verschätzung der "wahren Varianz" vermieden wird.
Leider bekomme ich das ganze immer noch nicht für die Kovarianz hin. Vielleicht kann mir da ja auch noch geholfen werden...
Schöne Grüße
Andi
|
|
|
|
|
Hallo Andi!
> > [mm]= n \cdot \left( \left( 1 - \frac{1}{n} \right)^2 E[x_1y_1]
-\left(1-\frac{1}{n}\right)\left[E\left(\frac{1}{n}y_1\sum\limits_{i=2}^n x_i\right)+E\left(\frac{1}{n}x_1\sum\limits_{i=2}^n y_i\right) \right]+ \frac{1}{n^2} E\left(\sum\limits_{i=2}^n x_i\sum\limits_{i=2}^n y_i \right)\right)[/mm]
>
> Dieser Schritt ist doch nichts anderes, als
> (a-b-c...)(a-b-c...) ausmultipliziert, oder? Eigentlich ist
> das klar, aber ich habe etwas gebraucht....
Vielleicht hätte ich noch einen Zwischenschritt einfügen sollen.
$= n [mm] \cdot E\left[ \left( \left(1-\frac{1}{n} \right)x_1 - \frac{1}{n}x_2 - \ldots - \frac{1}{n}x_n \right) \cdot \left(\left(1-\frac{1}{n} \right)y_1 - \frac{1}{n}y_2 - \ldots - \frac{1}{n}y_n \right) \right]$ [/mm]
[mm] $=n\cdot E\left[ \left( \left(1-\frac{1}{n} \right)x_1 - \frac{1}{n}\sum\limits_{i=2}^n x_i\right) \cdot \left(\left(1-\frac{1}{n} \right)y_1 - \frac{1}{n}\sum\limits_{i=2}^n y_i \right) \right]$ [/mm]
Nun ist es ja nur noch Ausmultiplizieren von $(a-b)(c-d)$, und das sollte schneller gehen
> Ich beschreibe meinen Ansatz mal für die Varianz, ich
> wollte dasselbe für die Kovarianz machen...:
>
> Ich gehe von den Abweichugen der Werte voneinander aus,
> minus n steht im Nenner, weil diese Einträge in der Matrix
> auf jeden Fall Null sind, bei vielen kleinen Stichproben
> würde die "wahre Varianz" also systematisch unterschätzt:
>
> [mm]\bruch{1}{n^{2}-n}\summe_{i=1}^{n}\summe_{j=1}^{n} (x_{i}- x_{j})^{2}[/mm]
>
> =
> [mm]\bruch{1}{n^{2}-n}\summe_{i=1}^{n}\summe_{j=1}^{n}((x_{i}- \overline{x})[/mm]
> ( [mm]\overline{x}-x_{j}))^{2}[/mm]
>
> [mm]=\bruch{1}{n^{2}-n} [\summe_{i=1}^{n}\summe_{j=1}^{n}(x_{i}- \overline{x})^{2}[/mm]
> + [mm]2\summe_{i=1}^{n}\summe_{j=1}^{n}(x_{i}- \overline{x})( \overline{x}-x_{j})[/mm]
> + [mm]\summe_{i=1}^{n}\summe_{j=1}^{n}(x_{j}- \overline{x})^{2}][/mm]
>
> (Die einfachen Abweichungen vom Mittelwert sind Null, der
> unterschiedliche Index im ersten und dritten Summanden
> ändert nichts an ihrer Gleichheit)
>
> [mm]=\bruch{1}{n^{2}-n} (2\summe_{i=1}^{n}\summe_{j=1}^{n}(x_{i}- \overline{x})^{2})[/mm]
>
> [mm]=\bruch{1}{n^{2}-n} (2n\summe_{i=1}^{n}(x_{i}- \overline{x})^{2})[/mm]
>
> [mm]=\bruch{2n}{n(n-1)} \summe_{i=1}^{n}(x_{i}- \overline{x})^{2}[/mm]
>
> [mm]=\bruch{n}{n-1} 2\summe_{i=1}^{n}(x_{i}- \overline{x})^{2}[/mm]
>
Hier sollte das n weggekürzt sein, aber ich bin sicher, das ist nur ein Flüchtigkeitsfehler.
Was mich etwas irritiert, ist die Tatsache, dass Du nie mit Erwartungswerten argumentierst. Bei Deiner Argumentation fehlt doch noch, dass
[mm] $E\left(\bruch{1}{n^{2}-n}\summe_{i=1}^{n}\summe_{j=1}^{n} (x_{i}- x_{j})^{2}\right)$
[/mm]
[mm] $=E((x_1-x_2)^2)=E(x_1^2)-2E(x_1x_2)+E(x_2^2)=2(E(x_1^2)-E(x_1)E(x_2))$
[/mm]
[mm] $=2(E(x^2)-E(x)^2)=2Var(x)$.
[/mm]
Deshalb folgt
[mm] $E\left(\bruch{1}{n-1} \summe_{i=1}^{n}(x_{i}- \overline{x})^{2}\right)$
[/mm]
[mm] $=\frac{1}{2}E\left(\bruch{2}{n-1} \summe_{i=1}^{n}(x_{i}- \overline{x})^{2}\right)$
[/mm]
[mm] $=\frac{1}{2}E\left(\bruch{1}{n^{2}-n}\summe_{i=1}^{n}\summe_{j=1}^{n} (x_{i}- x_{j})^{2}\right)$
[/mm]
[mm] $=\frac{1}{2}\cdot [/mm] 2Var(X)=Var(X)$.
Oder ist das allen klar, und ich übersehe nur etwas ganz Triviales?
Also auf jeden Fall geht es dann mit Deinem Ansatz genauso durch. Du solltest nur wieder als Vorfaktor [mm] $\frac{1}{n^2-n}$ [/mm] wählen, weil für $i=j$ die Summanden wieder den Wert 0 liefern. Damit gilt:
[mm] $E\left(\frac{1}{n^2-n}\sum\limits_{i=1}^n\sum\limits_{j=1}^n (x_i-x_j)(y_i-y_j)\right)$
[/mm]
[mm] $=E((x_1-x_2)(y_1-y_2))=E(x_1y_1-x_2y_1-x_1y_2+x_2y_2)$
[/mm]
[mm] $=E(x_1y_1)-2E(x_1y_2)+E(x_2y_2)=2(E(xy)-E(x)E(y))=2Cov(x,y)$
[/mm]
Die Summe, mit der Du im ersten Posting angefangen hattest, solltest Du nun noch weiter ausmultiplizieren. Mit denselben Argumenten wie bei der Varianz landest Du dann beim Ausdruck
[mm] $\frac{2}{n^2-n}\sum\limits_{i=1}^n\sum\limits_{j=1}^n (x_i-\bar{x})(y_i-\bar{y})$
[/mm]
[mm] $=\frac{2}{n-1}\sum\limits_{i=1}^n(x_i-\bar{x})(y_i-\bar{y})$
[/mm]
Denn die Summanden mit gemischten Indizes (zB [mm] $(x_i-\bar{x})(\bar{y}-y_j)$) [/mm] ergeben wegen [mm] $\sum\limits_{i=1}^n(x_i-\bar{x})=0$ [/mm] den Wert 0. Hier kannst Du ja erst den Faktor [mm] $(x_i-\bar{x})$ [/mm] vor die Summe mit Index $j$ ziehen und dann eben die erwähnte Gleichung benutzen.
So kommst Du also auch zum Ziel. Bitte frag noch mal nach, wenn was unklar sein sollte.
Viele Grüße
Brigitte
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:39 So 29.05.2005 | Autor: | andibar |
Hallo Brigitte!
Danke nochmal! Jetzt ist alles sonnenklar. Und ich frage mich, wo mein Problem lag, eigentlich ist es ja nichts anderes, als bei der Varianz...
> Vielleicht hätte ich noch einen Zwischenschritt einfügen
> sollen.
>
> [mm]= n \cdot E\left[ \left( \left(1-\frac{1}{n} \right)x_1 - \frac{1}{n}x_2 - \ldots - \frac{1}{n}x_n \right) \cdot \left(\left(1-\frac{1}{n} \right)y_1 - \frac{1}{n}y_2 - \ldots - \frac{1}{n}y_n \right) \right][/mm]
>
> [mm]=n\cdot E\left[ \left( \left(1-\frac{1}{n} \right)x_1 - \frac{1}{n}\sum\limits_{i=2}^n x_i\right) \cdot \left(\left(1-\frac{1}{n} \right)y_1 - \frac{1}{n}\sum\limits_{i=2}^n y_i \right) \right][/mm]
>
> Nun ist es ja nur noch Ausmultiplizieren von [mm](a-b)(c-d)[/mm],
> und das sollte schneller gehen
Genauso meinte ich das, da habe ich mich wohl etwas ungeschickt ausgedrückt...
> Was mich etwas irritiert, ist die Tatsache, dass Du nie mit
> Erwartungswerten argumentierst. Bei Deiner Argumentation
> fehlt doch noch, dass
>
> [mm]E\left(\bruch{1}{n^{2}-n}\summe_{i=1}^{n}\summe_{j=1}^{n} (x_{i}- x_{j})^{2}\right)[/mm]
>
> [mm]=E((x_1-x_2)^2)=E(x_1^2)-2E(x_1x_2)+E(x_2^2)=2(E(x_1^2)-E(x_1)E(x_2))[/mm]
>
> [mm]=2(E(x^2)-E(x)^2)=2Var(x)[/mm].
>
Dazu meine Frage: Meint die Abkürzung Var(x) immer die erwartungstreue Varianz? Wie kann ich denn dann die Varianz einer Stichprobe abkürzen? mit Var( [mm] x_{i}) [/mm] ?? Was ist, wenn die Varianz mit dem Nenner n gemeint ist? Diese ist ja ein ML-Schätzer, wenn ich das richtig verstanden habe...
> Deshalb folgt
>
> [mm]E\left(\bruch{1}{n-1} \summe_{i=1}^{n}(x_{i}- \overline{x})^{2}\right)[/mm]
>
> [mm]=\frac{1}{2}E\left(\bruch{2}{n-1} \summe_{i=1}^{n}(x_{i}- \overline{x})^{2}\right)[/mm]
>
> [mm]=\frac{1}{2}E\left(\bruch{1}{n^{2}-n}\summe_{i=1}^{n}\summe_{j=1}^{n} (x_{i}- x_{j})^{2}\right)[/mm]
>
> [mm]=\frac{1}{2}\cdot 2Var(X)=Var(X)[/mm].
>
> Oder ist das allen klar, und ich übersehe nur etwas ganz
> Triviales?
Ja, Du hast absolut recht, das fehlte noch. Ich habe das so bedacht, es aber nicht aufgeschrieben. Ich bin leider, was das formale Formulieren anbelangt, vollkommen unerfahren...
>
> Also auf jeden Fall geht es dann mit Deinem Ansatz genauso
> durch. Du solltest nur wieder als Vorfaktor [mm]\frac{1}{n^2-n}[/mm]
> wählen, weil für [mm]i=j[/mm] die Summanden wieder den Wert 0
> liefern. Damit gilt:
>
> [mm]E\left(\frac{1}{n^2-n}\sum\limits_{i=1}^n\sum\limits_{j=1}^n (x_i-x_j)(y_i-y_j)\right)[/mm]
>
> [mm]=E((x_1-x_2)(y_1-y_2))=E(x_1y_1-x_2y_1-x_1y_2+x_2y_2)[/mm]
>
> [mm]=E(x_1y_1)-2E(x_1y_2)+E(x_2y_2)=2(E(xy)-E(x)E(y))=2Cov(x,y)[/mm]
>
> Die Summe, mit der Du im ersten Posting angefangen hattest,
> solltest Du nun noch weiter ausmultiplizieren.
Ich mache dann ab hier, dank Deiner Hilfe, mal weiter:
[mm] \bruch{1}{n^{2}-n} \summe_{i=1}^{n} \summe_{j=1}^{n}(( x_{i}-\overline{x})+( \overline{x}-x_{j}))(( y_{i}-\overline{y})+( \overline{y}-y_{j}))
[/mm]
[mm] =\bruch{1}{n^{2}-n}\summe_{i=1}^{n} \summe_{j=1}(x_{i}-\overline{x})(y_{i}-\overline{y})+\summe_{i=1}^{n} \summe_{j=1}(x_{i}-\overline{x})(\overline{y}-y_{j})+\summe_{i=1}^{n} \summe_{j=1}(\overline{x}-x_{j})(y_{i}-\overline{y})+\summe_{i=1}^{n} \summe_{j=1}(\overline{x}-x_{j})(\overline{y}-y_{j})
[/mm]
Zweiter und dritter Summand sind Null, da: [mm] \summe_{i=1}^{n}(x_{i}-\overline{x})( \summe_{j=1}^{n}(\overline{y}-y_{j}))=0
[/mm]
[mm] =\bruch{1}{n^{2}-n}(2\summe_{i=1}^{n} \summe_{j=1}((x_{i}-\overline{x})(y_{i}-\overline{y}))
[/mm]
[mm] =\bruch{1}{n(n-1)}(2n\summe_{i=1}^{n}(x_{i}-\overline{x})(y_{i}-\overline{y}))
[/mm]
[mm] =\bruch{1}{n-1}2\summe_{i=1}^{n}(x_{i}-\overline{x})(y_{i}-\overline{y})
[/mm]
Ich hoffe, dass ich mich nirgendwo vertan habe und jetzt alles so stimmt!
Viele Grüße
Andi
|
|
|
|
|
Hallo Andi!
> > Vielleicht hätte ich noch einen Zwischenschritt einfügen
> > sollen.
> >
> > [mm]= n \cdot E\left[ \left( \left(1-\frac{1}{n} \right)x_1 - \frac{1}{n}x_2 - \ldots - \frac{1}{n}x_n \right) \cdot \left(\left(1-\frac{1}{n} \right)y_1 - \frac{1}{n}y_2 - \ldots - \frac{1}{n}y_n \right) \right][/mm]
> >
> > [mm]=n\cdot E\left[ \left( \left(1-\frac{1}{n} \right)x_1 - \frac{1}{n}\sum\limits_{i=2}^n x_i\right) \cdot \left(\left(1-\frac{1}{n} \right)y_1 - \frac{1}{n}\sum\limits_{i=2}^n y_i \right) \right][/mm]
> >
> > Nun ist es ja nur noch Ausmultiplizieren von [mm](a-b)(c-d)[/mm],
> > und das sollte schneller gehen
>
> Genauso meinte ich das, da habe ich mich wohl etwas
> ungeschickt ausgedrückt...
OK, war nur nicht ganz sicher, was Du gemeint hast.
> > Was mich etwas irritiert, ist die Tatsache, dass Du nie mit
> > Erwartungswerten argumentierst. Bei Deiner Argumentation
> > fehlt doch noch, dass
> >
> > [mm]E\left(\bruch{1}{n^{2}-n}\summe_{i=1}^{n}\summe_{j=1}^{n} (x_{i}- x_{j})^{2}\right)[/mm]
>
> >
> >
> [mm]=E((x_1-x_2)^2)=E(x_1^2)-2E(x_1x_2)+E(x_2^2)=2(E(x_1^2)-E(x_1)E(x_2))[/mm]
> >
> > [mm]=2(E(x^2)-E(x)^2)=2Var(x)[/mm].
> >
> Dazu meine Frage: Meint die Abkürzung Var(x) immer die
> erwartungstreue Varianz? Wie kann ich denn dann die Varianz
> einer Stichprobe abkürzen? mit Var( [mm]x_{i})[/mm] ?? Was ist, wenn
> die Varianz mit dem Nenner n gemeint ist? Diese ist ja ein
> ML-Schätzer, wenn ich das richtig verstanden habe...
Ich weiß nicht genau, was Du mit erwartungstreuer Varianz meinst. Es gibt die (empirische) Stichprobenvarianz, normalerweise definiert als
[mm] $\frac{1}{n-1}\sum\limits_{i=1}^n (x_i-\bar{x})^2.$
[/mm]
Oft schreibt man dafür auch [mm] $s_n^2$. [/mm] Die [mm] $x_i$ [/mm] sind Messwerte (d.h. Realisierungen von Zufallsvariablen, also relle Zahlen), oder auch direkt Zufallsvariablen (d.h. messbare Abbildungen von [mm] $\Omega$ [/mm] nach [mm] $\IR$). [/mm] Im Fall von unabhängigen, identisch verteilten Zufallsvariablen [mm] $x_i$ [/mm] ist [mm] $s_n^2$ [/mm] ein ertwartungstreuer Schätzer für die Varianz von [mm] $x_1$. [/mm] (Um zwischen Realisierungen und Zufallsvariablen zu unterscheiden, schreibt man die Zufallsvariablen oft in großen Buchstaben.)
Die eben bereits erwähnte Varianz einer Zufallsvariablen ist definiert als die erwartete quadratische Abweichung vom Erwartungswert, d.h.
[mm] $Var(X)=E[(X-E(X))^2].$
[/mm]
Ich hoffe, dass der Unterschied nun etwas klarer geworden ist. Das ist wie mit dem arithmetischen Mittel und dem Erwartungswert. Hier gilt ja, dass
[mm] $\frac{1}{n}\sum\limits_{i=1}^n X_i$ [/mm]
ein erwartungstreuer Schätzer für den Erwartungswert von [mm] $X_1$ [/mm] ist.
> > Also auf jeden Fall geht es dann mit Deinem Ansatz genauso
> > durch. Du solltest nur wieder als Vorfaktor [mm]\frac{1}{n^2-n}[/mm]
> > wählen, weil für [mm]i=j[/mm] die Summanden wieder den Wert 0
> > liefern. Damit gilt:
> >
> >
> [mm]E\left(\frac{1}{n^2-n}\sum\limits_{i=1}^n\sum\limits_{j=1}^n (x_i-x_j)(y_i-y_j)\right)[/mm]
>
> >
> > [mm]=E((x_1-x_2)(y_1-y_2))=E(x_1y_1-x_2y_1-x_1y_2+x_2y_2)[/mm]
> >
> >
> [mm]=E(x_1y_1)-2E(x_1y_2)+E(x_2y_2)=2(E(xy)-E(x)E(y))=2Cov(x,y)[/mm]
> >
> > Die Summe, mit der Du im ersten Posting angefangen hattest,
> > solltest Du nun noch weiter ausmultiplizieren.
>
> Ich mache dann ab hier, dank Deiner Hilfe, mal weiter:
>
> [mm]\bruch{1}{n^{2}-n} \summe_{i=1}^{n} \summe_{j=1}^{n}(( x_{i}-\overline{x})+( \overline{x}-x_{j}))(( y_{i}-\overline{y})+( \overline{y}-y_{j}))[/mm]
>
> [mm]=\bruch{1}{n^{2}-n}\summe_{i=1}^{n} \summe_{j=1}(x_{i}-\overline{x})(y_{i}-\overline{y})+\summe_{i=1}^{n} \summe_{j=1}(x_{i}-\overline{x})(\overline{y}-y_{j})+\summe_{i=1}^{n} \summe_{j=1}(\overline{x}-x_{j})(y_{i}-\overline{y})+\summe_{i=1}^{n} \summe_{j=1}(\overline{x}-x_{j})(\overline{y}-y_{j})[/mm]
>
> Zweiter und dritter Summand sind Null, da:
> [mm]\summe_{i=1}^{n}(x_{i}-\overline{x})( \summe_{j=1}^{n}(\overline{y}-y_{j}))=0[/mm]
>
> [mm]=\bruch{1}{n^{2}-n}(2\summe_{i=1}^{n} \summe_{j=1}((x_{i}-\overline{x})(y_{i}-\overline{y}))[/mm]
>
> [mm]=\bruch{1}{n(n-1)}(2n\summe_{i=1}^{n}(x_{i}-\overline{x})(y_{i}-\overline{y}))[/mm]
>
> [mm]=\bruch{1}{n-1}2\summe_{i=1}^{n}(x_{i}-\overline{x})(y_{i}-\overline{y})[/mm]
>
> Ich hoffe, dass ich mich nirgendwo vertan habe und jetzt
> alles so stimmt!
Ja, das stimmt. Dass Du in der ersten Zeile keine Klammern gesetzt hast und öfter mal bei der Summe das n vergisst, ist nicht so tragisch
Viele Grüße
Brigitte
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 23:48 So 29.05.2005 | Autor: | andibar |
Hallo Brigitte!
> Ich weiß nicht genau, was Du mit erwartungstreuer Varianz
> meinst. Es gibt die (empirische) Stichprobenvarianz,
> normalerweise definiert als
>
> [mm]\frac{1}{n-1}\sum\limits_{i=1}^n (x_i-\bar{x})^2.[/mm]
>
ja, genau die meinte ich!
> Oft schreibt man dafür auch [mm]s_n^2[/mm]. Die [mm]x_i[/mm] sind Messwerte
> (d.h. Realisierungen von Zufallsvariablen, also relle
> Zahlen), oder auch direkt Zufallsvariablen (d.h. messbare
> Abbildungen von [mm]\Omega[/mm] nach [mm]\IR[/mm]). Im Fall von unabhängigen,
> identisch verteilten Zufallsvariablen [mm]x_i[/mm] ist [mm]s_n^2[/mm] ein
> ertwartungstreuer Schätzer für die Varianz von [mm]x_1[/mm]. (Um
> zwischen Realisierungen und Zufallsvariablen zu
> unterscheiden, schreibt man die Zufallsvariablen oft in
> großen Buchstaben.)
>
> Die eben bereits erwähnte Varianz einer Zufallsvariablen
> ist definiert als die erwartete quadratische Abweichung vom
> Erwartungswert, d.h.
>
> [mm]Var(X)=E[(X-E(X))^2].[/mm]
>
> Ich hoffe, dass der Unterschied nun etwas klarer geworden
> ist. Das ist wie mit dem arithmetischen Mittel und dem
> Erwartungswert. Hier gilt ja, dass
>
> [mm]\frac{1}{n}\sum\limits_{i=1}^n X_i[/mm]
>
> ein erwartungstreuer Schätzer für den Erwartungswert von
> [mm]X_1[/mm] ist.
>
Ok. Danke für die ausführliche Erläuterung. Das ist alles klar.
Ich dachte, dass die Abkürzung Var(x) auch die Varianz in einer konkreten Stichprobe bezeichnen kann. Das war wohl ein Irrtum...
Ich meine nicht die empirische Stichprobenvarianz. Was ich meine ist vergleichbar mit dem Fall, dass ich alle möglichen Werte kenne. Denn dann wäre ja kein Korrekturfaktor n-1 und auch kein Schätzer für die Varianz der Zufallsvariablen notwendig.
Die Varianz in der Stichprobe ist ja die durchschnittliche quadratische Abweichung der Werte vom arithmetischen Mittel in dieser Stichprobe. Bei dieser Formel steht doch dann nur das n im Nenner, oder? Für inferenzstatistische Berechnungen ist diese dann aber nicht geeignet (wenn ich alle Werte erhoben hätte, dann wäre das ja auch nicht notwendig )... Aber doch das geeignete Maß für die deskriptive Darstellung der erhobenen Daten?!
> Ja, das stimmt. Dass Du in der ersten Zeile keine Klammern
> gesetzt hast und öfter mal bei der Summe das n vergisst,
> ist nicht so tragisch
Uuups, das hatte ich wohl übersehen...
Beste Grüße
Andi
|
|
|
|
|
Hallo Andi!
> Ok. Danke für die ausführliche Erläuterung. Das ist alles
> klar.
> Ich dachte, dass die Abkürzung Var(x) auch die Varianz in
> einer konkreten Stichprobe bezeichnen kann. Das war wohl
> ein Irrtum...
Na ja, das macht ja jedes Buch anders. Ich kenne das so nicht. Aber das muss nichts heißen.
> Ich meine nicht die empirische Stichprobenvarianz. Was ich
> meine ist vergleichbar mit dem Fall, dass ich alle
> möglichen Werte kenne. Denn dann wäre ja kein
> Korrekturfaktor n-1 und auch kein Schätzer für die Varianz
> der Zufallsvariablen notwendig.
> Die Varianz in der Stichprobe ist ja die durchschnittliche
> quadratische Abweichung der Werte vom arithmetischen Mittel
> in dieser Stichprobe. Bei dieser Formel steht doch dann nur
> das n im Nenner, oder? Für inferenzstatistische
> Berechnungen ist diese dann aber nicht geeignet (wenn ich
> alle Werte erhoben hätte, dann wäre das ja auch nicht
> notwendig )... Aber doch das geeignete Maß für die
> deskriptive Darstellung der erhobenen Daten?!
Ich denke, das kann man so sehen. Allerdings ist der Fall, in dem man die Varianz kennt, eher praxisfern, denn normalerweise kennt man ja die Verteilung, die zu den Daten gehört, nicht exakt, sondern versucht, über die Daten Informationen über dieselbe zu gewinnen. Deshalb wird eher der Vorfaktor 1/(n-1) verwendet.
Liebe Grüße
Brigitte
|
|
|
|