Varianz bestimmen < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 22:39 Mi 04.06.2014 | Autor: | Trikolon |
Aufgabe | Sei N [mm] \in [/mm] IN. Außerdem sei [mm] (X_n)_{n=1,...,N} [/mm] eine Folge reellwertiger Zufallsvariablen auf einem diskreten W-Raum mit [mm] E(X_n)=0 [/mm] für jedes n [mm] \in [/mm] {1,...,N} und [mm] Cov(X_n,X_m)=n^2+m^2-(n-m)^2 [/mm] für alle n,m [mm] \in [/mm] {1,...,N}.
a) Berechne die Varianz von [mm] \summe_{n=1}^{N}X_n. [/mm] |
Hallo!
Meine Ideen:
[mm] Cov(X_n,X_m)=E(X_n [/mm] * [mm] X_m)-E(X_n)E(X_m)=E(X_n [/mm] * [mm] X_m) [/mm] = 2nm
Und Var [mm] \summe_{n=1}^{N}X_n [/mm] = [mm] \summe_{n=1}^{N} Var(X_n).
[/mm]
Also bestimme ich zunächst [mm] Var(X_n).
[/mm]
[mm] Var(X_n)=E(X_n^2)-E(X_n)^2 [/mm] = [mm] E(X_n^2), [/mm] da [mm] E(X_n)^2=0 [/mm] für alle n.
Wie bestimme ich jetzt [mm] E(X_n^2)? [/mm] Brauche ich hier die Covarianz für den fall n=m also dann [mm] 2n^2?
[/mm]
|
|
|
|
Hiho,
> Meine Ideen:
>
> [mm]Cov(X_n,X_m)=E(X_n[/mm] * [mm]X_m)-E(X_n)E(X_m)=E(X_n[/mm] * [mm]X_m)[/mm] = 2nm
Aber die vorherigen Umformungen brauchst du gar nicht.
Nur: [mm] $Cov(X_n,X_m) [/mm] = 2nm$
> Und Var [mm]\summe_{n=1}^{N}X_n[/mm] = [mm]\summe_{n=1}^{N} Var(X_n).[/mm]
Die Umformung ist falsch!
Diese Gleichheit gilt nur, wenn die [mm] X_n [/mm] unabhängig voneinander sind, was sie aber gar nicht sein müssen.
> Also bestimme ich zunächst [mm]Var(X_n).[/mm]
>
> [mm]Var(X_n)=E(X_n^2$)-E(X_n)^2[/mm] = [mm]E(X_n^2),[/mm] da [mm]E(X_n)^2=0[/mm] für
> alle n.
>
> Wie bestimme ich jetzt [mm]E(X_n^2)?[/mm] Brauche ich hier die
> Covarianz für den fall n=m also dann [mm]2n^2?[/mm]
Also da du die [mm] Var(X_n) [/mm] so oder so später brauchst: Ja, es gilt nach Definition [mm] $Cov(X_n,X_n) [/mm] = [mm] Var(X_n)$
[/mm]
Du brauchst also die ganzen Umformungen über die Erwartungswerte also gar nicht.
Nun zu deinem Problem: Was ist Var(X+Y) für beliebige X und Y? Da werden wohl die Varianzen von X und Y eine Rolle spielen, aber auch die Kovarianzen, und die sind ja gegeben. Recherchier das und wende das dann iterativ auf [mm] Var(\summe_{k=1}^n X_k) [/mm] an.
Gruß,
Gono.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:29 Do 05.06.2014 | Autor: | Trikolon |
> Hiho,
>
> Nur: [mm]Cov(X_n,X_m) = 2nm[/mm]
>
> > Und Var [mm]\summe_{n=1}^{N}X_n[/mm] = [mm]\summe_{n=1}^{N} Var(X_n).[/mm]
>
> Die Umformung ist falsch!
> Diese Gleichheit gilt nur, wenn die [mm]X_n[/mm] unabhängig
> voneinander sind, was sie aber gar nicht sein müssen.
>
> Stimmt, ja. Das hatte ich ganz übersehen, wäre auch zu schön gewesen...
>
> > Also bestimme ich zunächst [mm]Var(X_n).[/mm]
> >
> > [mm]Var(X_n)=E(X_n^2$)-E(X_n)^2[/mm] = [mm]E(X_n^2),[/mm] da [mm]E(X_n)^2=0[/mm] für
> > alle n.
> >
>>
> Also da du die [mm]Var(X_n)[/mm] so oder so später brauchst: Ja, es
> gilt nach Definition [mm]Cov(X_n,X_n) = Var(X_n)[/mm]
>
> Du brauchst also die ganzen Umformungen über die
> Erwartungswerte also gar nicht.
>
> Nun zu deinem Problem: Was ist Var(X+Y) für beliebige X
> und Y? Da werden wohl die Varianzen von X und Y eine Rolle
> spielen, aber auch die Kovarianzen, und die sind ja
> gegeben. Recherchier das und wende das dann iterativ auf
> [mm]Var(\summe_{k=1}^n X_k)[/mm] an.
>
> Gruß,
> Gono.
>
Also es ist ja Var(X+Y)=Var(X)+Var(Y)+2Cov(X,Y)
Das habe ich mal noch für Var(X+Y+Z) probiert und erhalte:
Var (X+Y+Z)=VarX+VarY+VarZ+2(Cov(X,Y)+Cov(X,Z)+Cov(Z,Y))
Also folgt induktiv (kann man das so sagen?):
Var ( [mm] \summe_{n=1}^{N} X_n)= \summe_{n=1}^{N} Var(X_n)+2(\summe_{n=1}^{N-1} \summe_{m=n+1}^{N}Cov(X_n,X_m) [/mm] )
Allerdings frage ich mich wie ich das (speziell die Doppelsumme) vereinfachen soll...
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:27 Do 05.06.2014 | Autor: | luis52 |
Vielleicht wird das schoener:
[mm] $\operatorname{Var} [/mm] ( [mm] \summe_{n=1}^{N} X_n)=\operatorname{Cov}( \summe_{n=1}^{N} X_n, \summe_{m=1}^{N} X_m) =\summe_{n=1}^{N}\summe_{m=1}^{N}\operatorname{Cov}( X_n, X_m) [/mm] $.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:30 Do 05.06.2014 | Autor: | Trikolon |
Hallo,
könntest du bitte mal erklären wie du da drauf kommst??
Und in welchem Zusammenhang steht das mit dem Ergebnis das ich erhalten habe?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 16:53 Do 05.06.2014 | Autor: | luis52 |
> Hallo,
>
> könntest du bitte mal erklären wie du da drauf kommst??
>
> Und in welchem Zusammenhang steht das mit dem Ergebnis das
> ich erhalten habe?
[mm] $\summe_{n=1}^{N} \operatorname{Var}(X_n)+2(\summe_{n=1}^{N-1} \summe_{m=n+1}^{N}\operatorname{Cov}(X_n,X_m) [/mm] ) = [mm] \summe_{n=1}^{N} \operatorname{Cov}(X_n,X_n)+\summe_{n,m,n\ne m}Cov(X_n,X_m))= \summe_{n=1}^{N}\summe_{m=1}^{N}\operatorname{Cov}( X_n, X_m) [/mm] $.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:43 Do 05.06.2014 | Autor: | Trikolon |
Danke schonmal, habe es fast verstanden. Nur das letzte Gleichheitszeichen ist mir nicht klar, also weshalb man die Summen so zusammenfassen kann. Kannst du das noch erklären?
Ich würde es dann so berechnen:
[mm] \summe_{n=1}^{N}\summe_{m=1}^{N}\operatorname{Cov}( X_n, X_m)
[/mm]
= 2 [mm] \summe_{n=1}^{N} [/mm] n [mm] \summe_{m=1}^{N} [/mm] m =( n(n+1)*m*(m+1)) /2
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:27 Do 05.06.2014 | Autor: | luis52 |
> Danke schonmal, habe es fast verstanden. Nur das letzte
> Gleichheitszeichen ist mir nicht klar, also weshalb man die
> Summen so zusammenfassen kann. Kannst du das noch
> erklären?
Nutze [mm] $\operatorname{Cov}( X_n, X_m)=\operatorname{Cov}( X_m, X_n)$
[/mm]
>
> Ich würde es dann so berechnen:
> [mm]\summe_{n=1}^{N}\summe_{m=1}^{N}\operatorname{Cov}( X_n, X_m)[/mm]
>
> = 2 [mm]\summe_{n=1}^{N}[/mm] n [mm]\summe_{m=1}^{N}[/mm] m =(
> n(n+1)*m*(m+1)) /2
Huch! $n,m$ sind Laufindices links ...
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 19:16 Do 05.06.2014 | Autor: | Trikolon |
Kann man die Summen nicht auseinander ziehen?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:27 Do 05.06.2014 | Autor: | luis52 |
> Kann man die Summen nicht auseinander ziehen?
Doch, aber die erste Summe ist
[mm] $\sum_{n=1}^Nn=\frac{N(N+1)}{2}$
[/mm]
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 21:11 Do 05.06.2014 | Autor: | Trikolon |
Ich dachte, man könnte schreiben
2* [mm] \sum_{n=1}^Nn \sum_{m=1}^Nm
[/mm]
=2 * [mm] \sum_{n=1}^Nn [/mm] * m(m+1)/2
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 21:20 Do 05.06.2014 | Autor: | luis52 |
> Ich dachte, man könnte schreiben
>
> 2* [mm]\sum_{n=1}^Nn \sum_{m=1}^Nm[/mm]
>
> =2 * [mm]\sum_{n=1}^Nn[/mm] * m(m+1)/2
Nein, kann man nicht. Es ist
[mm] $2\left(\sum_{n=1}^Nn\right)\left( \sum_{m=1}^Nm\right)=2\cdot\frac{N(N+1)}{2}\cdot\frac{N(N+1)}{2}=\frac{N^2(N+1)^2}{2} [/mm] $.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:25 Do 05.06.2014 | Autor: | Trikolon |
Super, danke!
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:48 So 08.06.2014 | Autor: | Trikolon |
Aufgabe | Es gibt auch noch einen b)-Teil:
Beweise mittels der Tschebyscheff-Ungleichung, dass es für jedes [mm] \epsilon [/mm] >0 eine Funktion [mm] f_{\epsilon} [/mm] :N-->IR mit [mm] f_{\epsilon}(n) [/mm] -->0 für n --> [mm] \infty [/mm] gibt, sodass [mm] P({|S_N|> N^3 \epsilon}) \le f_{\epsilon} [/mm] (N) |
Die Tschebyscheff-Ungleichung für diesen Fall lautet ja:
[mm] P(|S_N [/mm] - [mm] E(X_n)| [/mm] > [mm] \epsilon) \le Var(S_N)/ \epsilon^2
[/mm]
=
[mm] P(|S_n| [/mm] > [mm] \epsilon) \le N^2(N+1)^2/(2\epsilon^2)
[/mm]
Stimmt das und wie geht es dann weiter?
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:08 So 08.06.2014 | Autor: | Trikolon |
Gibt's Ideen?
|
|
|
|
|
Hallo und guten Morgen,
> Es gibt auch noch einen b)-Teil:
>
> Beweise mittels der Tschebyscheff-Ungleichung, dass es für
> jedes [mm]\epsilon[/mm] >0 eine Funktion [mm]f_{\epsilon}[/mm] :N-->IR mit
> [mm]f_{\epsilon}(n)[/mm] -->0 für n --> [mm]\infty[/mm] gibt, sodass
> [mm]P({|S_N|> N^3 \epsilon}) \le f_{\epsilon}[/mm] (N)
> Die Tschebyscheff-Ungleichung für diesen Fall lautet ja:
>
> [mm]P(|S_N[/mm] - [mm]E(X_n)|[/mm] > [mm]\epsilon) \le Var(S_N)/ \epsilon^2[/mm]
> =
> [mm]P(|S_n|[/mm] > [mm]\epsilon) \le N^2(N+1)^2/(2\epsilon^2)[/mm]
>
setze doch mal für [mm] $\overline{\epsilon}:=N^3\cdot \epsilon$ [/mm] in deine oben stehende Ungleichung ein. Betrachte dann den Grenzübergang $N [mm] \rightarrow \infty$ [/mm] auf der rechten Seite der Ungleichung, um einzusehen, wie man [mm] $f_{\epsilon}(N)$ [/mm] setzten muss.
Viele Grüße und frohe Pfingsten.
Blasco
> Stimmt das und wie geht es dann weiter?
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:56 Mo 09.06.2014 | Autor: | Trikolon |
Also dann hätte man ja:
[mm] P(|S_N|>N^3 \epsilon) \le \bruch{(N+1)^2}{2N^4 \epsilon^2}
[/mm]
und der Term auf der rechten Seite der Ungleichung geht gegen 0 wenn n gegen Unendlich geht.
Also setzt man [mm] f_{\epsilon} [/mm] (n) = [mm] \bruch{(n+1)^2}{2n^4 \epsilon^2}
[/mm]
Hab ich das richtig verstanden?
|
|
|
|
|
Hallo,
ja das ist richtig.
Viele Grüße
Blasco
|
|
|
|