Multidim. Normalverteilung < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 13:56 Do 28.09.2017 | Autor: | sandroid |
Aufgabe | Seien $X, Y$ standardnormalverteilt und unabhängig. Eine zweidimensional normalverteilte Zufallsvariable [mm] $(\hat{X}, \hat{Y})$ [/mm] ist dann definiert als
$$ [mm] \begin{pmatrix}\hat{X} \\ \hat{Y} \end{pmatrix} [/mm] = [mm] A\begin{pmatrix}X \\ Y \end{pmatrix} [/mm] + [mm] \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix}$$
[/mm]
wobei $$A := [mm] \begin{pmatrix}
a & b \\
c & d \\
\end{pmatrix}$$ [/mm] |
Nun habe ich gelesen, dass [mm] $\hat{X}$ [/mm] und [mm] $\hat{Y}$ [/mm] unabhängig sind genau dann wenn sie unkorreliert sind. Analog sollte diese Aussage auch für höhere Dimensionen gelten, wobei dann paarweise Unkorreliertheit der Komponenten gefordert wird. Ich würde gerne wissen, wie man das beweist.
Ich habe leider die Befürchtung, etwas grundsätzlich falsch zu verstehen, denn wenn ich ansetze
[mm] $$\operatorname{Cov}(\hat{X}, \hat{Y}) [/mm] = [mm] \operatorname{E}(\hat{X} \hat{Y}) [/mm] - [mm] \operatorname{E}(\hat{X})\operatorname{E}(\hat{Y}) [/mm] = [mm] ac(\operatorname{E}(X^2) [/mm] - [mm] \operatorname{E}(X)^2)+bd(\operatorname{E}(Y^2) [/mm] - [mm] \operatorname{E}(Y)^2) [/mm] = 0$$
(Wobei die letzte Gleichheit gilt wegen [mm] $\operatorname{E}(X^2) [/mm] = 0 = [mm] \operatorname{E}(X)^2$ da$\operatorname{E}(X) [/mm] = 0$)
bekomme ich, dass [mm] $\hat{X}$ [/mm] und [mm] $\hat{Y}$ [/mm] immer unkorreliert sind, ganz unabhängig von der Matrix $A$. Wo liegt mein (Denk-) Fehler?
Im Vorraus bin ich für jede Hilfe sehr dankbar!
PS: Ich habe meine Frage auch hier gestellt, jedoch nach einiger Zeit (noch) keine Antwort erhalten:
https://math.stackexchange.com/questions/2448304/understanding-problem-pairwise-uncorrelated-iff-independent
|
|
|
|
> Seien [mm]X, Y[/mm] standardnormalverteilt und unabhängig. Eine
> zweidimensional normalverteilte Zufallsvariable [mm](\hat{X}, \hat{Y})[/mm]
> ist dann definiert als
>
> [mm]\begin{pmatrix}\hat{X} \\ \hat{Y} \end{pmatrix} = A\begin{pmatrix}X \\ Y \end{pmatrix} + \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix}[/mm]
>
> wobei [mm][/mm]A := [mm]\begin{pmatrix}
a & b \\
c & d \\
\end{pmatrix}[/mm][mm][/mm]
> Nun habe ich gelesen,
> dass [mm]\hat{X}[/mm] und [mm]\hat{Y}[/mm] unabhängig sind genau dann wenn
> sie unkorreliert sind. Analog sollte diese Aussage auch
> für höhere Dimensionen gelten, wobei dann paarweise
> Unkorreliertheit der Komponenten gefordert wird. Ich würde
> gerne wissen, wie man das beweist.
>
> Ich habe leider die Befürchtung, etwas grundsätzlich
> falsch zu verstehen, denn wenn ich ansetze
>
> [mm]\operatorname{Cov}(\hat{X}, \hat{Y}) = \operatorname{E}(\hat{X} \hat{Y}) - \operatorname{E}(\hat{X})\operatorname{E}(\hat{Y}) = ac(\operatorname{E}(X^2) - \operatorname{E}(X)^2)+bd(\operatorname{E}(Y^2) - \operatorname{E}(Y)^2) = 0[/mm]
>
> (Wobei die letzte Gleichheit gilt wegen
> [mm]\operatorname{E}(X^2) = 0 = \operatorname{E}(X)^2[/mm]
> da[mm]\operatorname{E}(X) = 0[/mm])
Hallo,
[mm]E(X^2)[/mm] ist (wegen EX=0) gleich der Varianz von X und damit 1.
>
> bekomme ich, dass [mm]\hat{X}[/mm] und [mm]\hat{Y}[/mm] immer unkorreliert
> sind, ganz unabhängig von der Matrix [mm]A[/mm]. Wo liegt mein
> (Denk-) Fehler?
>
> Im Vorraus bin ich für jede Hilfe sehr dankbar!
>
> PS: Ich habe meine Frage auch hier gestellt, jedoch nach
> einiger Zeit (noch) keine Antwort erhalten:
>
> https://math.stackexchange.com/questions/2448304/understanding-problem-pairwise-uncorrelated-iff-independent
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 15:13 Do 28.09.2017 | Autor: | sandroid |
Ah sehr gut, vielen Dank!
Dann bekomme ich also im zweidimensionalen Fall [mm] $$\operatorname{Cov}(\hat{X}, \hat{Y}) [/mm] = ac+bd$$
Aus [mm] $\hat{X}, \hat{Y}$ [/mm] unkorreliert folgt alos $ac+bd = 0$. Wie man sich überlegt, ist dann die Kovarianzmatrix [mm] $AA^{T}$ [/mm] eine Diagonalmatrix. Dann findet man aber leicht eine Diagonalmatrix $B$ so dass [mm] $BB^{T} [/mm] = [mm] AA^{T}$. [/mm] Du nun die mehrdimensionale Normalverteilung zusammen mit der Kovarianzmatrix und dem Erwartungsvektor eindeutig bestimmt ist, gilt auch
$$ [mm] \begin{pmatrix}\hat{X} \\ \hat{Y} \end{pmatrix} [/mm] = [mm] B\begin{pmatrix}X \\ Y \end{pmatrix} [/mm] + [mm] \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix}$$
[/mm]
Dann ist also [mm] $\hat{X} [/mm] = [mm] B_{1,1}X [/mm] + [mm] \mu_1$ [/mm] und [mm] $\hat{Y} [/mm] = [mm] B_{2,2}Y [/mm] + [mm] \mu_2$.
[/mm]
Ist das so weit korrekt? Wie würde man jetzt am geschicktesten argumentieren, dass [mm] $\hat{X}$ [/mm] und [mm] $\hat{Y}$ [/mm] unabhängig sind?
Ich werde bei Gelegenheit mal versuchen, das auf höhere Dimensionen zu verallgemeinern.
|
|
|
|
|
> Ah sehr gut, vielen Dank!
>
> Dann bekomme ich also im zweidimensionalen Fall
> [mm]\operatorname{Cov}(\hat{X}, \hat{Y}) = ac+bd[/mm]
>
> Aus [mm]\hat{X}, \hat{Y}[/mm] unkorreliert folgt alos [mm]ac+bd = 0[/mm]. Wie
> man sich überlegt, ist dann die Kovarianzmatrix [mm]AA^{T}[/mm]
> eine Diagonalmatrix. Dann findet man aber leicht eine
> Diagonalmatrix [mm]B[/mm] so dass [mm]BB^{T} = AA^{T}[/mm]. Du nun die
> mehrdimensionale Normalverteilung zusammen mit der
> Kovarianzmatrix und dem Erwartungsvektor eindeutig bestimmt
> ist, gilt auch
>
> [mm]\begin{pmatrix}\hat{X} \\ \hat{Y} \end{pmatrix} = B\begin{pmatrix}X \\ Y \end{pmatrix} + \begin{pmatrix} \mu_1 \\ \mu_2 \end{pmatrix}[/mm]
>
> Dann ist also [mm]\hat{X} = B_{1,1}X + \mu_1[/mm] und [mm]\hat{Y} = B_{2,2}Y + \mu_2[/mm].
Hallo nochmal,
die Argumentation scheint mit korrekt.
>
> Ist das so weit korrekt? Wie würde man jetzt am
> geschicktesten argumentieren, dass [mm]\hat{X}[/mm] und [mm]\hat{Y}[/mm]
> unabhängig sind?
>
Sind X und Y unabhängig, so auch f(X) und g(Y) für beliebige Funktionen f und g. Das lässt sich mit Hilfe der Definition der Unabhängigkeit leicht einsehen.
> Ich werde bei Gelegenheit mal versuchen, das auf höhere
> Dimensionen zu verallgemeinern.
>
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:22 Do 28.09.2017 | Autor: | luis52 |
Moin, so richtig verstehe ich deine Argumentation nicht. Zunaechst: Dass aus der Unabhaengigkeit die Unkorreliertheit folgt, duerfte klar sein. Fuer die andere Richtung solltest du dir mal die gemeinsame Dichte $f(x,y)$ von $ [mm] \begin{pmatrix}\hat{X} \\ \hat{Y} \end{pmatrix}$ [/mm] anschauen. Gelingt eine Darstellung der Form [mm] $f(x,y)=g(x)\cdot [/mm] h(y)$, wobei $g(x)$ bzw. $h(y)$ nur von $x_$ bzw. $y_$ abhaengt, so folgt die Unabhaengigkeit.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:58 Sa 30.09.2017 | Autor: | sandroid |
Vielen Dank! Ich habe jetzt die Normalverteilung besser verstanden.
|
|
|
|