Cesaro-Mittel < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Sei [mm] (X_n)_{n\in\mathbb{N}} [/mm] eine Folge von Zufallsvariablen, die fast sicher gegen 0 konvergiert. Dann konvergiert auch die Folge der Cesaro-Mittel [mm] (C_n)_{n\in\mathbb{N}} [/mm] fast sicher gegen 0.
Zeigen Sie, dass diese Implikation nicht gilt, wenn man fast sichere Konvergenz gegen Konvergenz in Wahrscheinlichkeit austauscht. |
Puh.... Da versteh ich mal nur Bahnhof. Es ist nur als Hinweis gegeben, dass wir die Aussage bzgl. der fast sicheren Konvergenz hinnehmen können und eine Folge [mm] (X_n)_n [/mm] von unabhängigen Zufallsvariablen betrachten sollen, so dass [mm] X_n [/mm] für [mm] n\in\mathbb{N} [/mm] die Verteilungsfunktion
[mm] F^{X_n}(x)=\left\{\begin{array}{cl} 0, & \mbox{für }x\le 0\\ 1-\frac{1}{x+n} & \mbox{für}x>0 \end{array}\right\
[/mm]
Dazu soll zunächst gezeigt werden, dass für alle [mm] \epsilon [/mm] > 0 gilt:
[mm] P(\frac{M_n}{n}>\epsilon)\le P(C_n>\epsilon)
[/mm]
wobei [mm] M_n :=max\{X_1,...,X_n\}.
[/mm]
Ich hab ehrlich gesagt nicht den leisesten Schimmer wie ich den Hinweis anwenden soll, bzw. was mir der bringen soll. Bitte ganz dringend um Hilfe.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 01:30 Fr 22.11.2013 | Autor: | Fry |
Hey,
also entsprechend der Def. der Verteilungsfunktion der [mm]X_n[/mm] nehmen die [mm]X_n[/mm] nur positive Werte an.
Damit ist [mm]P(|C_n|>\varepsilon)=P(C_n>\varepsilon)[/mm]
Bei der stochastischen Konvergenz müsste dieser Ausdruck für [mm]n\to\infty[/mm] gegen 0 konvergieren.
Da man aber zeigen soll, dass dies nicht geht, ist der Hinweis so gemeint, dass du [mm]P(M_n >n\varepsilon)[/mm]
berechnen sollst bzw nach unten abschätzen sollst. Wenn z.B. dann [mm]\lim_{n\to\infty}P(M_n>n\varepsilon)\ge a_\varepsilon>0[/mm],
dann ist aufgrund des Hinweises auch [mm]\lim_{n\to\infty} P(C_n>\varepsilon)\ge a_\varepsilon[/mm].
Der Hinweis gilt natürlich, weil die [mm]X_i\ge 0[/mm]. Denn: Sei z.B. [mm]X_1=max_{1\le i\le n}X_i[/mm]
Dann ist natürlich [mm]X_1+X_2\ge X_1[/mm] und entsprechend [mm]\sum_{i=1}X_i\ge X_1[/mm]
also [mm]max X_i\ge n\varepsilon[/mm] => [mm]\sum_{i=1}^{n}X_i\ge n\varepsilon[/mm]
d.h. [mm]\{max X_i\ge n\varepsilon\}\subset\{\sum_{i=1}^{n}X_i\ge n\varepsilon\}[/mm]
VG
Fry
|
|
|
|
|
> Da man aber zeigen soll, dass dies nicht geht, ist der
> Hinweis so gemeint, dass du [mm]P(M_n >n\varepsilon)[/mm]
> berechnen
> sollst bzw nach unten abschätzen sollst. Wenn z.B. dann
> [mm]\lim_{n\to\infty}P(M_n>n\varepsilon)\ge a_\varepsilon>0[/mm],
>
> dann ist aufgrund des Hinweises auch [mm]\lim_{n\to\infty} P(C_n>\varepsilon)\ge a_\varepsilon[/mm].
Ok ich verstehe den Zusammenhang so langsam. Aber wie meinst du, dass ich [mm]P(M_n >n\varepsilon)[/mm] berechnen soll?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 09:59 Fr 22.11.2013 | Autor: | Fry |
Wie berechnet man denn die Verteilungsfunktion des Maximums? Steht auf dem Zettel.
|
|
|
|