Lindeberg-Bedingung < Stochastik < Hochschule < Mathe < Vorhilfe
|
Hallo,
ich muss diesmal die folgende Lindeberg-Bedingung nachweisen:
[mm] \limes_{n\rightarrow\infty}EnX*1\{nX>n\varepsilon\}=0,
[/mm]
wobei folgende Information vorliegt:
1) [mm] nX\ge0 [/mm]
2) [mm] EnX-->C<\infty
[/mm]
3) EX-->0
4) [mm] P\{nX>n\varepsilon\}-->0
[/mm]
Eigentlich sieht man schon, dass aus diesen 4 Bedingungen die obige Aussage folgt, aber ich würde das gerne mathematisch sauber aufschreiben. Könnte mir bitte jemand helfen.
ps: X hängt von n ab; da, wo Pfeile stehen, wird der Grenzwert für [mm] n-->\infty [/mm] gebildet.
Grüße.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 04:19 Fr 13.09.2013 | Autor: | tobit09 |
Hallo Cauchy123,
> ich muss diesmal die folgende Lindeberg-Bedingung
> nachweisen:
>
> [mm]\limes_{n\rightarrow\infty}EnX*1\{nX>n\varepsilon\}=0,[/mm]
>
> wobei folgende Information vorliegt:
>
> 1) [mm]nX\ge0[/mm]
>
> 2) [mm]EnX-->C<\infty[/mm]
>
> 3) EX-->0
>
> 4) [mm]P\{nX>n\varepsilon\}-->0[/mm]
>
> ps: X hängt von n ab; da, wo Pfeile stehen, wird der
> Grenzwert für [mm]n-->\infty[/mm] gebildet.
Ich verstehe dich folgendermaßen:
Wir haben eine Folge [mm] $(X_n)_{n\in\IN}$ [/mm] von Zufallsgrößen gegeben, die folgenden Bedingungen genügen:
1) [mm] $n*X_n\ge0$ [/mm] für alle [mm] $n\in\IN$
[/mm]
(Das heißt nichts anderes als [mm] $X_n\ge0$ [/mm] für alle [mm] $n\in\IN$.)
[/mm]
(Von nichtnegativen Zufallsgrößen können wir den Erwartungswert als Element von [mm] $[0,\infty]$ [/mm] bilden.)
2) [mm] $(E(n*X_n))_{n\in\IN}$ [/mm] konvergiert gegen eine reelle Zahl $C$.
3) [mm] $(EX_n)_{n\in\IN}$ [/mm] konvergiert gegen $0$.
(Das folgt ohnehin aus 2).)
4) [mm] (P(n*X_n>n*\varepsilon))_{n\in\IN} [/mm] konvergiert gegen $0$ für alle [mm] $\varepsilon>0$.
[/mm]
(Das Ereignis [mm] $\{n*X_n>n*\varepsilon\}$ [/mm] ist nur eine umständliche Schreibweise für [mm] $\{X_n>\varepsilon\}$... [/mm] )
Du behauptest nun, dass
[mm] $\limes_{n\rightarrow\infty}E(n*X_n*1_{\{n*X>n*\varepsilon\}})=0$
[/mm]
für alle [mm] $\varepsilon>0$ [/mm] folgt.
Das stimmt nicht. Betrachte etwa eine beliebige Folge [mm] $(X_n)_{n\in\IN}$ [/mm] von Zufallsgrößen [mm] $X_n$ [/mm] mit
[mm] $P(X_n=1)=\bruch1n$ [/mm] und [mm] $P(X_n=0)=1-\bruch1n$
[/mm]
sowie [mm] $\varepsilon:=\bruch12$.
[/mm]
Viele Grüße
Tobias
|
|
|
|
|
Status: |
(Frage) reagiert/warte auf Reaktion | Datum: | 14:31 Fr 13.09.2013 | Autor: | Cauchy123 |
Hallo Tobias,
vielen Dank für die Mühe.
Ich hätte mit einem Gegenbeispiel eigentlich nicht gerechnet. Die Voraussetzungen haben den Eindruck gemacht, sie wären für den Nachweis der Lindeberg-Bedingung ausreichend. Das sieht für meine Situation auch nicht gut aus, da ich beweisen muss, dass diese Lindeberg-Bedingung gilt.
Es stellt sich die Frage: unter welchen Zusatzbedingungen an X könnte man die Konvergenz doch folgern? Ich würde mich freuen, wenn dir eine Idee einfallen würde. Mehr benötige ich nicht.
Im Moment weiß ich nur, dass X eine stetige Lebesgue-Dichte hat.
Vielen Dank im voraus.
Grüße.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 01:10 Sa 14.09.2013 | Autor: | tobit09 |
Vielleicht schilderst du mal den genauen Zusammenhang, um den es geht? Ich befürchte nämlich, dass dir mit dieser bisherigen vagen Fragestellung niemand weiterhelfen kann.
|
|
|
|
|
So, ich möchte die Fragestellung aktualisieren und sie mit einigen neuen Informationen ergänzen:
Zu zeigen: [mm] \limes_{n\rightarrow\infty}\sum_{i=1}^{n}EY_{ni}^{2}1\{|Y_{ni}|>\varepsilon\}=0,
[/mm]
wobei folgende Voraussetzungen gelten:
1. [mm] Y_{n1},\ldots,Y_{nn} [/mm] sind für jedes feste n unabhängig und identisch verteilt. Die Zufallsvariablen folgen einem Dreiecksmuster.
2. [mm] Y_{ni} [/mm] stellt eine stetige Lebesgue-Dichte dar.
3. [mm] \limes_{n\rightarrow\infty}\sum_{i=1}^{n}EY_{ni}^{2}=C<\infty
[/mm]
4. [mm] \limes_{n\rightarrow\infty}P{|Y_{ni}|>\varepsilon\}=0 [/mm] für jedes [mm] i\in\IN.
[/mm]
Ich denke, es ist offensichtlich, dass der obige Ausdruck gegen 0 konvergiert. Wie schreibe ich das nur mathematisch präzise auf? Mir fällt leider keine geeignete Umformung ein.
Grüße.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 01:05 Sa 14.09.2013 | Autor: | tobit09 |
> Zu zeigen:
> [mm]\limes_{n\rightarrow\infty}\sum_{i=1}^{n}EY_{ni}^{2}1\{|Y_{ni}|>\varepsilon\}=0,[/mm]
>
> wobei folgende Voraussetzungen gelten:
>
> 1. [mm]Y_{n1},\ldots,Y_{nn}[/mm] sind für jedes feste n unabhängig
> und identisch verteilt. Die Zufallsvariablen folgen einem
> Dreiecksmuster.
>
> 2. [mm]Y_{ni}[/mm] stellt eine stetige Lebesgue-Dichte dar.
>
> 3.
> [mm]\limes_{n\rightarrow\infty}\sum_{i=1}^{n}EY_{ni}^{2}=C<\infty[/mm]
>
> 4. [mm]\limes_{n\rightarrow\infty}P{|Y_{ni}|>\varepsilon\}=0[/mm]
> für jedes [mm]i\in\IN.[/mm]
Bei 2. meinst du, dass die [mm] $Y_{ni}$ [/mm] stetige Lebesgue-Dichten besitzen, oder?
Wenn man die Forderung 2. wegließe, so erhielte man bei Wahl von 1. genügenden Zufallsgrößen [mm] $Y_{ni}$ [/mm] mit
[mm] $P(Y_{ni}=1)=\bruch1n$ [/mm] und [mm] $P(Y_{ni}=0)=1-\bruch1n$
[/mm]
für [mm] $\varepsilon:=\bruch12$ [/mm] wieder ein Gegenbeispiel zu deiner Behauptung.
Ich bin davon überzeugt, dass auch die Forderung 2. nichts an der Falschheit deiner Behauptung ändert. Ich habe allerdings keine Lust mir die (vermutlich etwas mühsame) Arbeit zu machen ein entsprechendes Gegenbeispiel zu basteln.
|
|
|
|
|
Hallo Tobias,
ich bin wegen der zweiten Bedingung vom Gegenteil überzeugt, weil die Wahrscheinlichkeit für [mm] \{Y_{ni}=0\} [/mm] gleich 0 ist, was die Berechnung des Erwartungswerts erheblich beeinflusst. Deshalb werden Gewichte, die von 0 weiter entfernt liegen, viel weniger Gewicht erhalten müssen, als wie in deinem diskreten Gegenbeispiel der Fall war, wo das ganze Gewicht im Punkt [mm] Y_{ni}=1 [/mm] enthalten war.
Grüße.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 11:38 Sa 14.09.2013 | Autor: | tobit09 |
> ich bin wegen der zweiten Bedingung vom Gegenteil
> überzeugt, weil die Wahrscheinlichkeit für [mm]\{Y_{ni}=0\}[/mm]
> gleich 0 ist, was die Berechnung des Erwartungswerts
> erheblich beeinflusst.
Das diskrete Beispiel lässt sich so abändern, dass [mm] $P(Y_{ni}=0)=0$ [/mm] gilt:
Man wähle die [mm] $Y_{ni}$ [/mm] so, dass sie 1. genügen und
[mm] $P(Y_{ni}=\wurzel{\bruch1n})=1-\bruch1{n-1}$ [/mm] sowie [mm] $P(Y_{ni}=1)=\bruch1{n-1}$
[/mm]
für alle [mm] $n\ge [/mm] 2$ gilt.
Diese Verteilungen der [mm] $Y_{ni}$ [/mm] wird man so durch Verteilungen mit stetiger Lebesgue-Dichte "approximieren" können, dass man ein Gegenbeispiel mit 2. erhält.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:21 Sa 14.09.2013 | Autor: | Cauchy123 |
Tobias,
vielen Dank für deine Mühe.
Ich bin recht verblüfft, dass es doch ein Gegenbeispiel zu geben scheint.
Jetzt muss ich mir überlegen, welche zusätzliche Bedingungen man an die Zufallsvariablen noch stellen muss, damit der Grenzwert doch verschwindet.
Grüße.
|
|
|
|