Konsistenz MLS < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 18:04 Mi 08.01.2014 | Autor: | Fry |
Aufgabe | <br>
Es sei [mm]\theta\in\mathbb N[/mm] und wir betrachten eine Urne mit [mm]\theta[/mm] Kugeln, die von 1 bis [mm]\theta[/mm] beschriftet sind. Es werden n Kugeln mit Zurücklegen gezogen. [mm]X_i[/mm] sei die Nummer der i-ten gezogenen Kugel.
Bestimmen Sie einen MLS für [mm]\theta[/mm].
Prüfen Sie, ob der MLS erwartungstreu und konsistent ist. |
<br>
Hallo zusammen,
also ich habe gezeigt, dass [mm]T(X_1,...,X_n):=\max_{1\le i\le n}X_i[/mm] MLS für [mm]\theta[/mm] ist, wenn [mm]X_1[/mm],...,[mm]X_n[/mm] st.u. und identisch Laplace auf [mm]1,...,\theta[/mm] verteilt sind. T ist nicht erwartungstreu.
Bei der Konsistenz komme ich allerdings nicht weiter. Da ja der MLS nicht erwartungstreu ist, kann man Tschebyscheff z.B. nicht anwenden. Hab überlegt, ob der MLS eventuell nicht konsistent ist und man mit nem Gegenbeweis folgender
Art arbeiten könnte:
Annahme: MLS ist konsistent, also [mm]\max X_i \xrightarrow[]{P}\theta.
[/mm] Nun gilt ja [mm]\frac{1}{n}\sum_{i=1}^{n}X_i\le \max X_i[/mm].
Falls (!) nun gelte würde [mm]P(|\frac{1}{n}\sum_{i=1}^{n}X_i-\theta|>\varepsilon)\le P(|\max X_i-\theta|>\varepsilon)[/mm],
so würde [mm]\frac{1}{n}\sum_{i=1}^{n}X_i \xrightarrow[]{P}\theta
[/mm] vorliegen, allerdings müsste nach dem WLLN [mm]\frac{1}{n}\sum_{i=1}^{n}X_i \xrightarrow[]{P}E[X_1]=\frac{\theta+1}{2}
[/mm] gelten. Widerspruch für [mm]\theta\not=1[/mm]. Allerdings nehme ich mal an, dass die obige Abschätzung nicht gilt, oder?
Hat jemand eine andere Idee?
LG
Christian
|
|
|
|
Hallo und guten Abend,
> <br>
> Es sei [mm]\theta\in\mathbb N[/mm] und wir betrachten eine Urne mit
> [mm]\theta[/mm] Kugeln, die von 1 bis [mm]\theta[/mm] beschriftet sind. Es
> werden n Kugeln mit Zurücklegen gezogen. [mm]X_i[/mm] sei die
> Nummer der i-ten gezogenen Kugel.
> Bestimmen Sie einen MLS für [mm]\theta[/mm].
> Prüfen Sie, ob der MLS erwartungstreu und konsistent
> ist.
>
> <br>
>
> Hallo zusammen,
>
>
> also ich habe gezeigt, dass [mm]T(X_1,...,X_n):=\max_{1\le i\le n}X_i[/mm]
> MLS für [mm]\theta[/mm] ist, wenn [mm]X_1[/mm],...,[mm]X_n[/mm] st.u. und identisch
> Laplace auf [mm]1,...,\theta[/mm] verteilt sind. T ist nicht
> erwartungstreu.
Das ist richtig. Als Erwartungswert bekomme ich
[mm] $E\left(\max\limits_{i=1,\hdots,n}X_{i}\right)=\theta-\sum\limits_{i=1}^{\theta-1}\left(\frac{i}{\theta}\right)^{n}$
[/mm]
> Bei der Konsistenz komme ich allerdings nicht weiter. Da
> ja der MLS nicht erwartungstreu ist, kann man Tschebyscheff
> z.B. nicht anwenden. Hab überlegt, ob der MLS eventuell
> nicht konsistent ist und man mit nem Gegenbeweis folgender
> Art arbeiten könnte:
> Annahme: MLS ist konsistent, also [mm]\max X_i \xrightarrow[]{P}\theta.
[/mm]
> Nun gilt ja [mm]\frac{1}{n}\sum_{i=1}^{n}X_i\le \max X_i[/mm]Eingabefehler: "\left" und "\right" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
.
Es gilt weiterhin $\max\limits_{i=1,\hdots,n}X_{i}\leq \theta \left(\star\right)$
da ja als maximale Nummer $\theta$ auftreten kann.
Jetzt betrachte mal für $\varepsilon>0$
$P\left(\left|\max\limits_{i=1,\hdots,n} X_{i}-\theta\right|>\varepsilon)$ und wende die Markovsche Ungleichung darauf an. Was erhälst du?
Und was kannst du insbesondere über $\left|\max\limits_{i=1,\hdots,n} X_{i}-\theta\right|$ sagen, wenn du dir $\star$ anschaust.
>
> Falls (!) nun gelte würde
> [mm]P(|\frac{1}{n}\sum_{i=1}^{n}X_i-\theta|>\varepsilon)\le P(|\max X_i-\theta|>\varepsilon)[/mm],
>
> so würde [mm]\frac{1}{n}\sum_{i=1}^{n}X_i \xrightarrow[]{P}\theta
[/mm]
> vorliegen, allerdings müsste nach dem WLLN
> [mm]\frac{1}{n}\sum_{i=1}^{n}X_i \xrightarrow[]{P}E[X_1]=\frac{\theta+1}{2}
[/mm]
> gelten. Widerspruch für [mm]\theta\not=1[/mm]. Allerdings nehme ich
> mal an, dass die obige Abschätzung nicht gilt, oder?
>
> Hat jemand eine andere Idee?
>
> LG
> Christian
Viele Grüße
Blasco
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:04 Fr 10.01.2014 | Autor: | Fry |
Hey Blasco,
vielen Dank für deine Antwort.
Ich habs jetzt mal folgendermaßen gemacht:
[mm]P(|\max X_i-\theta|>\varepsilon)\le \frac{E|max X_i-\theta|}{\varepsilon}=\frac{-E(max X_i-\theta)}{\varepsilon}=\frac{1}{\varepsilon}\sum_{i=1}^{\theta-1}\left(\frac{i}{\theta}\right)^n\to 0[/mm]
für [mm]n\to\infty[/mm]
Stimmt das so?
LG
Christian
|
|
|
|
|
Hallo,
> Hey Blasco,
>
> vielen Dank für deine Antwort.
> Ich habs jetzt mal folgendermaßen gemacht:
> [mm]P(|\max X_i-\theta|>\varepsilon)\le \frac{E|max X_i-\theta|}{\varepsilon}=\frac{-E(max X_i-\theta)}{\varepsilon}=\frac{1}{\varepsilon}\sum_{i=1}^{\theta-1}\left(\frac{i}{\theta}\right)^n\to 0[/mm]
>
> für [mm]n\to\infty[/mm]
>
> Stimmt das so?
>
ja das stimmt jetzt so.
> LG
> Christian
Gruss (amerikanische Tastaturen sind doof)
Blasco
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 12:19 Fr 10.01.2014 | Autor: | Fry |
Supi, herzlichen Dank nochmal! :)
|
|
|
|