Martingale, Spieltheorie < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) reagiert/warte auf Reaktion | Datum: | 23:18 Do 24.06.2010 | Autor: | kevin314 |
Aufgabe | Bei einem Spiel gewinnt man pro Runde für jeden Euro Einsatz [mm] $\epsilon_n$ [/mm] Euro, wobei [mm] $(\epsilon_n)$ [/mm] unabhängige Zufallsvariablen sind mit [mm] $\IP(\epsilon_n=1)=p$ [/mm] und [mm] $\IP(\epsilon_n=-1)=1-p$ [/mm] für [mm] $p\geq [/mm] 1/2$. Der Einsatz [mm] $X_n$ [/mm] für das n-te Spiel muss zwischen 0 und dem vorhandenen Kapital zur Zeit n-1, [mm] $K_{n-1}$ [/mm] liegen. Ihr Ziel ist es für [mm] $N\in \IN$ [/mm] und [mm] $C_0>0$ [/mm] die Größe [mm] $E[log(K_n/K_0)]$ [/mm] zu maximieren. Zeigen Sie, dass für
[mm] $\alpha [/mm] = p*log(p)+(1-p)*log(1-p)+log(2)$
und eine beliebige Strategie $X$ der Prozess [mm] $log(K_n)-n\alpha$ [/mm] ein Supermartingal bezüglich der Filtration [mm] $A_n [/mm] := [mm] \sigma(\epsilon_1,...,\epsilon_n)$ [/mm] bildet. Es gilt also stets [mm] $E[log(K_N/K_0)] \leq N\alpha$. [/mm] Finden Sie eine optimale Strategie derart, dass [mm] $log(K_n)-n\alpha$ [/mm] sogar ein Martingal ist. |
Wow,
das sieht übel aus! zunächst könnte man ja
[mm] $K_n [/mm] = [mm] K_{n-1}+\epsilon_n*X_n$
[/mm]
schreiben. Will ich jetzt zeigen, dass [mm] $K_n-n\alpha$ [/mm] ein Supermartingal ist, muss ich zeigen, dass gilt:
[mm] $E[log(K_{n+1})-(n+1)\alpha|\mathcal{A}_n] \leq log(K_n)-n\alpha$
[/mm]
man hat ja
[mm] $E[log(K_{n+1})-(n+1)\alpha|\mathcal{A}_n]
[/mm]
= [mm] E[log(K_n+\epsilon_{n+1}*X_{n+1})-(n+1)\alpha|\mathcal{A}_n]
[/mm]
= [mm] E[log(K_n+\epsilon_{n+1}*X_{n+1})-\alpha|\mathcal{A}_n]-n\alpha
[/mm]
ich bekomme den Logarithmus einfach nicht weg! Und dieses [mm] $\alpha$ [/mm] habe ich auch noch nicht so ganz verstanden. Man kann ja [mm] $\alpha$ [/mm] auch umschreiben:
[mm] $\alpha [/mm] = [mm] log(p^p*q^q*2)$
[/mm]
für $q := 1-p$, vielleicht hat ja noch jemand einen kreativen Einfall!
Gruß Kevin
|
|
|
|
Hallo,
> Bei einem Spiel gewinnt man pro Runde für jeden Euro
> Einsatz [mm]\epsilon_n[/mm] Euro, wobei [mm](\epsilon_n)[/mm] unabhängige
> Zufallsvariablen sind mit [mm]\IP(\epsilon_n=1)=p[/mm] und
> [mm]\IP(\epsilon_n=-1)=1-p[/mm] für [mm]p\geq 1/2[/mm]. Der Einsatz [mm]X_n[/mm] für
> das n-te Spiel muss zwischen 0 und dem vorhandenen Kapital
> zur Zeit n-1, [mm]K_{n-1}[/mm] liegen. Ihr Ziel ist es für [mm]N\in \IN[/mm]
> und [mm]C_0>0[/mm] die Größe [mm]E[log(K_n/K_0)][/mm] zu maximieren. Zeigen
> Sie, dass für
>
> [mm]\alpha = p*log(p)+(1-p)*log(1-p)+log(2)[/mm]
>
> und eine beliebige Strategie [mm]X[/mm] der Prozess [mm]log(K_n)-n\alpha[/mm]
> ein Supermartingal bezüglich der Filtration [mm]A_n := \sigma(\epsilon_1,...,\epsilon_n)[/mm]
> bildet. Es gilt also stets [mm]E[log(K_N/K_0)] \leq N\alpha[/mm].
> Finden Sie eine optimale Strategie derart, dass
> [mm]log(K_n)-n\alpha[/mm] sogar ein Martingal ist.
> Wow,
>
> das sieht übel aus! zunächst könnte man ja
>
> [mm]K_n = K_{n-1}+\epsilon_n*X_n[/mm]
>
> schreiben. Will ich jetzt zeigen, dass [mm]K_n-n\alpha[/mm] ein
> Supermartingal ist, muss ich zeigen, dass gilt:
>
> [mm]E[log(K_{n+1})-(n+1)\alpha|\mathcal{A}_n] \leq log(K_n)-n\alpha[/mm]
>
> man hat ja
>
> [mm]$E[log(K_{n+1})-(n+1)\alpha|\mathcal{A}_n][/mm]
>
> =
> [mm]E[log(K_n+\epsilon_{n+1}*X_{n+1})-(n+1)\alpha|\mathcal{A}_n][/mm]
>
> =
> [mm]E[log(K_n+\epsilon_{n+1}*X_{n+1})-\alpha|\mathcal{A}_n]-n\alpha[/mm]
>
>
> ich bekomme den Logarithmus einfach nicht weg!
Du könntest die Jensen-Ungleichung (in der anderen Richtung) anwenden, log ist konkav...
Unser Übungsleiter hat gesagt, dass man die spezielle Form von [mm] \alpha [/mm] nicht einsetzen muss, sondern dass diese sich ohnehin ergibt.
Grüße,
Stefan
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:30 Fr 25.06.2010 | Autor: | kevin314 |
Hey,
danke für den tipp, jensen sieht schon mal gut aus!
[mm] $E[log(K_n+\epsilon_{n+1}\cdot{}X_{n+1})|\mathcal{A}_n]-\alpha-n\alpha
[/mm]
[mm] \geq log(E[K_n+\epsilon_{n+1}\cdot{}X_{n+1}|\mathcal{A}_n])-\alpha-n\alpha
[/mm]
= [mm] log(K_n) [/mm] + [mm] log(X_{n+1}*E[\epsilon_{n+1}|\mathcal{A}_n]) -\alpha-n\alpha$ [/mm] (Messbarkeit, Vorhersagbarkeit)
$ = [mm] log(K_n) [/mm] + [mm] log(X_{n+1}*\epsilon_{n+1}) -\alpha-n\alpha$ [/mm] Unabhängigkeit
jetzt müsste ich ja zeigen, dass
[mm] $log(X_{n+1}*\epsilon_{n+1}) -\alpha \geq [/mm] 0$
ich denke aber eher, dass ich mich auf dem Weg schon vertan habe.
|
|
|
|
|
Hi
Erst mal kann man sich streiten ob es [mm] \varepsilon_n [/mm] oder
[mm] \varepsilon_(n+1) [/mm] heißen muss. Aber das ist auch nicht so wichtig.
Kann das sein, dass du Jensen falsch verwendet hast ?
Du willst ja eine Supermartingaleigenschaft zeigen.
Wie hast du denn den log auseinandergezogen ?
Wär das schön, wenn der log additiv wäre ;) !
Es gilt also:
$ [mm] $E[log(K_n+\epsilon_{n+1}\cdot{}X_{n+1})|\mathcal{A}_n]=
man könnte nun verwenden, dass log(a+b)=loga+log(1+b/a)
damit folgt [mm] log(E[K_n+\epsilon_{n+1}\cdot{}X_{n+1}|\mathcal{A}_n])=log(K_n)+log(1+\varepsilon_(n+1)*X_(n+1)/K_n)
[/mm]
Der hintere quotient ist dann ja kleiner, gleich 1.
man müsste also noch [mm] log(1+\varepsilon_(n+1)*X_(n+1)/K_n)=<\alpha [/mm] zeigen.
Hoffe das hilft ein wenig.
Melde dich doch nochmal zurück wenn du weiter bist, würd mich auch interessieren.
Gruß mOe
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 14:22 Sa 26.06.2010 | Autor: | kevin314 |
d'oh,
für den logartihmusschnitzer komme ich bestimmt in die mathehölle. komme erst heute abend wieder zum rechnen, melde mich wieder
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:25 Sa 26.06.2010 | Autor: | pokermoe |
Hi
Wir haben uns oben vertan.
Da die Epsilons unabhängig sind, ergibt sich E(e_(n+1) / [mm] A_n)=E(e_n+1)
[/mm]
Damit kann man vielleicht sehen, dass dann [mm] log(1+X_(n+1)*E(e_(n+1)/K_n)\le\alpha [/mm] gilt.
Wäre der Erwartunswert der Epsilon Null, so wäre dies klar.
Gruß
|
|
|
|
|
Okay,
nächster Versuch:
$ [mm] X_n [/mm] = [mm] a_n*K_{n-1}$ [/mm] mit [mm] $0\leq a_n\leq [/mm] 1$ vorhersagbar.
$ [mm] K_n [/mm] = [mm] K_{n-1}+\epsilon_n\cdot{}X_n [/mm] = [mm] K_{n-1}+\epsilon_n*a_n*K_{n-1} [/mm] $
Jetzt will ich zeigen, dass $ [mm] K_n-n\alpha [/mm] $ ein Supermartingal ist, also muss ich zeigen, dass gilt:
$ [mm] E[log(K_{n+1})-(n+1)\alpha|\mathcal{A}_n] \leq log(K_n)-n\alpha [/mm] $
man hat ja
[mm] $E[log(K_{n+1})-(n+1)\alpha|\mathcal{A}_n] [/mm] $
= $ [mm] E[log(K_n+\epsilon_{n+1}*X_{n+1})-(n+1)\alpha|\mathcal{A}_n] [/mm] $
= $ [mm] E[log(K_n+\epsilon_{n+1}*a_{n+1}*K_n)|\mathcal{A}_n]-(n+1)*\alpha [/mm] $
= $ [mm] E[log(K_n*(1+\epsilon_{n+1}*a_{n+1})|\mathcal{A}_n]-(n+1)*\alpha [/mm] $
= $ [mm] E[log(K_n)+log((1+\epsilon_{n+1}*a_{n+1})|\mathcal{A}_n]-(n+1)*\alpha [/mm] $
= $ [mm] log(K_n)+E[log((1+\epsilon_{n+1}*a_{n+1})|\mathcal{A}_n]-(n+1)*\alpha [/mm] $
= $ [mm] log(K_n)+p*(log(1+a_{n+1}))+(1-p)*(log(1-a_{n+1}))-(n+1)*\alpha [/mm] $
= $ [mm] log(K_n)-n*\alpha [/mm] + [mm] log((1+a_{n+1})^p*(1-a_{n+1})^{1-p})-\alpha [/mm] $
d.h. zu zeigen ist noch, dass
[mm] $log((1+a_{n+1})^p*(1-a_{n+1})^{1-p})\leq\alpha$
[/mm]
oder
[mm] $(1+a_{n+1})^p*(1-a_{n+1})^{1-p}\leq\exp(\alpha)$
[/mm]
vielleicht geht das so...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:20 Di 29.06.2010 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|