Jensen UGL < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Zeige: Ist f(x) konvex so gilt [mm] \mathbb{E}(f(X)) \ge f(\mathbb{E}(X)) [/mm] - überlege dir den speziellen Fall : f(x) = [mm] x^2 [/mm] |
Hallo,
Also zum Fall [mm] f(x)=x^2 [/mm] : ich denke, dass das sehr rasch geht.
Falls die Gleichung gilt, so erhält man doch einfach
[mm] \mathbb{E}(X^2) \ge \mathbb{E}(X)^2 [/mm]
also
[mm] \mathbb{E}(X^2) [/mm] - [mm] \mathbb{E}(X)^2 \ge [/mm] 0
dies ist aber nichts anderes als Var(X) [mm] \ge [/mm] 0.
Zum ersten Teil : Ich denke man könnte ausnutzen, dass konvexe Funktionen immer über ihrer Tangente liegen, also [mm] \forall x^{\sim} [/mm] gibt es eine lineare Funktion
t(x)=ax+b mit [mm] t(x^{\sim}) [/mm] = [mm] f(x^{\sim}) [/mm] und sonst gilt t(x) [mm] \le [/mm] f(x) [mm] \forall [/mm] x.
mit [mm] x^{\sim} [/mm] = [mm] \mathbb{E}[X] [/mm] ist man dann fertig - oder übersehe ich was ?
Interessanter wäre es aber es wirklich mit der klassischen Definition von konvex zu zeigen... irgendwie komme ich da aber nicht wirklich weiter....habt ihr da Ideen?
Viele Grüße
Peter
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:28 Mi 07.10.2015 | Autor: | tobit09 |
Hallo Peter!
> Zeige: Ist f(x) konvex so gilt [mm]\mathbb{E}(f(X)) \ge f(\mathbb{E}(X))[/mm]
> - überlege dir den speziellen Fall : f(x) = [mm]x^2[/mm]
Es soll [mm] $f\colon\IR\to\IR$ [/mm] gelten?
$X$ ist eine integrierbare Zufallsgröße?
> Also zum Fall [mm]f(x)=x^2[/mm] : ich denke, dass das sehr rasch
> geht.
>
> Falls die Gleichung gilt, so erhält man doch einfach
>
> [mm]\mathbb{E}(X^2) \ge \mathbb{E}(X)^2[/mm]
>
> also
>
> [mm]\mathbb{E}(X^2)[/mm] - [mm]\mathbb{E}(X)^2 \ge[/mm] 0
>
> dies ist aber nichts anderes als Var(X) [mm]\ge[/mm] 0.
Die Varianz ist genau genommen üblicherweise nur im Falle quadratisch integrierbarer Zufallsgrößen definiert.
Aber die gleiche Rechnung, die für quadratisch integrierbares $X$ die Gleichung [mm] $Var(X)=E((X-EX)^2)=E(X^2)-(E(X))^2$ [/mm] zeigt, funktioniert auch für beliebiges integrierbares $X$.
> Zum ersten Teil : Ich denke man könnte ausnutzen, dass
> konvexe Funktionen immer über ihrer Tangente liegen, also
> [mm]\forall x^{\sim}[/mm] gibt es eine lineare Funktion
>
> t(x)=ax+b mit [mm]t(x^{\sim})[/mm] = [mm]f(x^{\sim})[/mm] und sonst gilt t(x)
> [mm]\le[/mm] f(x) [mm]\forall[/mm] x.
Achtung: Konvexe Funktionen sind im Allgemeinen nicht differenzierbar (Beispiel: $f(x):=|x|$), daher würde ich nicht von einer Tangente sprechen.
Aber man kann zeigen: Konvexe Funktionen [mm] $f\colon\IR\to\IR$ [/mm] sind rechts- und linksseitig differenzierbar (und damit rechts- und linksseitig stetig, also stetig, insbesondere messbar) und gegeben [mm] $x^\sim\in\IR$ [/mm] leisten $a$ gewählt als rechtsseitige Ableitung von f an der Stelle [mm] $x^\sim$ [/mm] und [mm] $b\in\IR$ [/mm] gewählt mit [mm] $f(x^\sim)=ax^\sim+b$ [/mm] das Gewünschte.
> mit [mm]x^{\sim}[/mm] = [mm]\mathbb{E}[X][/mm] ist man dann fertig - oder
> übersehe ich was ?
Die Idee ist vollkommen korrekt!
Sie ist sehr knapp notiert.
Wir erhalten
(1) $f(E(X))=t(E(X))=E(t(X))$.
Wegen der Messbarkeit von f ist auch $f(X)$ eine Zufallsgröße.
Wegen [mm] $t(X)\le [/mm] f(X)$ und der Integrierbarkeit von $t(X)$ ist auch $f(X)$ quasiintegrierbar und es gilt
(2) [mm] $E(t(X))\le [/mm] E(f(X))$.
Zusammengenommen erhalten wir aus (1) und (2) die Behauptung.
> Interessanter wäre es aber es wirklich mit der klassischen
> Definition von konvex zu zeigen... irgendwie komme ich da
> aber nicht wirklich weiter....habt ihr da Ideen?
Die mir bekannten Beweise zeigen zunächst (rein analytisch), dass im klassischen Sinne konvexe Funktionen auch in deinem Sinne konvex sind oder eine ähnliche Eigenschaft haben, und argumentieren anschließend in etwa wie du.
Ich habe leider keine Lust, einen Beweis der benötigten Eigenschaften konvexer Funktionen hier auszuarbeiten.
Du solltest einen solchen aber in vielen Wahrscheinlichkeitstheorie-Büchern im Zusammenhang mit der Jensenschen Ungleichung finden.
Auf jeden Fall ausgeführt wird ein solcher Beweis im Wahrscheinlichkeitstheorie-Buch von Bauer.
Viele Grüße
Tobias
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:42 Mi 07.10.2015 | Autor: | Thomas_Aut |
> Hallo Peter!
>
>
> > Zeige: Ist f(x) konvex so gilt [mm]\mathbb{E}(f(X)) \ge f(\mathbb{E}(X))[/mm]
> > - überlege dir den speziellen Fall : f(x) = [mm]x^2[/mm]
> Es soll [mm]f\colon\IR\to\IR[/mm] gelten?
> [mm]X[/mm] ist eine integrierbare oder nichtnegative
> Zufallsgröße?
Hallo Tobias,
Wollen wir meines Erachtens ganz korrekt sein, so benötigen wir :
-) [mm]f\colon\IR\to\IR[/mm]
-)X ist eine integrierbare ZV
-)und f(X) entweder integrierbar oder nicht negativ
>
>
> > Also zum Fall [mm]f(x)=x^2[/mm] : ich denke, dass das sehr rasch
> > geht.
> >
> > Falls die Gleichung gilt, so erhält man doch einfach
> >
> > [mm]\mathbb{E}(X^2) \ge \mathbb{E}(X)^2[/mm]
> >
> > also
> >
> > [mm]\mathbb{E}(X^2)[/mm] - [mm]\mathbb{E}(X)^2 \ge[/mm] 0
> >
> > dies ist aber nichts anderes als Var(X) [mm]\ge[/mm] 0.
> Die Varianz ist genau genommen üblicherweise nur im Falle
> quadratisch integrierbarer Zufallsgrößen definiert.
> Aber die gleiche Rechnung, die für quadratisch
> integrierbares [mm]X[/mm] die Gleichung
> [mm]Var(X)=E((X-EX)^2)=E(X^2)-(E(X))^2[/mm] zeigt, funktioniert auch
> für beliebiges integrierbares [mm]X[/mm].
>
>
> > Zum ersten Teil : Ich denke man könnte ausnutzen, dass
> > konvexe Funktionen immer über ihrer Tangente liegen, also
> > [mm]\forall x^{\sim}[/mm] gibt es eine lineare Funktion
> >
> > t(x)=ax+b mit [mm]t(x^{\sim})[/mm] = [mm]f(x^{\sim})[/mm] und sonst gilt t(x)
> > [mm]\le[/mm] f(x) [mm]\forall[/mm] x.
>
> Achtung: Konvexe Funktionen sind im Allgemeinen nicht
> differenzierbar (Beispiel: [mm]f(x):=|x|[/mm]), daher würde ich
> nicht von einer Tangente sprechen.
> Aber man kann zeigen: Konvexe Funktionen [mm]f\colon\IR\to\IR[/mm]
> sind rechts- und linksseitig differenzierbar (und damit
> rechts- und linksseitig stetig, also stetig, insbesondere
> messbar) und gegeben [mm]x^\sim\in\IR[/mm] leisten [mm]a[/mm] gewählt als
> rechtsseitige Ableitung von f an der Stelle [mm]x^\sim[/mm] und
> [mm]b\in\IR[/mm] gewählt mit [mm]f(x^\sim)=ax^\sim+b[/mm] das Gewünschte.
>
>
> > mit [mm]x^{\sim}[/mm] = [mm]\mathbb{E}[X][/mm] ist man dann fertig - oder
> > übersehe ich was ?
> Die Idee ist vollkommen korrekt!
>
> Sie ist sehr knapp notiert.
>
> Wir erhalten
>
> (1) [mm]f(E(X))=t(E(X))=E(t(X))[/mm].
>
> Wegen der Messbarkeit von f ist auch [mm]f(X)[/mm] eine
> Zufallsgröße.
> Wegen [mm]t(X)\le f(X)[/mm] und der Integrierbarkeit oder
> Nichtnegativität von [mm]X[/mm] ist auch [mm]f(X)[/mm] quasiintegrierbar und
> es gilt
>
> (2) [mm]E(t(X))\le E(f(X))[/mm].
>
> Zusammengenommen erhalten wir aus (1) und (2) die
> Behauptung.
>
>
> > Interessanter wäre es aber es wirklich mit der klassischen
> > Definition von konvex zu zeigen... irgendwie komme ich da
> > aber nicht wirklich weiter....habt ihr da Ideen?
> Die mir bekannten Beweise zeigen zunächst (rein
> analytisch), dass im klassischen Sinne konvexe Funktionen
> auch in deinem Sinne konvex sind oder eine ähnliche
> Eigenschaft haben, und argumentieren anschließend in etwa
> wie du.
>
> Ich habe leider keine Lust, einen Beweis der benötigten
> Eigenschaften konvexer Funktionen hier auszuarbeiten.
> Du solltest einen solchen aber in vielen
> Wahrscheinlichkeitstheorie-Büchern im Zusammenhang mit der
> Jensenschen Ungleichung finden.
> Auf jeden Fall ausgeführt wird ein solcher Beweis im
> Wahrscheinlichkeitstheorie-Buch von Bauer.
>
>
> Viele Grüße
> Tobias
LG
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 20:52 Mi 07.10.2015 | Autor: | tobit09 |
Hallo Thomas_Aut!
> > > Zeige: Ist f(x) konvex so gilt [mm]\mathbb{E}(f(X)) \ge f(\mathbb{E}(X))[/mm]
> > > - überlege dir den speziellen Fall : f(x) = [mm]x^2[/mm]
> > Es soll [mm]f\colon\IR\to\IR[/mm] gelten?
> > [mm]X[/mm] ist eine integrierbare oder nichtnegative
> > Zufallsgröße?
> Wollen wir meines Erachtens ganz korrekt sein, so
> benötigen wir :
> -) [mm]f\colon\IR\to\IR[/mm]
> -)X ist eine integrierbare ZV
> -)und f(X) entweder integrierbar oder nicht negativ
Danke für den Hinweis.
Natürlich muss $X$ integrierbar sein, um überhaupt $f(EX)$ bilden zu können.
Ich editiere gleich meine Antwort entsprechend.
Die Quasiintegrierbarkeit von $f(X)$ erhalten wir jedoch im Beweis, ohne die Voraussetzung "f(X) integrierbar oder nichtnegativ" zu benötigen.
(Dazu muss man natürlich den Wert [mm] $+\infty$ [/mm] als Erwartungswert zulassen und als Konvention [mm] $+\infty\ge [/mm] a$ für alle [mm] $a\in\IR$ [/mm] annehmen.)
(Die Voraussetzungen lassen sich noch abschwächen.
So muss der Definitionsbereich von f bei geeigneter Formulierung nicht ganz [mm] $\IR$ [/mm] sein.)
Viele Grüße
Tobias
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:05 Mi 07.10.2015 | Autor: | Thomas_Aut |
> Hallo Thomas_Aut!
>
>
> > > > Zeige: Ist f(x) konvex so gilt [mm]\mathbb{E}(f(X)) \ge f(\mathbb{E}(X))[/mm]
> > > > - überlege dir den speziellen Fall : f(x) = [mm]x^2[/mm]
> > > Es soll [mm]f\colon\IR\to\IR[/mm] gelten?
> > > [mm]X[/mm] ist eine integrierbare oder nichtnegative
> > > Zufallsgröße?
>
> > Wollen wir meines Erachtens ganz korrekt sein, so
> > benötigen wir :
> > -) [mm]f\colon\IR\to\IR[/mm]
> > -)X ist eine integrierbare ZV
> > -)und f(X) entweder integrierbar oder nicht negativ
> Danke für den Hinweis.
> Natürlich muss [mm]X[/mm] integrierbar sein, um überhaupt [mm]f(EX)[/mm]
> bilden zu können.
> Ich editiere gleich meine Antwort entsprechend.
>
> Die Quasiintegrierbarkeit von [mm]f(X)[/mm] erhalten wir jedoch im
> Beweis, ohne die Voraussetzung "f(X) integrierbar oder
> nichtnegativ" zu benötigen.
Ja, da hast du vollkommen recht.
Eine Kleinigkeit fällt mir ein bzw. möchte ich dies einfach kurz anmerken:
Du schreibst folgendes :
" Achtung: Konvexe Funktionen sind im Allgemeinen nicht differenzierbar (Beispiel: $ f(x):=|x| $), daher würde ich nicht von einer Tangente sprechen.
Aber man kann zeigen: Konvexe Funktionen $ [mm] f\colon\IR\to\IR [/mm] $ sind rechts- und linksseitig differenzierbar (und damit rechts- und linksseitig stetig, also stetig, insbesondere messbar) und gegeben $ [mm] x^\sim\in\IR [/mm] $ leisten $ a $ gewählt als rechtsseitige Ableitung von f an der Stelle $ [mm] x^\sim [/mm] $ und $ [mm] b\in\IR [/mm] $ gewählt mit $ [mm] f(x^\sim)=ax^\sim+b [/mm] $ das Gewünschte. "
Genügt uns aber nicht bereits die Tatsache, dass konvexe Funktionen rechtsseitig diffbar sind ? Daraus resultiert mon wachsend und daraus dann Borel-mb. ?
Ich glaube das genügt .... was meinst du ?
Lg Thomas
PS:
Bitte fasse das in keinem Fall als Kritik an deiner Antwort auf - die ist super !! wie alle deine Beweise - Wahnsinn was du dir speziell im Topologie Forum für Mühe machst und wie ausführlich du antwortest .. spitze !!
>
>
> Viele Grüße
> Tobias
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:31 Mi 07.10.2015 | Autor: | tobit09 |
> Du schreibst folgendes :
>
> " Achtung: Konvexe Funktionen sind im Allgemeinen nicht
> differenzierbar (Beispiel: [mm]f(x):=|x| [/mm]), daher würde ich
> nicht von einer Tangente sprechen.
> Aber man kann zeigen: Konvexe Funktionen [mm]f\colon\IR\to\IR[/mm]
> sind rechts- und linksseitig differenzierbar (und damit
> rechts- und linksseitig stetig, also stetig, insbesondere
> messbar) und gegeben [mm]x^\sim\in\IR[/mm] leisten [mm]a[/mm] gewählt als
> rechtsseitige Ableitung von f an der Stelle [mm]x^\sim[/mm] und
> [mm]b\in\IR[/mm] gewählt mit [mm]f(x^\sim)=ax^\sim+b[/mm] das Gewünschte.
> "
>
> Genügt uns aber nicht bereits die Tatsache, dass konvexe
> Funktionen rechtsseitig diffbar sind ? Daraus resultiert
> mon wachsend und daraus dann Borel-mb. ?
>
> Ich glaube das genügt .... was meinst du ?
Konvexe Funktionen sind im Allgemeinen nicht monoton wachsend.
Laut einer einer Übungsaufgabe aus dem Buch "Maß und Integral" von Schilling sind rechtsseitig stetige Funktionen [mm] $f\colon\IR\to\IR$ [/mm] stets messbar, so dass erst Recht aus rechtsseitiger Differenzierbarkeit die Messbarkeit folgt.
(Auf die Schnelle sehe ich nicht, wie man diese Übungsaufgabe löst.)
Wenn das Resultat der Übungsaufgabe zur Verfügung steht, braucht man also in der Tat die linksseitige Differenzierbarkeit nicht.
> Bitte fasse das in keinem Fall als Kritik an deiner Antwort
> auf - die ist super !! wie alle deine Beweise - Wahnsinn
> was du dir speziell im Topologie Forum für Mühe machst
> und wie ausführlich du antwortest .. spitze !!
Vielen Dank. Das freut mich sehr!
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:40 Mi 07.10.2015 | Autor: | Thomas_Aut |
> > Du schreibst folgendes :
> >
> > " Achtung: Konvexe Funktionen sind im Allgemeinen nicht
> > differenzierbar (Beispiel: [mm]f(x):=|x| [/mm]), daher würde ich
> > nicht von einer Tangente sprechen.
> > Aber man kann zeigen: Konvexe Funktionen
> [mm]f\colon\IR\to\IR[/mm]
> > sind rechts- und linksseitig differenzierbar (und damit
> > rechts- und linksseitig stetig, also stetig, insbesondere
> > messbar) und gegeben [mm]x^\sim\in\IR[/mm] leisten [mm]a[/mm] gewählt als
> > rechtsseitige Ableitung von f an der Stelle [mm]x^\sim[/mm] und
> > [mm]b\in\IR[/mm] gewählt mit [mm]f(x^\sim)=ax^\sim+b[/mm] das Gewünschte.
> > "
> >
> > Genügt uns aber nicht bereits die Tatsache, dass konvexe
> > Funktionen rechtsseitig diffbar sind ? Daraus resultiert
> > mon wachsend und daraus dann Borel-mb. ?
> >
> > Ich glaube das genügt .... was meinst du ?
> Konvexe Funktionen sind im Allgemeinen nicht monoton
> wachsend.
Jaja das ist mir natürlich klar - ich habe mich schlecht ausgedrückt :
es ist :
[mm] $d^{+}f(x) [/mm] := [mm] \limes_{k \downarrow 0} \frac{f(x+k)-f(x)}{k} [/mm] $
monoton wachsend und damit Borel mb.
Man kann sich leicht überzeugen, dass folgendes gilt
[mm] $\forall [/mm] a,b [mm] \in \mathb{R}$
[/mm]
$f(b) [mm] \ge d^{+}f(a)(b-a)+f(a)$
[/mm]
und dies liefert natürlich schon fast das gewünschte Resultat :)
>
> Laut einer einer Übungsaufgabe aus dem Buch "Maß und
> Integral" von Schilling sind rechtsseitig stetige
> Funktionen [mm]f\colon\IR\to\IR[/mm] stets messbar, so dass erst
> Recht aus rechtsseitiger Differenzierbarkeit die
> Messbarkeit folgt.
> (Auf die Schnelle sehe ich nicht, wie man dieses
> Übungsaufgabe löst.)
>
> Wenn das Resultat der Übungsaufgabe zur Verfügung steht,
> braucht man also in der Tat die linksseitige
> Differenzierbarkeit nicht.
>
>
> > Bitte fasse das in keinem Fall als Kritik an deiner Antwort
> > auf - die ist super !! wie alle deine Beweise - Wahnsinn
> > was du dir speziell im Topologie Forum für Mühe machst
> > und wie ausführlich du antwortest .. spitze !!
> Vielen Dank. Das freut mich sehr!
LG
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:08 Mi 07.10.2015 | Autor: | tobit09 |
> > Konvexe Funktionen sind im Allgemeinen nicht monoton
> > wachsend.
> Jaja das ist mir natürlich klar - ich habe mich schlecht
> ausgedrückt :
> es ist :
>
> [mm]d^{+}f(x) := \limes_{k \downarrow 0} \frac{f(x+k)-f(x)}{k}[/mm]
>
> monoton wachsend und damit Borel mb.
Ich gehe stark davon aus, dass dies stimmt, auch wenn ich dieses Monotonie-Resultat nicht bewiesen habe.
Die Messbarkeit der Abbildung [mm] $\IR\to\IR,\;x\mapsto d^{+}f(x)$ [/mm] benötigt man anscheinend für den Beweis der Jensenschen Ungleichung nicht.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:25 Mi 07.10.2015 | Autor: | DieAcht |
Hallo zusammen!
Es sei [mm] (\Omega,\mathcal{F},\mathbb{P}) [/mm] ein Wahrscheinlichkeitsraum und [mm] X\colon\Omega\to\IR [/mm] integrierbar.
Ferner sei [mm] I\subseteq\IR [/mm] ein Intervall und [mm] $\phi\colon I\to\IR$ [/mm] eine konvexe Funktion.
Es gelte [mm] $\mathbb{P}(X\not\in [/mm] I)=0$. Dann gilt
[mm] \mathbb{E}(\phi\circ X)\ge \phi(\mathbb{E}(X)).
[/mm]
Beweis:
1. Fall: Sei [mm] \mathbb{E}(X) [/mm] im Inneren von [mm] $I\$.
[/mm]
Dann gibt es eine Gerade unterhalb des Graphen von [mm] \phi, [/mm] die durch den Punkt [mm] (\mathbb{E}(X),\phi(\mathbb{E}(X))) [/mm] geht und die Steigung [mm] \alpha [/mm] hat:
[mm] $\phi(y)\ge\alpha(y-\mathbb{E}(X))+\phi(\mathbb{E}(X)),\qquad y\in [/mm] I$.
Nun ersetzen wir [mm] $y\$ [/mm] durch [mm] X(\omega) [/mm] und integrieren über [mm] \omega, [/mm] um zu erhalten:
[mm] $\mathbb{E}(\phi\circ X)=\int\phi(X(\omega))\mathbb{P}(d\omega)\ge\alpha\int(X(\omega)-\mathbb{E}(X))\mathbb{P}(d\omega)+\int\phi(\mathbb{E}(X))\mathbb{P}(d\omega)=\phi(\mathbb{E}(X))$.
[/mm]
2. Fall: Sei [mm] \mathbb{E}(X) [/mm] ein Randpunkt von [mm] $I\$.
[/mm]
Dann gilt [mm] X=\mathbb{E}(X) $\mathbb{P}$-fast [/mm] sicher, und die Behauptung folgt trivialerweise.
So oder so ähnlich habe ich es mal für eine Prüfung gelernt.
Passt das?
Gruß
DieAcht
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 19:18 Do 15.10.2015 | Autor: | tobit09 |
Hallo DieAcht!
> Es sei [mm](\Omega,\mathcal{F},\mathbb{P})[/mm] ein
> Wahrscheinlichkeitsraum und [mm]X\colon\Omega\to\IR[/mm]
> integrierbar.
> Ferner sei [mm]I\subseteq\IR[/mm] ein Intervall und [mm]\phi\colon I\to\IR[/mm]
> eine konvexe Funktion.
> Es gelte [mm]\mathbb{P}(X\not\in I)=0[/mm]. Dann gilt
>
> [mm]\mathbb{E}(\phi\circ X)\ge \phi(\mathbb{E}(X)).[/mm]
Meiner Meinung nach sollte man hier noch kurz erklären, was mit [mm] $\phi\circ [/mm] X$ genau gemeint ist (ja nicht exakt die gewöhnliche Verkettung zweier Abbildungen, die nur im Falle [mm] $X(\Omega)\subseteq [/mm] I$ definiert wäre).
Insbesondere behauptet der Satz, dass [mm] $E(\phi\circ [/mm] X)$ überhaupt existiert, d.h. dass [mm] $\phi\circ [/mm] X$ quasi-integrierbar ist.
> Beweis:
>
> 1. Fall: Sei [mm]\mathbb{E}(X)[/mm] im Inneren von [mm]I\[/mm].
>
> Dann gibt es eine Gerade unterhalb des Graphen von [mm]\phi,[/mm]
> die durch den Punkt [mm](\mathbb{E}(X),\phi(\mathbb{E}(X)))[/mm]
> geht und die Steigung [mm]\alpha[/mm] hat:
(Was meinst du mit [mm] $\alpha$? [/mm] Sicherlich meinst du: Es existiert ein [mm] $\alpha\in\IR$ [/mm] mit dieser Eigenschaft.)
Im (rein analytischen) Nachweis dieser Eigenschaft konvexer Funktionen liegt wohl die Hauptarbeit zum vollständigen Nachweis der Jensenschen Ungleichung.
> [mm]\phi(y)\ge\alpha(y-\mathbb{E}(X))+\phi(\mathbb{E}(X)),\qquad y\in I[/mm].
(Für ALLE [mm] $y\in [/mm] I$.)
> Nun ersetzen wir [mm]y\[/mm] durch [mm]X(\omega)[/mm] und integrieren über
> [mm]\omega,[/mm] um zu erhalten:
>
> [mm]\mathbb{E}(\phi\circ X)=\int\phi(X(\omega))\mathbb{P}(d\omega)\ge\alpha\int(X(\omega)-\mathbb{E}(X))\mathbb{P}(d\omega)+\int\phi(\mathbb{E}(X))\mathbb{P}(d\omega)=\phi(\mathbb{E}(X))[/mm].
Ja, wegen der Integrierbarkeit von X existieren die rechten beiden Ausdrücke.
Wenn du zeigen kannst, dass [mm] $\phi\circ [/mm] X$ messbar ist (was du genau genommen noch tun müsstest), folgt die Quasi-Integrierbarkeit von [mm] $\phi\circ [/mm] X$ aus [mm] $\phi\circ X\ge \alpha(X-EX)+\phi(EX)$ [/mm] P-fast-sicher und der Integrierbarkeit von [mm] $\alpha(X-EX)+\phi(EX)$.
[/mm]
Also existieren auch die linken beiden Ausdrücke in deiner Ungleichungskette.
> 2. Fall: Sei [mm]\mathbb{E}(X)[/mm] ein Randpunkt von [mm]I\[/mm].
>
> Dann gilt [mm]X=\mathbb{E}(X)[/mm] [mm]\mathbb{P}[/mm]-fast sicher,
(Beweis?)
> und die
> Behauptung folgt trivialerweise.
>
>
> So oder so ähnlich habe ich es mal für eine Prüfung
> gelernt.
>
> Passt das?
Ich denke für eine mündliche Prüfung, bei der es ja nur um die grobe Idee gehen wird, allemal. Für diesen Zweck hast du aus meiner Sicht sehr schön das Wesentliche herausgearbeitet.
Für einen schriftlich ausgearbeiteten vollständigen Beweis fehlt mir wie oben angemerkt noch Einiges.
Viele Grüße
Tobias
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:15 Fr 16.10.2015 | Autor: | DieAcht |
Hallo Tobias!
Ich schätze deine Antworten sehr, denn du bist immer mit der Lupe unterwegs.
Vielen Dank und noch ein schönes Wochenende!
Beste Grüße
DieAcht
|
|
|
|