Bernoulli-Verteilung, Erw'wert < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | Sei [mm] p\in[0,1] [/mm] und seien [mm] X_1, \ldots, X_n [/mm] relle Zufallsvariablen über demselben Wahrscheinlichkeitsraum, jeweils Ber(p)-verteilt.
Setze X := [mm] \sum_{t=1}^n t\cdot X_t [/mm] .
Zeige: E(X) = [mm] \sum_{t=1}^n p\cdot [/mm] t . |
Hallo liebes Forum,
ich hänge an der obigen Gleichung fest. Bislang habe ich im Beweis eigentlich nichts Sonderliches gemacht, außer die Definitionen einzusetzen. Mein Ansatz soweit:
E(X) = [mm] \sum_{\omega\in\Omega} X(\Omega)\cdot \IP(\{\omega\}) [/mm] = [mm] \sum_{\omega\in\Omega} (\sum_{t=1}^n t\cdot X_t(\Omega))\cdot \underbrace{p^\omega(1-p)^{1-\omega}}_{Ber-Verteilung}) [/mm] = [mm] \ldots [/mm] ?
wobei [mm] \Omega [/mm] die Ergebnismenge des laut Voraussetzung gemeinsamen Wahrscheinlichkeitsraums sei.
Ziel der Gleichung ist ja, auf den Ausdruck [mm] \sum_{t=1}^n p\cdot [/mm] t zu kommen. Dazu könnte ich nun ein p aus dem letzten Ausdruck der Gleichungskette "herausziehen", aber ich sehe noch nicht, wie ich den Rest dann zusammenkürzen kann :(
Hat jemand eine Idee oder einen hilfreichen Hinweis?
Vielen lieben Dank schonmal im Voraus für eine Hilfe
|
|
|
|
Du denkst zu kompliziert..... verwende doch einfach die Rechenregeln für den Erwartungswert:
[mm]E[X] = E[ \sum_{t=1}^n t\cdot X_t ] = \sum_{t=1}^{n}E[tX_t] = ...[/mm]
naja, den Rest schaffst bestimmt allein
MFG,
Gono.
|
|
|
|