sigma < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 14:59 So 03.09.2006 | Autor: | Phecda |
hi kann mir jemand sagen, wie man
[mm] s^2=np(1-p) [/mm] beweist. (s=sigma)
(Formel für die varianz einer binomialverteilten zufallsgröße)
danke
mfg phecda
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:54 So 03.09.2006 | Autor: | felixf |
Hallo phecda!
> hi kann mir jemand sagen, wie man
> [mm]s^2=np(1-p)[/mm] beweist. (s=sigma)
> (Formel für die varianz einer binomialverteilten
> zufallsgröße)
Dazu braucht man ein paar Tricks, naemlich das Ableiten (Wenn du schonmal gesehen hast, wie man die Reihen [mm] $\sum_{k=0}^\infty [/mm] k [mm] x^k$ [/mm] und [mm] $\sum_{k=0}^\infty k^2 x^k$ [/mm] mit Hilfe der geometrischen Summenformel [mm] $\sum_{k=0}^\infty x^k [/mm] = [mm] \frac{1}{1 - x}$ [/mm] ausrechnet: Das ist genau der gleiche Trick!)
Man betrachtet dazu $p$ als Variable. (Die Faelle $p = 1$ und $p = 0$ ignorieren wir einfach mal, die sind sowieso trivial; damit kann man im Folgenden problemlos durch $p$ oder $1 - p$ teilen.)
Es ist $1 = [mm] \sum_{k=0}^n \binom{n}{k} p^k [/mm] (1 - [mm] p)^{n-k} [/mm] = (1 - [mm] p)^n \sum_{k=0}^n \binom{n}{k} \left( \frac{p}{1 - p} \right)^k$, [/mm] also [mm] $\sum_{k=0}^n \binom{n}{k} \left( \frac{p}{1 - p} \right)^k [/mm] = (1 - [mm] p)^{-n}$. [/mm] Und es ist [mm] $\frac{d}{d p} \frac{p}{1 - p} [/mm] = (1 - [mm] p)^{-2}$.
[/mm]
Damit ist $(1 - [mm] p)^{-2} \sum_{k=0}^n \binom{n}{k} [/mm] k [mm] \left( \frac{p}{1 - p} \right)^{k-1} [/mm] = [mm] \frac{d}{d p} \left( \sum_{k=0}^n \binom{n}{k} \left( \frac{p}{1 - p} \right)^k \right) [/mm] = [mm] \frac{d}{d p} [/mm] (1 - [mm] p)^{-n} [/mm] = n (1 - [mm] p)^{-n-1}$, [/mm] also [mm] $\sum_{k=0}^n \binom{n}{k} [/mm] k [mm] p^k [/mm] (1 - [mm] p)^{n-k} [/mm] = [mm] \frac{p}{1 - p} [/mm] (1 - [mm] p)^n \sum_{k=0}^n \binom{n}{k} [/mm] k [mm] \left( \frac{p}{1 - p} \right)^{k-1} [/mm] = p (1 - [mm] p)^{n+1} \cdot [/mm] n (1 - [mm] p)^{-n-1} [/mm] = p n$.
Damit hast du schonmal den Erwartungswert $EX$.
Um jetzt die Varianz auszurechnen, benoetigst du den den Erwartungswert [mm] $E(X^2)$: [/mm] Damit ist $Var(X) = [mm] E(X^2) [/mm] - [mm] (EX)^2$.
[/mm]
Dazu brauchen wir nun, dass $p n = (1 - [mm] p)^n \sum_{k=0}^n \binom{n}{k} [/mm] k [mm] \left( \frac{p}{1 - p} \right)^k$ [/mm] ist, also [mm] $\sum_{k=0}^n \binom{n}{k} [/mm] k [mm] \left( \frac{p}{1 - p} \right)^k [/mm] = p n (1 - [mm] p)^{-n}$. [/mm] Ableiten nach $p$ liefert $(1 - [mm] p)^{-2} \sum_{k=0}^n \binom{n}{k} k^2 \left( \frac{p}{1 - p} \right)^{k-1} [/mm] = n (1 - [mm] p)^{-n} [/mm] - p [mm] n^2 [/mm] (1 - [mm] p)^{-n-1}$. [/mm] Multiplizieren mit $(1 - [mm] p)^2 [/mm] (1 - [mm] p)^n \frac{p}{1 - p} [/mm] = p (1 - [mm] p)^{n+1}$ [/mm] liefert also [mm] $\sum_{k=0}^n \binom{n}{k} k^2 p^k [/mm] (1 - [mm] p)^{n-k} [/mm] = p (1 - [mm] p)^{n+1} \left( n (1 - p)^{-n} - p n^2 (1 - p)^{-n-1} \right) [/mm] = p n (1 - p) - [mm] p^2 n^2 [/mm] = p n - [mm] p^2 [/mm] n - [mm] p^2 n^2 [/mm] = p n (1 - p - p n)$.
Damit ist $Var(X) = [mm] E(X^2) [/mm] - [mm] (EX)^2 [/mm] = p n (1 - p - p n) - (p [mm] n)^2 [/mm] = p n (1 - p)$.
LG Felix
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:22 So 03.09.2006 | Autor: | DirkG |
Für diejenigen, auf die Felix' Lösungsweg etwas lang und abschreckend wirkt, hier etwas kürzeres:
Man kann [mm]X\sim B(n,p)[/mm] ansehen als Summe von [mm]n[/mm] unabhängigen, identisch verteilten Zufallsgrößen [mm]Z_k[/mm] mit [mm]P(Z_k=0)=1-p,P(Z_k=1)=p[/mm] für [mm]k=1,\ldots,n[/mm], sozusagen die "Einzelergebnisse" des Bernoulli-Experiments. Für diese Summe [mm]X=Z_1+\cdots+Z_n[/mm] gilt wegen der Unabhängigkeit der Summanden die Varianzformel
[mm] $$\operatorname{var}(X) [/mm] = [mm] \operatorname{var}(Z_1) [/mm] + [mm] \cdots [/mm] + [mm] \operatorname{var}(Z_n) [/mm] = [mm] n\cdot \operatorname{var}(Z_1)\qquad (\*),$$
[/mm]
letzteres natürlich, weil die Summanden identisch verteilt sind.
Der Rest ist dann nicht mehr so schwer: Es ist
[mm] $$E(Z_1) [/mm] = [mm] 0\cdot P(Z_1=0) [/mm] + [mm] 1\cdot P(Z_1=1) [/mm] = [mm] p,\qquad E(Z_1^2) [/mm] = [mm] 0^2\cdot P(Z_1=0) [/mm] + [mm] 1^2\cdot P(Z_1=1) [/mm] = p, $$
und demnach
[mm] $$\operatorname{var}(Z_1) [/mm] = [mm] E(Z_1^2) [/mm] - [mm] (E(Z_1))^2 [/mm] = [mm] p-p^2 [/mm] = p(1-p) .$$
Ergibt dann mit obigem Argument [mm]\operatorname{var}(X) = np(1-p) [/mm] .
Der Haken an dem Beweis ist natürlich, dass diese Varianzsummeneigenschaft (*) unabhängiger Zufallsgrößen bekannt sein muss.
EDIT: Kleine Copy+Paste-Schreibfehler korrigiert...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:35 So 03.09.2006 | Autor: | felixf |
Hallo Dirk!
> Für diejenigen, auf die Felix' Lösungsweg etwas lang und
> abschreckend wirkt, hier etwas kürzeres:
Stimmt, so gehts natuerlich auch! Ist auch gleich viel kuerzer und nicht so ein herumgetrickse
Vielen Dank fuer den Hinweis!
LG Felix
|
|
|
|