Momenterzeugende Funktion < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 14:58 Sa 05.12.2009 | Autor: | aly19 |
Aufgabe | Zeigen sie:
Für je zwei unabhängige [mm] \IN_0 [/mm] wertige ZV [mm] X_1 [/mm] und [mm] X_2 [/mm] gilt:
[mm] \alpha_{X_1+X_2}(s)=\alpha_{X_1}(s) *\alpha_{X_2} [/mm] (s) für |s| < 1.
Wobei [mm] \alpha [/mm] jeweils die momenterzeugende funktion ist. |
Also
[mm] \alpha_{X_1}(s) *\alpha_{X_2} [/mm] (s)
[mm] =\summe_{i \in \IN_0}^{} s^i \IP(X_1=i)*\summe_{j \in \IN_0}^{} s^j \IP(X_2=j)
[/mm]
[mm] =\summe_{i \in \IN_0}^{}\summe_{j \in \IN_0}^{} s^i s^j \IP(X_1=i) \IP(X_2=j)
[/mm]
So weil die beiden ZV ja unabhängig sind gilt mit k=j+i
[mm] \IP(X_1+X_2=k)=\summe_{i \in \IN_0}^{}\summe_{j \in \IN_0}^{} \IP(X_1=i) \IP(X_2=j)
[/mm]
ich weiß jetzt aber nicht wie ich das oben einbauen kann, komme da mit den summenzeichen irgendwie durcheinander, ich will ja im endeffekt über k summieren und da stehen haben:
[mm] \summe_{k \in \IN_0}^{} s^k \IP(X_1+X_2=k)
[/mm]
kann mir da jemand helfen?
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 17:01 Sa 05.12.2009 | Autor: | aly19 |
hey, vielen dank für die antwort.
also, ich fang nochmal an :
[mm] \summe_{k \in \IN_0}^{} s^k \IP(X_1=k)\cdot{}\summe_{k \in \IN_0}^{} s^k \IP(X_2=k) [/mm] $
[mm] =\summe_{k \in \IN_0}^{} \summe_{i=0}^{k} s^i*s^{k-i} \IP(X_1=i) *\IP(X_2=k-i) [/mm] $
[mm] =\summe_{k \in \IN_0}^{} s^k \summe_{i=0}^{k} \IP(X_1=i) *\IP(X_2=k-i) [/mm] $
Aber was soll ich jetzt genau mit dem Satz von Bayes anfangen?
Das werden doch eigentlich Ereignisse und keine Zv betrachtet oder?
Also ich habe mir das so überlegt:
[mm] \IP(X_2=k-i)=\IP(X_1+X_2=k| X_1=i) [/mm]
Also
[mm] \summe_{i=0}^{k} \IP(X_1=i) *\IP(X_2=k-i)=\summe_{i=0}^{k} \IP(X_1=i) *\IP(X_1+X_2=k| X_1=i) [/mm] = [mm] \summe_{i=0}^{k} \IP(X_1=i) *\IP(X_1+X_2=k \cap X_1=i) \bruch{1}{\IP(X_1=i)}=\summe_{i=0}^{k} \IP(X_1+X_2=k [/mm] ) [mm] \IP( X_1=i)= \IP(X_1+X_2=k [/mm] ) [mm] \summe_{i=0}^{k} \IP( X_1=i) [/mm] = [mm] \IP(X_1+X_2=k [/mm] )
aber das scheint mir komisch, hättest du nochn tipp für diesen schritt?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:15 Sa 05.12.2009 | Autor: | Fry |
Hi du,
würde insgesamt einfach mit der Definition des Erwartungswertes arbeiten.
Es gilt ja:
[mm] $\alpha_X(s)=E(s^X)$
[/mm]
Also:
[mm] $\alpha_X(s)*\alpha_Y(s)=E(s^X)*E(s^Y)$
[/mm]
Nun sind ja X,Y unabhängig, also auch [mm] $s^X$ [/mm] und [mm] $s^Y$.
[/mm]
Also folgt:
[mm] $E(s^X)*E(s^Y)=E(s^X*s^Y)=E(s^{X+Y})=\alpha_{X+Y}(s)$
[/mm]
Fertig.
Stimmt das, Felix ?
LG
Fry
|
|
|
|
|
Status: |
(Korrektur) richtig (detailiert geprüft) | Datum: | 18:43 Sa 05.12.2009 | Autor: | felixf |
Moin Fry,
> würde insgesamt einfach mit der Definition des
> Erwartungswertes arbeiten.
> Es gilt ja:
> [mm]\alpha_X(s)=E(s^X)[/mm]
> Also:
>
> [mm]\alpha_X(s)*\alpha_Y(s)=E(s^X)*E(s^Y)[/mm]
> Nun sind ja X,Y unabhängig, also auch [mm]s^X[/mm] und [mm]s^Y[/mm].
> Also folgt:
> [mm]E(s^X)*E(s^Y)=E(s^X*s^Y)=E(s^{X+Y})=\alpha_{X+Y}(s)[/mm]
> Fertig.
>
> Stimmt das, Felix ?
Das stimmt. Es setzt allerdings voraus, dass sie eine Aussage hatten wie:
Sind $X, Y$ unabhaengige ZVen und $f, g$ Funktionen, so sind auch $f(X)$, $g(Y)$ unabhaengig.
Wenn sie das nicht hatten, muessen sie das "von Hand" rechnen.
LG Felix
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:49 Sa 05.12.2009 | Autor: | felixf |
Hallo!
> hey, vielen dank für die antwort.
> also, ich fang nochmal an :
> [mm]\summe_{k \in \IN_0}^{} s^k \IP(X_1=k)\cdot{}\summe_{k \in \IN_0}^{} s^k \IP(X_2=k)[/mm]
> [mm]=\summe_{k \in \IN_0}^{} \summe_{i=0}^{k} s^i*s^{k-i} \IP(X_1=i) *\IP(X_2=k-i)[/mm]
> [mm]=\summe_{k \in \IN_0}^{} s^k \summe_{i=0}^{k} \IP(X_1=i) *\IP(X_2=k-i)[/mm]
Genau.
> Aber was soll ich jetzt genau mit dem Satz von Bayes
> anfangen?
> Das werden doch eigentlich Ereignisse und keine Zv
> betrachtet oder?
Nun, mit dem Ereignissen [mm] $\{ X_1 = i \}$ [/mm] und [mm] $\{ X_2 = k - i \}$ [/mm] kannst du doch etwas anfangen? Der Schnitt davon ist ja [mm] $\{ X_1 = i, X_2 = k - i \} [/mm] = [mm] \{ X_1 = i, X_1 + X_2 = k \}$.
[/mm]
> Also ich habe mir das so überlegt:
> [mm]\IP(X_2=k-i)=\IP(X_1+X_2=k| X_1=i)[/mm]
Das gilt; das musst du aber noch zeigen.
> Also
> [mm]\summe_{i=0}^{k} \IP(X_1=i) *\IP(X_2=k-i)=\summe_{i=0}^{k} \IP(X_1=i) *\IP(X_1+X_2=k| X_1=i) =[/mm]
> [mm]\summe_{i=0}^{k} \IP(X_1=i) *\IP(X_1+X_2=k \cap X_1=i) \bruch{1}{\IP(X_1=i)}=\summe_{i=0}^{k} \IP(X_1+X_2=k) \IP( X_1=i)[/mm]
Vorsicht! Bei dem letzten Gleichheitszeichen hast du ein Problem: [mm] $X_1 [/mm] + [mm] X_2$ [/mm] und [mm] $X_1$ [/mm] sind i.A. nicht unabhaengig, womit nicht gilt [mm] $\IP(X_1+X_2=k \cap X_1=i) [/mm] = [mm] \IP(X_1 [/mm] + [mm] X_2 [/mm] = k) [mm] \IP(X_1 [/mm] = i)$.
Um das auseinander zu bekommen brauchst du gerade das Gesetz der totalen Wahrscheinlichkeit.
LG Felix
|
|
|
|
|
Status: |
(Frage) überfällig | Datum: | 21:24 Sa 05.12.2009 | Autor: | aly19 |
Okay dann vll so:
[mm] \summe_{i=0}^{k} \IP(X_1=i) \cdot{}\IP(X_2=k-i) [/mm]
[mm] =\summe_{i=0}^{k} \IP({X_1=i}\cap {X_2=k-i})
[/mm]
(weiß nicht ob ich folgenden schritt einfach hinschreiben kann, oder muss ich da noch was zeigen?)
= [mm] \summe_{i=0}^{k} \IP({X_1=i}\cap {X_1+X_2=k})
[/mm]
[mm] =\summe_{i=0}^{k} \IP({X_1=i}) \IP(X_1+X_2=k [/mm] | [mm] X_1=i)
[/mm]
und jetzt nach dem satz der totalen wahrscheinlichkeit:
= [mm] \IP({X_1+X_2=k})
[/mm]
hmm bekomm das nicht besser hin, was mich auch noch wundert ist, dass der index in der summe bei der definition vom satz der totalen wahrscheinlichkeit erst bei 1 anfängt. das passt doch dann nicht?
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:20 Mo 07.12.2009 | Autor: | matux |
$MATUXTEXT(ueberfaellige_frage)
|
|
|
|