Maximum Likelihood Schätzer < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 18:23 Di 05.01.2010 | Autor: | aly19 |
Aufgabe | [mm] (X_i)_{i\in{1,...n}} [/mm] unabhängige ZV, die jeweils geometrisch zum Parameter p verteilt sind. Berechnen sie für eine Realisierung, den Maximum Likelihood Schätzer p'. Prüfen sie ob, p' erwartungstreu ist.
|
so den ML Schätzer habe ich schon bestimmt:
[mm] p'(X_1,.....,X_n)=(1/n \summe_{i=1}^{n} X_i)^{-1}
[/mm]
Bei der Erwartungstreue komme ich jedoch nicht weiter:
Ich muss ja prüfen ob,
[mm] E_p[p' (X_1,....,X_n)] [/mm] p ergibt, oder?
Aber ich komme hier beim auflösen einfach nicht weiter:
[mm] E_p[(1/n \summe_{i=1}^{n} X_i)^{-1}] [/mm] wie kann ich das berechnen, ich kann ja mit der Linearität der Erwartungswertes nichts anfangen, weil die Summe Nenner steht oder?
Wäre super froh über einen Tipp.
Liebe Grüße
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:40 Di 05.01.2010 | Autor: | luis52 |
Moin
> ich kann ja mit der Linearität der
> Erwartungswertes nichts anfangen, weil die Summe Nenner
> steht oder?
Korrekt.
> Wäre super froh über einen Tipp.
Aber du kannst vielleicht die Verteilung vom [mm] $Y_n=\sum_{i=1}^nX_i$ [/mm] bestimmen und dann [mm] $\operatorname{E}[1/Y_n]$ [/mm] zu Fuss berechnen.
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:25 Di 05.01.2010 | Autor: | aly19 |
also gut: ich kann dann ja über die momenterzeugende funktion die verteilung von [mm] X_1 [/mm] und [mm] X_2 [/mm] (erstmal) ertsmal bestimmen:
[mm] \delta_{X_1}*\delta_{X_2}=\summe_{k=1}^{\inf} \summe_{i=1}^{k} s^{i} P(X_1=i) s^{k-i} P(X_2=k-i)
[/mm]
[mm] =\summe_{k=1}^{\inf} s^k \summe_{i=1}^{k} p(1-p)^{i-1} p(1-p)^{k-i-1} [/mm] p [mm] =\summe_{k=1}^{\inf} s^k \summe_{i=1}^{k} p(1-p)^{k-2} p^2= \summe_{k=1}^{\inf} s^k [/mm] k [mm] p(1-p)^{k-2} p^2
[/mm]
also wäre die verteilung von [mm] X_1+X_2 k(1-p)^{k-2} p^2
[/mm]
stimmt das soweit?
von [mm] X_1+.....*X_n [/mm] wäre die verteilung dann ja
k(1-p)^(k-n) [mm] *p^n [/mm]
soweit erstmal?
und dann soll ich per hand [mm] E(1/Y_n) [/mm] berechnen? also irgendeinen term für die summe im erwartungswert finden?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 22:45 Di 05.01.2010 | Autor: | luis52 |
Moin
aus diesem Kisuaheli werde ich nicht schlau.
1) Bestimme die mgf der geometrischen Verteilung. Ich meine sie ist
[mm] $m(t)=p/[\exp(-t)-1+p]$.
[/mm]
2) Die mgf von [mm] $Y_n$ [/mm] ist [mm] $m^n(t)$.
[/mm]
3) Identifiziere die Vertteilung von [mm] $Y_n$. [/mm] Ich meine, es ist eine
Pascal-Verteilung.
4) Versuche dich an [mm] $\operatorname{E}[1/Y_n]=\sum_{z=n}^\infty P(Y_n=z)/z$.
[/mm]
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 23:27 Di 05.01.2010 | Autor: | aly19 |
hmm also wir haben die momenterzeugende funktion so erklärt:
[mm] m(s)=\summe_{k=1}^{\infty} s^k [/mm] P(X=k) mit |s|<1
deshalb verstehe ich das nicht so ganz.
aslo bei der obigen definition würde
[mm] m(s)=\summe_{k=1}^{\infty} s^k [/mm] p [mm] (1-p)^{k-1} [/mm] = [mm] \bruch{p}{1-p} \summe_{k=1}^{\infty} (s(1-p))^{k} [/mm] mit (s(1-p))<1 also
m(s)= [mm] \bruch{p}{1-p} \bruch{1}{1-s(1-p)} [/mm]
das wäre ja was anderes, geht das auch so? würde nämlcih schon gerne die definition aus der vorlesung verwenden.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 09:01 Fr 08.01.2010 | Autor: | aly19 |
ohja das is ja wirklich was unterschiedliches.
das problem ist nur, das die wahrscheinlichkeitserzeugende funktion ja eigentlich nur für [mm] \IN_0 [/mm] wertige ZV definiert ist oder? und die geometrische Verteilung ist doch zu [mm] \IN [/mm] \ {0} definiert. dann geht das doch gar nciht so wie ich das gemacht habe oder?
ich hatte das problem schonmal als es nur um die addition von 2 geomtrisch verteilten ZV ging. Es muss ja die negative Binoialverteilung herauskommen, aber wenn ich jetzt n mal m(s) multipliziere dann steht da ja $ [mm] (\bruch{p}{1-p} \bruch{1}{1-s(1-p)})^n [/mm] $ und das sieht mir irgendwie nicht danach aus. hmm kann man das vll doch nicht so machen?
Aber auch wenn ich jetzt die Verteilung der Summe heraushätte verstehe ich nicht so ganz, was du unter Erwartungswert per hand berechnen meinst. die summe hinschreiben und gucken was sich ergibt?
wäre sehr froh über ein paar weitere tipps :)
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:35 Fr 08.01.2010 | Autor: | aly19 |
sorry ich muss da aber nochmal nachfragen.
kann auch leider nur den ersten link öffnen.
1) bei mir kommt aber ja nciht [mm] $m(s)=\bruch{p}{1-s(1-p)} [/mm] $ sondern $ [mm] \bruch{p}{1-p} \bruch{1}{1-s(1-p)} [/mm] $ heraus? wie lässt sich der zusätzliche faktor bei mir erklären?
2) also angenommen es würde beim produkt die momenterzegende funktion der negativen binomialverteilung herauskommen. dann weiß ich ja das die summe der ZV negativ Binomialverteil ist. Also kann ich doch schreiben:
E(n/Y) wobei Y negativ binomialverteilt ist. so und nun kann ich ja nE(f(Y)) sagen mit f(Y)=1/Y oder? und dann ergibt sich der erwartungswert doch zu:
[mm] nE(f(Y))=n*\summe_{i=1}^{\infty} 1/x_i \vektor{x_i -1 \\ n-1} p^{n} (1-p)^{x_i-n} [/mm]
so und jetzt komme ich leider schon wieder nicht weiter? wie kannich das nur zusammenfasssen?? bekomme das leider nciht hin.
kann mir da noch jemand helfen?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:09 Fr 08.01.2010 | Autor: | luis52 |
> sorry ich muss da aber nochmal nachfragen.
> kann auch leider nur den ersten link öffnen.
Hab's korrigiert.
> 1) bei mir kommt aber ja nciht [mm]m(s)=\bruch{p}{1-s(1-p)}[/mm]
> sondern [mm]\bruch{p}{1-p} \bruch{1}{1-s(1-p)}[/mm] heraus? wie
> lässt sich der zusätzliche faktor bei mir erklären?
Du schreibst
>deshalb verstehe ich das nicht so ganz.
>aslo bei der obigen definition würde
>$ [mm] m(s)=\summe_{k=1}^{\infty} s^k [/mm] $ p $ [mm] (1-p)^{k-1} [/mm] $ = $ [mm] \bruch{p}{1-p} \summe_{k=1}^{\infty} (s(1-p))^{k} [/mm] $ mit (s(1-p))<1 also
>m(s)= $ [mm] \bruch{p}{1-p} \bruch{1}{1-s(1-p)} [/mm] $
Das ist nicht korrekt. Vielmehr ist
[mm] $\summe_{k=0}^{\infty} (s(1-p))^{k} =\bruch{1}{1-s(1-p)} [/mm] $.
> 2) also angenommen es würde beim produkt die
> momenterzegende funktion der negativen binomialverteilung
> herauskommen. dann weiß ich ja das die summe der ZV
> negativ Binomialverteil ist. Also kann ich doch schreiben:
> E(n/Y) wobei Y negativ binomialverteilt ist. so und nun
> kann ich ja nE(f(Y)) sagen mit f(Y)=1/Y oder?
> und dann
> ergibt sich der erwartungswert doch zu:
> [mm]nE(f(Y))=n*\summe_{i=1}^{\infty} 1/x_i \vektor{x_i -1 \\ n-1} p^{n} (1-p)^{x_i-n}[/mm]
> so und jetzt komme ich leider schon wieder nicht weiter?
> wie kannich das nur zusammenfasssen?? bekomme das leider
> nciht hin.
Hier musst du noch etwas feilen. Die Spezifiaktion der Negativen BV
Stimmt nicht. (Es gibt nicht unendlich viele [mm] $x_i$).
[/mm]
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 14:53 Sa 09.01.2010 | Autor: | aly19 |
okay also das mit der partialsumme der reihe habe ich ja genauso gemacht. nur stand bei mir davor noch ein faktor, weswegen mein ergebnis anders war. aber wenn man anstatt $ [mm] p(1-p)^{k-1} [/mm] $, $ [mm] p(1-p)^{k} [/mm] $ als wahrscheinlichkeit nimmt und dann auch gleich eine [mm] \IN_0 [/mm] wertige Zv hat, klappts. dann fällt der faktor 1/(1-p) ja weg.
okay also kommt $ ( [mm] \bruch{p}{1-s(1-p)})^n [/mm] $ als produkt der wahrscheinlichkeits erzeugenden funktionen heraus und das erkennt man als wahrscheinlichkeitserzeugende funktion einer negativ binomialverteilten ZV. Also
[mm] P(Y=k)=\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n}
[/mm]
wobei k größer gleich n sein muss.
so und nun hatte ich ja:
$ [mm] nE(f(Y))=n\cdot{}\summe_{i=1}^{\infty} 1/x_i \vektor{x_i -1 \\ n-1} p^{n} (1-p)^{x_i-n} [/mm] $
aber so wie es da steht is doch eigentlich die defitnition vom erwartungswert oder? aber anderserseits gibt es ja nur [mm] x_1,...,x_n [/mm] . verstehe das leider nicht so wirklich. oder muss ich jetzt auch wieder die andere darstellung der negativen binmialverteilung verwenden?
komme da schon wieder nicht weiter :(
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 15:22 Sa 09.01.2010 | Autor: | aly19 |
das sollte eben nochmal eine frage sein und keine mitteilung.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:36 Sa 09.01.2010 | Autor: | luis52 |
> okay also kommt [mm]( \bruch{p}{1-s(1-p)})^n[/mm] als produkt der
> wahrscheinlichkeits erzeugenden funktionen heraus und das
> erkennt man als wahrscheinlichkeitserzeugende funktion
> einer negativ binomialverteilten ZV. Also
> [mm]P(Y=k)=\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n}[/mm]
> wobei k
> größer gleich n sein muss.
Gut. Das halten wir mal fest: $Y_$ besitzt dieselbe Verteilung wie [mm] $\sum_{i=1}^nX_i$. [/mm] Im Prinzip ist also
[mm] $\textrm{E}[1/\sum_{i=1}^nX_i]=\textrm{E}[1/Y]=\sum_{k=n}^\infty\frac{1}{k}\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n}$
[/mm]
zu bestimmen.
vg Luis
PS: Ist die Hochstelltaste deiner Tastatur kaputt?
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 10:39 So 10.01.2010 | Autor: | aly19 |
okay, also nochmal:
$ [mm] \textrm{E}[1/\sum_{i=1}^nX_i]=\textrm{E}[1/Y]=\sum_{k=n}^\infty\frac{1}{k}\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n}= \sum_{k=n}^\infty\frac{1}{k}\frac{(k-1)! *k *n }{(k-n)!(n-1)! *n*k} p^{n} (1-p)^{k-n}= \sum_{k=n}^\infty\frac{n}{k^2}\vektor{k \\ n} p^{n} (1-p)^{k-n} [/mm] $
bringt das schonmal was? ich habe keine ahnung wie ich das ausrechnen soll, binomischer lehrsatz geht ja nicht und irgendwelche Umformungen für das "n über k" sehe ich auch nicht.
gibt es da einen trick, ein stichwort würde vll schon reichen.
vielen dank nochmal.
was meinst du mit hochstelltaste kaputt?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 11:51 So 10.01.2010 | Autor: | luis52 |
> okay, also nochmal:
>
> [mm]\textrm{E}[1/\sum_{i=1}^nX_i]=\textrm{E}[1/Y]=\sum_{k=n}^\infty\frac{1}{k}\vektor{k -1 \\ n-1} p^{n} (1-p)^{k-n}= \sum_{k=n}^\infty\frac{1}{k}\frac{(k-1)! *k *n }{(k-n)!(n-1)! *n*k} p^{n} (1-p)^{k-n}= \sum_{k=n}^\infty\frac{n}{k^2}\vektor{k \\ n} p^{n} (1-p)^{k-n}[/mm]
> bringt das schonmal was? ich habe keine ahnung wie ich das
> ausrechnen soll, binomischer lehrsatz geht ja nicht und
> irgendwelche Umformungen für das "n über k" sehe ich auch
> nicht.
In der Tat, keinesfalls trivial. Habe aber gerade festgestellt, dass die Aufgabenstellung eine wichtige Passage hat:
Berechnen sie für [mm] \red{eine} [/mm] Realisierung, den Maximum Likelihood
Schätzer p'.
>
> was meinst du mit hochstelltaste kaputt?
Eine Bitte, auf Gross- und Kleinschreibung zu achten.
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 13:34 So 10.01.2010 | Autor: | aly19 |
genau gesagt steht da: für eine realisierung [mm] (x_i)_i, [/mm] also nicht nur für ein x. das bringt doch dann nichts oder? oder was genau meintest du damit? was bringt mir das da "eine realisierung steht"?
viele grüße
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:13 So 10.01.2010 | Autor: | luis52 |
> genau gesagt steht da: für eine realisierung [mm](x_i)_i,[/mm] also
> nicht nur für ein x. das bringt doch dann nichts oder?
> oder was genau meintest du damit? was bringt mir das da
> "eine realisierung steht"?
$n=1_$
Bitte beachte doch meine Bitte, auf Gross- und Kleinschreibung zu achten. Aderenfalls werde *ich* nicht mehr auf deine Fragen reagieren.
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 09:36 Mo 11.01.2010 | Autor: | aly19 |
Klar kann ich groß und klein schreiben, wenn es so wichtig ist...
Kannst du das mit dem n=1 vll etwas erläutern, damit ich das verstehe und dann auch was dabei lernen kann? nur "n=1" bringt mir irgebdwie nicht viel.
vg
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 11:15 Mo 11.01.2010 | Autor: | luis52 |
$n=1$ bedeutet, dass du eine Beobachtung der geometrischen Verteilung vorliegen hast. Konkret bedeutet das, dass du beispielsweise zwei Wurfel solange wirfst bis zum ersten Mal die Augensumme 2 erscheint. $n=2$ bedeutet, dass dieses Experiment zweimal durchfuehrst usw.
vg Luis
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 11:47 Mo 11.01.2010 | Autor: | aly19 |
Okay, ich glaube das habe ich jetzt verstanden.
Also ich hatte davor noch eine Aufgabe zum ML- Schätzer mit der Poisson Verteilung, da hieß es "Berechnen sie für eine gegebene Realiserung [mm] (x_i)_{i \in {1,...,n}} [/mm] einen Maximum Likelihood Schätzer für für den Paramter der Poission Verteilung. Heißt das in diesem Fall auch:
Anstatt [mm] L(\lambda)=e^{- \lambda} [/mm] * [mm] \lambda^{x_1} 1/(x_1!)....e^{-\lambda} [/mm] * [mm] \lambda^{x_n} 1/(x_n!)
[/mm]
einfach nur
[mm] L(\lambda)=e^{-\lambda} [/mm] * [mm] \lambda^{x} [/mm] 1/(x!)?? Oder ist es hier wegen dem "i Element aus" eine Folge und somit mehrere Realisierungen?
Ich bin etwas verwirrt, wann man jetzt z.B. L(p)= [mm] P(X_1=x_1)....P(X_n=x_n) [/mm] betrachten muss und wann L(p)= P(X=x). Hoffe man kann das verstehen.
Ansonsten hab ich die Aufgabe denke ich hinbekommen, habe im Internet ncoh einen Trick zur Berechnung des Erwartungswerts gefunden.
Vielen Dank.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:51 Mo 11.01.2010 | Autor: | luis52 |
> Ich bin etwas verwirrt, wann man jetzt z.B. L(p)=
> [mm]P(X_1=x_1)....P(X_n=x_n)[/mm]
Stimmt. Sorry, da habe ich wohl die Verwirrung gestiftet. Nach genauem Hinsehen bin auch ich der Ansicht, dass der allgemeine Fall gemeint ist, also
[mm] $L(p)=\prod_{i=1}^np(1-p)^{x_i-1}=p^n(1-p)^{\sum x_i-n}$,
[/mm]
den du eingangs behandelt hast.
> betrachten muss und wann L(p)=
> P(X=x). Hoffe man kann das verstehen.
Wie gesagt der ist anscheind nicht gemeint. Wenn doch, dann waere
[mm] $L(p)=p(1-p)^{x-1}.$
[/mm]
>
> Ansonsten hab ich die Aufgabe denke ich hinbekommen, habe
> im Internet ncoh einen Trick zur Berechnung des
> Erwartungswerts gefunden.
Wo? Wie sieht der aus?
vg Luis
|
|
|
|