www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Lose mit Likelihood-Schätzer?
Lose mit Likelihood-Schätzer? < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Lose mit Likelihood-Schätzer?: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 07:53 Mi 17.01.2007
Autor: laryllan

Aufgabe
In einer Urne sind N [mm] \ge [/mm] 2 Lose mit Nummern {1,2,... N} und N unbekannt. Ein Spieler zieht n Mal ein Los ohne zurücklegen. Bestimmen Sie den Maximum-Liklihood-Schätzer T für die Anzahl der Lose (N). Berechne den Erwartungswert des ML-Schätzers, [mm] E_{N}(T) [/mm] und konstruiere daraus einen erwartungstreuen Schätzer [mm] T_{N}^{*}. [/mm]

Hinweis: [tex] \summe_{k=n}^{N} \vektor{k \\ n} = \vektor{N+1 \\ n+1} [/tex].

Aloha hé erstmal,

Ich habe also obige Aufgabe gestellt bekommen. Habe schon auf derschiedenste Weise versucht mich da anzuhähern, aber irgendwie will es nicht so wie ich.

Wo liegt mein Problem?

Grundlegende würde ich sagen: Das Thema ist neu.
Fachlich gesehen, liegt mein Problem an exakt zwei Punkten.

1. Punkt: Wir hatten ML-Schätzer bisher genau 1 Mal in der Vorlesung. Und dies für stetig verteilte Experimente mit voneinander unabhängigen Versuchen.
2. Punkt: Ich stell mich im Augenblick etwas beschränkt an, was das Modell anbelangt, dass ich dem Ganzen zu Grunde legen muss.

Zu Punkt eins: Hab ich im Internet gesucht, aber leider nicht wirklich was gefunden. Meine Aufgabe entspricht ja im Grunde ja https://matheraum.de/read?i=219378 dieser Aufgabe. Also zumindest so halb, denn das dort beschriebene Vorgehen, behandelt ja einen Versuch MIT Zurücklegen. Wenn ich zurücklege, dann sind meine tatsächlich erhaltenen Ergebnisse [tex] x_{1}, ..., x_{n} [/tex] sicherlich unabhängig. Wenn ich jedoch nicht zurücklege, verändert sich ja beim Ziehen jeweils die Grundgesamtheit und somit auch die Wahrscheinlichkeit. [mm] x_{1} [/mm] hat noch die Wahrscheinlichkeit mit [mm] \bruch{1}{N} [/mm] gezogen zu werden und [mm] x_{n} [/mm] nur noch eine Wahrscheinlichkeit von [mm] \bruch{1}{N-n}. [/mm]

Gehe ich Recht in der Annahme, dass die Gesamtwahrscheinlichkeit genau diese Losnummern [mm] x_{1}, [/mm] ..., [mm] x_{n} [/mm] gezogen zu haben, die gezogen wurden, dann so berechnet werden kann: [tex] P( x_{1} ) * P( x_{2} | x_{1} ) * P { x_{3} | x_{1} \wedge x_{2} ) * ... * P( x_{n} | \cap_{i} x_{i} ) [/tex] ?

Zusammengeschrieben wäre dass ja dann gerade:

[tex] \bruch{1}{N} [/tex] * [tex] \bruch {1}{N-1} [/tex] * ...  * [tex] \bruch{1}{N-n} [/tex] = [tex] \bruch {(n-1)!}{N!} [/tex] .

Selbst wenn dies alles stimmen sollte stehe ich immernoch vor dem Problem, dass ich ja wie bspw. https://matheraum.de/read?i=216799 in dieser Aufgabe eine Funktion [tex] P_{\theta}(x) [/tex] finden muss; bzw. in meinem Fall eine Funktion [tex] P_{N}(x) [/tex] . Hierbei bin ich leider weitestgehend ratlos. Das in der verlinkten Aufgabe genutzte hypergeometrische Modell kann es ja schlecht sein. In meinem Fall werden ja Lose gezogen und die Losnummern betrachtet. Es gibt also - nach meinem Dafürhalten - kein ausgezeichnetes Kriterium (wie 'richtig/gut' und 'falsch/schlecht'). Somit fällt die hypergeometrische Verteilung ja schonmal raus.

Ich denke an dieser Stelle liegt der Knackpunkt bei mir. Ich muss diese Funktion [tex] P_{N}(x) [/tex] finden. Das restliche Vorgehen ist mir dann wohl durchaus klar: Ich maximiere [tex] \bruch{P_{N} (x)}{P_{N-1} (x)} [/tex] und berechne dann den Erwartungswert. Der letzte Aufgabenteil ist dann klar, da ich die Linearität des Erwartungswertes ausnutzen kann.

Sofern sich irgendwer die Zeit nehmen mag, mir die Schleier vom Gesicht zu nehmen, wäre das genial. Normalerweise stelle ich sowas lieber zu früh als zu spät ein. Allerdings hatte mich hier der Ergeiz gepackt und ich wollte es unbedingt alleine schaffen - leider ohne Erfolg :/

Namárie,
sagt ein Lary, wo nun  mal in die Uni trottet

P.S.: Irgendwie will der meine Brüche nicht gescheiht darstellen. Dafür schonmal: Entschuldigung.

        
Bezug
Lose mit Likelihood-Schätzer?: Gruss vom Heinzelmaennchen
Status: (Antwort) fertig Status 
Datum: 11:10 Mi 17.01.2007
Autor: luis52

Moin Lary,

du hast dir schoen ein paar ganz gute Gedanken zu dieser Aufgabe gemacht.

Das ML-Prinzip beruht in deinem Fall auf der Idee, dasjenige $N$ zu bestimmen, welches die Wahrscheinlichkeit maximiert, dass sich genau die von dem Spieler gezogene Auswahl [mm] $M=\{x_1,...,x_n\}$ [/mm]  realisiert. Wie gross ist die Wahrscheinlichkeit fuer $M$? Offenbar [mm] $1/\vektor{N\\ n}$. [/mm] Angenommen, die gezogenen Losnummern sind aufsteigend sortiert:
[mm] $y_1<...
Betrachten wir nun die Zufallsvariable [mm] $T=\max\{X_1,...,X_n\}$. [/mm] Um [mm] $\mbox{E}_N(T)$ [/mm] zu bestimmen, benoetigen wir die Verteilung von $T$. Offenbar nimmt $T$ die Werte $n,...,N$ an. Damit $(T=n)$ eintritt, muessen die Lose [mm] $\{1,...,n\}$ [/mm]  gezogen werden. Das passiert  mit der Wahrscheinlichkeit [mm] $1/\vektor{N\\ n}$. [/mm] Damit $(T=n+k)$, $k=0,...,N-k$, eintritt, muss  Losnummer $n+k$  und $n-1$ Lose mit Nummern aus der Menge [mm] $\{1,...,n+k-1\}$ [/mm] gezogen werden. Diese Wahrscheinlichkeit ist
[mm] $\vektor{n+k-1\\ n-1}/\vektor{N\\ n}=\vektor{n+k-1\\ k}/\vektor{N\\ n}$. [/mm] Mithin ist die Wahrscheinlichkeitsfunktion von $T$ gegeben durch

[mm] $P(T=n+k)=\vektor{n+k-1\\ k}/\vektor{N\\ n}$, [/mm] $k=0,...,N-k$.

[mm] $\mbox{E}_N(T)$ [/mm] ist damit gegeben durch

[mm] $\mbox{E}_N(T)=\frac{1}{\vektor{N\\ n}}\sum_{k=0}^{N-n}(n+k)\vektor{n+k-1\\ k}$. [/mm]


Vielleicht uebernimmst du einmal an dieser Stelle. *Ich* erhalte mit dem Hinweis [mm] $\mbox{E}_N(T)=n(N+1)/(n+1)$, [/mm] wass Sinn macht.


hth

PS: So gut haette ich es zu meiner Studienzeit auch mal gerne gehabt: Komme aus der Uni, und dann haben die Heinzelmaennchen meine Hochschularbeiten gemacht. ;-)

Bezug
                
Bezug
Lose mit Likelihood-Schätzer?: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 21:10 Mi 17.01.2007
Autor: laryllan

Hallo Luis,

und erstmal: herzlichen Dank! Ich habe mich gleich nach der Uni rangesetzt, um weiter zu rechnen. Ich habe wohl bei all dem vergessen, dass es einen Schätzwert ergeben soll. Das mit dem Maximum ist da natürlich sehr elegant. :)

Nun habe ich versucht entsprechend dem, was du dargeboten hast weiterzurechnen. Allerdings musste ich feststellen, dass ich offenbar noch etwas Nachholbedarf im Bereich "Summen auseinanderziehen" habe. Hier mal mein Rechnereien:

[tex] E_{N}(T) = \bruch{1}{\vektor{N \\ n}} \summe_{k=0}^{N-n}(n+k)\vektor{n+k-1 \\ k} [/tex]
[tex] = \bruch{n!(N-n)!}{N!} [/tex] [tex] \summe_{k=0}^{N-n} (n+k) \bruch{(n+k-1)!}{k!(n+k-1+k)!}[/tex]
(das (n+k) ziehe ich oben in die Fakultät im Zähler)
[tex] = \bruch{n!(N-n)!}{N!} [/tex] [tex] \summe_{k=0}^{N-n} \bruch{(n+k)!}{k!(n-1)!}[/tex]
(nun erweitere ich mit n)
[tex] = \bruch{n!(N-n)!}{N!} [/tex] [tex] \summe_{k=0}^{N-n} n \bruch{(n+k)!}{k!(n+k-k)!}[/tex]
(n wird als 'unbeteiligtes Element' vor die Summe gezogen und der Bruch wieder als Binominialkoeffizient dargestellt)
[tex] = n \bruch{n!(N-n)!}{N!} [/tex] [tex] \summe_{k=0}^{N-n} \vektor{n+k \\ k}[/tex]

Damit dein Ergebnis rauskommt, müsste demnach gelten:
[tex]\summe_{k=0}^{N-n} \vektor{n+k \\ k} = \vektor{N+1 \\ n+1}[/tex]. Gut, das sieht ja nach dem "Hinweis" aus. Allerdings stört mich doch, dass in der "Hinweis"-Formel über einen Binominialkoeffizienten summiert wird, bei dem nur ein Element Summen-Variable ist, während ich in diesem Falle ja das "k" in beiden Einträgen habe. Vielleicht bin ich da wirklich nicht firm genug in Sachen Binominialkoeffizient + Summe, aber irgendwie knirscht es da bei mir.

Der letzte Aufgabenteil ging dann aber wieder einfacher:

Wenn [tex] T = max(x_{1},...,x_{n}) [/tex] der gesuchte Maximum-Likelihood-Schätzer ist mit [tex] E_{N}(X) = \bruch{n(N+1)}{n+1} [/tex] nutze ich die Linearität des Erwartungswerts aus, um den erwartungstreuen Schätzer T* zu erhalten. Ich weiß: [tex] E(a*X + c) = a*E(X)+c [/tex] also erhalte ich:

[tex] T* = T * \bruch{(n+1)}{n} [/tex] [tex]- 1 [/tex].

Hoffe ich habe jetzt keinen fundamentalen Fehler hier drin.

Namárie,
sagt ein Lary, wo jetzt weiter grübeln geht.

Bezug
                        
Bezug
Lose mit Likelihood-Schätzer?: Antwort
Status: (Antwort) fertig Status 
Datum: 10:38 Do 18.01.2007
Autor: luis52

.
> Damit dein Ergebnis rauskommt, müsste demnach gelten:
>  [tex]\summe_{k=0}^{N-n} \vektor{n+k \\ k} = \vektor{N+1 \\ n+1}[/tex].
> Gut, das sieht ja nach dem "Hinweis" aus. Allerdings stört
> mich doch, dass in der "Hinweis"-Formel über einen
> Binominialkoeffizienten summiert wird, bei dem nur ein
> Element Summen-Variable ist, während ich in diesem Falle ja
> das "k" in beiden Einträgen habe. Vielleicht bin ich da
> wirklich nicht firm genug in Sachen Binominialkoeffizient +
> Summe, aber irgendwie knirscht es da bei mir.
>  


[mm] $\summe_{k=0}^{N-n} \vektor{n+k \\ k}=\summe_{k=0}^{N-n} \vektor{n+k \\ n}= \summe_{j=n}^{N} \vektor{j \\ n}= \vektor{N+1 \\ n+1}$ [/mm]      

Bezug
                                
Bezug
Lose mit Likelihood-Schätzer?: Heinzelgruß
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 16:07 Do 18.01.2007
Autor: laryllan

Dank dir vielmals, so ist es natürlich deutlich eleganter. Ich hab mich vorhin nochmal drangesetzt und die ersten 10 und das letzte Glied der Summe ausgerechnet. Deine Lösung ist natürlich die deutlich elegantere, aber so per Praxis, hat's dann (trotz der allseits beliebten "..."-Notation) doch noch bissel mehr geleuchtet!

Namárie,
sagt ein Lary, wo dankend einen Heinzel-haften Gruß da lässt

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]