Likelihood für stetige Verteil < Statistik (Anwend.) < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 11:26 Mo 12.07.2010 | Autor: | Hanz |
Aufgabe | Die Lebensdauer T eines Transistortyps sei eine Zufallsvariable mit Dichte
[mm] f(t)=\begin{cases} 10 \cdot exp(-10(t-\theta)) , t \ge \theta \\ 0, t < \theta \end{cases}
[/mm]
Hierbei ist [mm] \theta [/mm] > 0 die unbekannte minimale Lebensdauer.
a) Bestimme den Maximum-Likelihood-Schätzer [mm] \theta_{ML} [/mm] für [mm] \theta [/mm] anhand der Beobachtungen [mm] t_1,...,t_n [/mm] von n unabhängigen Transistorlebensdauern.
b) Bestimme eine Wahrscheinlichkeitsdichte zu [mm] \theta_{ML} [/mm] |
Hi,
also bisher hatte ich nur Likelihood Aufgaben mit diskreten Verteilungen gerechnet, die auch gut geklappt hatten. Nun liegt ja eine stetige vor. Dies ist bislang mein Ansatz:
Die Likelihood-Funktion: [mm] l(\theta) [/mm] = [mm] \produkt_{i=1}^{n}10\cdot e^{-10(t_i-\theta)} [/mm] = [mm] \produkt_{i=1}^{n}10\cdot e^{-10t_i + 10\theta}
[/mm]
Als nächstes Schreibe ich das Produkt um, sodass man besser logarithmieren kann:
= [mm] 10^n \cdot e^{-10 \summe_{i=1}^{n}t_i + n10\theta }
[/mm]
Jetzt logarithmieren:
= n log(10) + [mm] (-10\summe_{i=1}^{n}t_i [/mm] + [mm] n10\theta [/mm] ) log (e)
Jetzt müsste man ja eigtl nach [mm] \theta [/mm] ableiten und Nullsetzen, jedoch verschindet [mm] \theta [/mm] dann...
Was habe ich falsch gemacht?
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 12:14 Mo 12.07.2010 | Autor: | gfm |
> Die Lebensdauer T eines Transistortyps sei eine
> Zufallsvariable mit Dichte
>
>
> [mm]f(t)=\begin{cases} 10 \cdot exp(-10(t-\theta)) , t \ge \theta \\ 0, t < \theta \end{cases}[/mm]
>
> Hierbei ist [mm]\theta[/mm] > 0 die unbekannte minimale
> Lebensdauer.
>
> a) Bestimme den Maximum-Likelihood-Schätzer [mm]\theta_{ML}[/mm]
> für [mm]\theta[/mm] anhand der Beobachtungen [mm]t_1,...,t_n[/mm] von n
> unabhängigen Transistorlebensdauern.
>
> b) Bestimme eine Wahrscheinlichkeitsdichte zu [mm]\theta_{ML}[/mm]
> Hi,
>
> also bisher hatte ich nur Likelihood Aufgaben mit diskreten
> Verteilungen gerechnet, die auch gut geklappt hatten. Nun
> liegt ja eine stetige vor. Dies ist bislang mein Ansatz:
>
> Die Likelihood-Funktion: [mm]l(\theta)[/mm] =
> [mm]\produkt_{i=1}^{n}10\cdot e^{-10(t_i-\theta)}[/mm] =
> [mm]\produkt_{i=1}^{n}10\cdot e^{-10t_i + 10\theta}[/mm]
> Als
> nächstes Schreibe ich das Produkt um, sodass man besser
> logarithmieren kann:
>
> = [mm]10^n \cdot e^{-10 \summe_{i=1}^{n}t_i + n10\theta }[/mm]
>
> Jetzt logarithmieren:
>
> = n log(10) + [mm](-10\summe_{i=1}^{n}t_i[/mm] + [mm]n10\theta[/mm] ) log
> (e)
>
> Jetzt müsste man ja eigtl nach [mm]\theta[/mm] ableiten und
> Nullsetzen, jedoch verschindet [mm]\theta[/mm] dann...
>
> Was habe ich falsch gemacht?
>
>
>
> Ich habe diese Frage in keinem Forum auf anderen
> Internetseiten gestellt.
Habe nie Statistik gehört, aber ich würde sagen:
Sobald für ein i gilt [mm] t_i<\theta [/mm] verschwindet die Dichte von [mm] T_i [/mm] und damit auch die Likelihood-Funktion. Somit muss die Lösung für [mm] \theta\le\min(t_i:i=1,...,n) [/mm] gesucht werden. Dort hat sie (wenn man [mm] \lambda [/mm] für 10 schreibt) die Form [mm] \lambda^ne^{n\lambda\theta}e^{-\lambda\summe t_i}. [/mm] Bezüglich [mm] \theta [/mm] ist das eine streng monoton steigende Funktion (sofern [mm] \lambda>0 [/mm] gilt), die Ihr Maximum also am rechten Rand annimmt: [mm] \theta_{ML}=\min(t_i:i=1,...,n)
[/mm]
LG
gfm
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 16:05 Mo 12.07.2010 | Autor: | Hanz |
Ok, ich glaube damit kann ich etwas anfangen.
Hätte da aber noch eine Frage zu einem einfachen Rechenschritt (aber andere Aufgabe):
Also die Likelihood-Funktion lautet: [mm] \produkt_{i=1}^{n} \bruch{1}{\theta x_i} e^{-y_i/\theta x_i}
[/mm]
Wenn es ums ableiten geht sagt die Musterlösung:
[mm] \bruch{\partial}{\partial \theta}(\summe_{i=1}^{n}(-log(\theta x_i) [/mm] - [mm] \bruch{y_i}{\theta x_i})) [/mm] ) = [mm] \summe_{i=1}^{n} [/mm] ( - [mm] \bruch{1}{\theta} [/mm] + [mm] \bruch{y_i}{\theta^2 x_i}) [/mm] = [mm] \bruch{1}{\theta^2} [-n\theta [/mm] + [mm] \summe_{i=1}^{n} \bruch{y_i}{x_i}] [/mm] = 0 [mm] \gdw \theta [/mm] = [mm] \bruch{1}{n}\summe_{i=1}^{n} \bruch{y_i}{x_i}
[/mm]
Rechne ich es aber per Hand, dann bekomme ich dieses 1/n am Ende irgendwie nicht hin:
- [mm] log(\theta \summe_{i=1}^{n} x_i) [/mm] - [mm] \bruch{\summe_{i=1}^{n}y_i}{\theta \summe_{i=1}^{n}x_i} [/mm] Jetzt ableiten: - [mm] \bruch{1}{\theta} [/mm] + [mm] \bruch{\summe_{i=1}^{n}y_i}{\theta^2 \summe_{i=1}^{n}x_i} [/mm] Wenn ich es jetzt nach [mm] \theta [/mm] umforme erhalte ich: [mm] \theta [/mm] = [mm] \summe_{i=1}^{n} \bruch{y_i}{x_i}
[/mm]
Irgendwas muss ich beim Ableiten missachten, aber ich weiss net was. Ich würde es auch gerne machen, ohne alles in eine Summe zu ziehen wie in der Musterlösung.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:48 Mo 12.07.2010 | Autor: | gfm |
> Ok, ich glaube damit kann ich etwas anfangen.
>
>
> Hätte da aber noch eine Frage zu einem einfachen
> Rechenschritt (aber andere Aufgabe):
>
> Also die Likelihood-Funktion lautet: [mm]\produkt_{i=1}^{n} \bruch{1}{\theta x_i} e^{-y_i/\theta x_i}[/mm]
>
> Wenn es ums ableiten geht sagt die Musterlösung:
>
> [mm]\bruch{\partial}{\partial \theta}(\summe_{i=1}^{n}(-log(\theta x_i)[/mm]
> - [mm]\bruch{y_i}{\theta x_i}))[/mm] ) = [mm]\summe_{i=1}^{n}[/mm] ( -
> [mm]\bruch{1}{\theta}[/mm] + [mm]\bruch{y_i}{\theta^2 x_i})[/mm] =
> [mm]\bruch{1}{\theta^2} [-n\theta[/mm] + [mm]\summe_{i=1}^{n} \bruch{y_i}{x_i}][/mm]
> = 0 [mm]\gdw \theta[/mm] = [mm]\bruch{1}{n}\summe_{i=1}^{n} \bruch{y_i}{x_i}[/mm]
>
>
> Rechne ich es aber per Hand, dann bekomme ich dieses 1/n am
> Ende irgendwie nicht hin:
>
> - [mm]log(\theta \summe_{i=1}^{n} x_i)[/mm] - [mm]\bruch{\summe_{i=1}^{n}y_i}{\theta \summe_{i=1}^{n}x_i}[/mm]
Willst Du damit sagen, dass z.B.
[mm] \lg(240)=\lg(4)+\lg(6)+1=\lg(2*2)+\lg(2*3)+1/2 [/mm] + [mm] 1/2=\lg(2*(2+3))+(1+1)/(2+2)=\lg(10)+2/4=1+0,5=1,5=\lg(\wurzel{1000})
[/mm]
ist?!
LG
gfm
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 07:01 Di 13.07.2010 | Autor: | luis52 |
> Rechne ich es aber per Hand, dann bekomme ich dieses 1/n am
> Ende irgendwie nicht hin:
>
> - [mm]log(\theta \summe_{i=1}^{n} x_i)- \bruch{\summe_{i=1}^{n}y_i}{\theta \summe_{i=1}^{n}x_i}[/mm]
Hier muss es m.E. - [mm]\log(\red{\theta^n} \summe_{i=1}^{n} x_i)[/mm] heissen.
vg Luis
PS: Bitte eroeffne neue Themen in einem *eigenen* Thread, sonst gibt es hier ein unentwirrbares Kuddelmuddel.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 12:56 Di 13.07.2010 | Autor: | gfm |
> > Rechne ich es aber per Hand, dann bekomme ich dieses 1/n am
> > Ende irgendwie nicht hin:
> >
> > - [mm]log(\theta \summe_{i=1}^{n} x_i)- \bruch{\summe_{i=1}^{n}y_i}{\theta \summe_{i=1}^{n}x_i}[/mm]
>
> Hier muss es m.E. - [mm]\log(\red{\theta^n} \summe_{i=1}^{n} x_i)[/mm]
> heissen.
Sicher?
LG
gfm
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 14:07 Di 13.07.2010 | Autor: | luis52 |
>
> Sicher?
>
Moin,
laut Hanz: [mm] $l(\theta)= \produkt_{i=1}^{n} \bruch{1}{\theta x_i} e^{-y_i/\theta x_i}= \frac{1}{\theta^n}(\produkt_{i=1}^{n} \bruch{1}{ x_i}) e^{-\sum(y_i/ x_i)/\theta}$.
[/mm]
vg Luis
Logarithmieren fuehrt (fast) dazu ...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:27 Di 13.07.2010 | Autor: | gfm |
> >
> > Sicher?
> >
>
> Moin,
>
> laut Hanz: [mm]l(\theta)= \produkt_{i=1}^{n} \bruch{1}{\theta x_i} e^{-y_i/\theta x_i}= \frac{1}{\theta^n}(\produkt_{i=1}^{n} \bruch{1}{ x_i}) e^{-\sum(y_i/ x_i)/\theta}[/mm].
>
> vg Luis
>
>
> Logarithmieren fuehrt (fast) dazu ...
>
Ich meinte, dass die ganze angegebene Umformung von Ihm nicht paßt. Deswegen auch der Scherz mit [mm] lg(240)=...=lg(\wurzel{1000}).
[/mm]
LG
gfm
|
|
|
|