f-s.Konvergenz , stochast. Kon < Stochastik < Hochschule < Mathe < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 16:05 Fr 08.04.2011 | Autor: | Fry |
Hallo,
wie würdet ihr erklären, wo der Unterschied zwischen fast sicherer Konvergenz und stochastischer Konvergenz liegt? [mm] ($X_n\to [/mm] X$ f.s bzw P-stochastisch)
fast sichere Konvergenz: Die Folge der [mm] $X_n$ [/mm] konvergiert mit Wkeit 1 gegen $X$
stochastische Konvergenz: Die Wkeit, dass [mm] $X_n$ [/mm] von $X$ um einen beliebigen Wert>0 abweicht, konvergiert (für alle Abweichungen) gegen 0
Würde mich über eurer Feedback freuen.Danke!
Gruß
Fry
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 17:31 Fr 08.04.2011 | Autor: | vivo |
Hallo Fry,
darüber hab ich mir auch schon gefühlte hundertausend mal den kopf zerbrochen. Es ist ja so, dass aus der fast sicheren die stochastische konvergenz folgt, die umkehrung aber nicht gilt!
Beweis:
[mm]1= \mathbf{P}\Big(\bigcup_{m=1}^{\infty} \bigcap_{n\geq m}\big\{|X_n-X| \leq \epsilon \big\} \Big)=\lim_{m\to\infty}\mathbf{P}\Big(\bigcap_{n\geq m}\big\{|X_n-X| \leq \epsilon \big\} \Big)[/mm]
[mm][/mm]
dies folgt aus [mm]A_1\subseteq A_2\subseteq A_3\subseteq ...[/mm] und [mm]A=\bigcup_{i=1}^{\infty}A_i[/mm] denn dann gilt
[mm]\mathbf{P}(A)=\mathbf{P}\Big(\bigcup_{i=1}^{\infty} \big(A_i \backslash A_{i-1}\big)\Big)= \sum_{i=1}^{\infty}\mathbf{P}\Big( \big(A_i \backslash A_{i-1}\big)\Big)=\lim_{n\to\infty}\sum_{i=1}^{n}\mathbf{P}\Big( \big(A_i \backslash A_{i-1}\big)\Big)=\lim_{n\to\infty} \mathbf{P}\Big(\bigcup_{i=1}^{n} \big(A_i \backslash A_{i-1}\big)\Big)=\lim_{n\to\infty} \mathbf{P}(A_n)[/mm]
Dass die Umkehrung nicht gilt, zeigt folgendes Beispiel: Betrachte [mm]\Omega=[0,1[ [/mm] mit der Gleichverteilung.
[mm]c_n=1+\frac{1}{2}+\frac{1}{3}+...+\frac{1}{n}[/mm] und
[mm]A_n=\{\omega \in [0,1[: \omeg \hbox{ liegt in mod } 1 [c_n,c_{n-1}] \}[/mm]
Die Folge [mm]Y_n(\omega)=(1_{A_n})[/mm] konvergiert stochastisch gegen [mm]0[/mm] denn für [mm]0<\epsilon<1[/mm] gilt
[mm]\mathbf{P}\big(|Y_n-0| \geq \epsilon \big)=\mathbf{P}(A_n)=\frac{1}{n} \to 0[/mm]
Es ist aber leicht einzusehen dass es für jedes [mm]\omega[/mm] Zahlen [mm]m,n \geq N[/mm] mit [mm]\omega \in A_n^{\mathcal{C}}[/mm] und
[mm]\omega \in A_m[/mm] gibt, deshalb gilt:
[mm]\lim \inf Y_n(\omega)=0[/mm] und [mm]\lim \sup Y_n(\omega)=1[/mm]
Betrachte mal
[mm]\lim_{n\to\infty}\frac{1}{n}\sum_{i=1}^{n}\big(\ X_i -\mathbf{E}(X_i) \big)=0[/mm]
gilt dies [mm]\mathbf{P}[/mm]-stochastisch bzw. [mm]\mathbf{P}[/mm]-fast-sicher, so genügt die Folge [mm](X_n)_{n\in\IN}[/mm] integrierbare ZV dem schwachen bzw. starken Gesetz der großen Zahlen.
Also ist der Unterschied im schwachen und starken Gesetz der großen Zahlen durch den Unterschied der Konvergenzarten gegeben.
grüße
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:18 Sa 09.04.2011 | Autor: | Fry |
Oh man, hast du dir Mühe gemacht.
Vielen Dank für deine Antwort, vivo !
P-f.s. Konvergenz lässt sich ja auch so schreiben:
[mm]\lim_{n\to\infty}P(\sup_{m\ge n}|X_m-X|>\varepsilon})=0[/mm] für alle [mm]\varepsilon >0[/mm]
Wie könnte ich mir denn jetzt den Unterschied vorstellen?
Gruß
Fry
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 19:57 Sa 09.04.2011 | Autor: | vivo |
Hey Fry,
naja bei der fast sicheren konvergenz ist es halt so, dass [mm] $Y_n$ [/mm] für sehr große $n$ ganz nah bei $Y$ ist (außer auf Nullmengen). Bei der stochastischen Konvergenz muss dass nicht sein, wie mein obiges Beispiel zeigt. Für sehr große $n$ ist die Wahrscheinlichkeit dass [mm] $Y_n$ [/mm] sehr nah bei $Y$ leigt aber so gut wie 1.
Wie auch oben schon geschrieben der unterschied im schwachen und starken gesetz der großen zahlen nur die stochastische bzw fast sichere konvergenz. Da aus fast sicherer, stochastische folgt, folgt gültigkeit des starken auch gültigkeit des schwachen g. d. g. Z.
Das mit dem intuitiven Unterschied der beiden Konvergenzarten ist halt meiner meinung nach wirklich nicht so leicht zu fassen.
Es ist so, dass obwhol die wahrscheinlichkeit, dass [mm] $Y_n$ [/mm] nicht beliebig nahe bei $Y$ liegt gegen $0$ konvergiert, [mm] $Y_n$ [/mm] nicht gegen $Y$ konvergieren muss.
Ich denke aber schon, dass die Gegenbeispiele irgendwo recht konstruiert sind.
gruß
|
|
|
|