www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - f-s.Konvergenz , stochast. Kon
f-s.Konvergenz , stochast. Kon < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

f-s.Konvergenz , stochast. Kon: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 16:05 Fr 08.04.2011
Autor: Fry

Hallo,

wie würdet ihr erklären, wo der Unterschied zwischen fast sicherer Konvergenz und stochastischer Konvergenz liegt? [mm] ($X_n\to [/mm] X$ f.s bzw P-stochastisch)

fast sichere Konvergenz: Die Folge der [mm] $X_n$ [/mm] konvergiert mit Wkeit 1 gegen $X$

stochastische Konvergenz: Die Wkeit, dass [mm] $X_n$ [/mm] von $X$ um einen beliebigen Wert>0 abweicht, konvergiert (für alle Abweichungen) gegen 0

Würde mich über eurer Feedback freuen.Danke!

Gruß
Fry



        
Bezug
f-s.Konvergenz , stochast. Kon: Antwort
Status: (Antwort) fertig Status 
Datum: 17:31 Fr 08.04.2011
Autor: vivo

Hallo Fry,

darüber hab ich mir auch schon gefühlte hundertausend mal den kopf zerbrochen. Es ist ja so, dass aus der fast sicheren die stochastische konvergenz folgt, die umkehrung aber nicht gilt!

Beweis:

[mm]1= \mathbf{P}\Big(\bigcup_{m=1}^{\infty} \bigcap_{n\geq m}\big\{|X_n-X| \leq \epsilon \big\} \Big)=\lim_{m\to\infty}\mathbf{P}\Big(\bigcap_{n\geq m}\big\{|X_n-X| \leq \epsilon \big\} \Big)[/mm]
[mm][/mm]

dies folgt aus [mm]A_1\subseteq A_2\subseteq A_3\subseteq ...[/mm] und [mm]A=\bigcup_{i=1}^{\infty}A_i[/mm] denn dann gilt

[mm]\mathbf{P}(A)=\mathbf{P}\Big(\bigcup_{i=1}^{\infty} \big(A_i \backslash A_{i-1}\big)\Big)= \sum_{i=1}^{\infty}\mathbf{P}\Big( \big(A_i \backslash A_{i-1}\big)\Big)=\lim_{n\to\infty}\sum_{i=1}^{n}\mathbf{P}\Big( \big(A_i \backslash A_{i-1}\big)\Big)=\lim_{n\to\infty} \mathbf{P}\Big(\bigcup_{i=1}^{n} \big(A_i \backslash A_{i-1}\big)\Big)=\lim_{n\to\infty} \mathbf{P}(A_n)[/mm]

Dass die Umkehrung nicht gilt, zeigt folgendes Beispiel: Betrachte [mm]\Omega=[0,1[ [/mm] mit der Gleichverteilung.
[mm]c_n=1+\frac{1}{2}+\frac{1}{3}+...+\frac{1}{n}[/mm] und
[mm]A_n=\{\omega \in [0,1[: \omeg \hbox{ liegt in mod } 1 [c_n,c_{n-1}] \}[/mm]
Die Folge [mm]Y_n(\omega)=(1_{A_n})[/mm] konvergiert stochastisch gegen [mm]0[/mm] denn für [mm]0<\epsilon<1[/mm] gilt

[mm]\mathbf{P}\big(|Y_n-0| \geq \epsilon \big)=\mathbf{P}(A_n)=\frac{1}{n} \to 0[/mm]

Es ist aber leicht einzusehen dass es für jedes [mm]\omega[/mm] Zahlen [mm]m,n \geq N[/mm] mit [mm]\omega \in A_n^{\mathcal{C}}[/mm] und
[mm]\omega \in A_m[/mm] gibt, deshalb gilt:

[mm]\lim \inf Y_n(\omega)=0[/mm] und [mm]\lim \sup Y_n(\omega)=1[/mm]

Betrachte mal

[mm]\lim_{n\to\infty}\frac{1}{n}\sum_{i=1}^{n}\big(\ X_i -\mathbf{E}(X_i) \big)=0[/mm]

gilt dies [mm]\mathbf{P}[/mm]-stochastisch bzw. [mm]\mathbf{P}[/mm]-fast-sicher, so genügt die Folge [mm](X_n)_{n\in\IN}[/mm] integrierbare ZV dem schwachen bzw. starken Gesetz der großen Zahlen.

Also ist der Unterschied im schwachen und starken Gesetz der großen Zahlen durch den Unterschied der Konvergenzarten gegeben.

grüße

Bezug
                
Bezug
f-s.Konvergenz , stochast. Kon: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:18 Sa 09.04.2011
Autor: Fry

Oh man, hast du dir Mühe gemacht.
Vielen Dank für deine Antwort, vivo !
P-f.s. Konvergenz lässt sich ja auch so schreiben:
[mm]\lim_{n\to\infty}P(\sup_{m\ge n}|X_m-X|>\varepsilon})=0[/mm] für alle [mm]\varepsilon >0[/mm]
Wie könnte ich mir denn jetzt den Unterschied vorstellen?


Gruß
Fry


Bezug
                        
Bezug
f-s.Konvergenz , stochast. Kon: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 19:57 Sa 09.04.2011
Autor: vivo

Hey Fry,

naja bei der fast sicheren konvergenz ist es halt so, dass [mm] $Y_n$ [/mm] für sehr große $n$ ganz nah bei $Y$ ist (außer auf Nullmengen). Bei der stochastischen Konvergenz muss dass nicht sein, wie mein obiges Beispiel zeigt. Für sehr große $n$ ist die Wahrscheinlichkeit dass [mm] $Y_n$ [/mm] sehr nah bei $Y$ leigt aber so gut wie 1.

Wie auch oben schon geschrieben der unterschied im schwachen und starken gesetz der großen zahlen nur die stochastische bzw fast sichere konvergenz. Da aus fast sicherer, stochastische folgt, folgt gültigkeit des starken auch gültigkeit des schwachen g. d. g. Z.

Das mit dem intuitiven Unterschied der beiden Konvergenzarten ist halt meiner meinung nach wirklich nicht so leicht zu fassen.

Es ist so, dass obwhol die wahrscheinlichkeit, dass [mm] $Y_n$ [/mm] nicht beliebig nahe bei $Y$ liegt gegen $0$ konvergiert, [mm] $Y_n$ [/mm] nicht gegen $Y$ konvergieren muss.

Ich denke aber schon, dass die Gegenbeispiele irgendwo recht konstruiert sind.

gruß

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]