www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Gesetz der großen Zahlen
Gesetz der großen Zahlen < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Gesetz der großen Zahlen: stochast. u fast sichere Konv.
Status: (Frage) beantwortet Status 
Datum: 16:25 Mi 05.10.2005
Autor: Martina24

Hallo,

kann mir jemand den Unterschied zwischen stochastischer und fast sicherer Konvergenz erklären?
Vielen Dank schon mal!

Martina


Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt

        
Bezug
Gesetz der großen Zahlen: Antwort
Status: (Antwort) fertig Status 
Datum: 16:54 Mi 05.10.2005
Autor: Julius

Hallo Martina!

Die fast sichere Konvergenz ist stärker als die stochastische Konvergenz!

Was die ($P$-)fast sichere Konvergenz ist, kann man ja fast erraten: Die Menge, derjenigen [mm] $\omega \in \Omega$, [/mm] für die [mm] $(X_n(\omega))_{n \in \IN}$ [/mm] nicht gegen [mm] $X(\omega)$ [/mm] konvergiert, muss eine Nullmenge sein.

Die ($P$-)stochastische Konvergenz besagt:

Für alle [mm] $\varepsilon>0$ [/mm] gilt:

(1) [mm] $\lim\limits_{n \to \infty} P(|X_n-X| [/mm] > [mm] \varepsilon) [/mm] = 0$.

Nun lässt sich die lette Bedingung schwer mit der ersten vergleichen. Beachte aber, dass die ($P$)-fast sichere Konvergenz äquivalent auch wie folgt ausgedrückt werden kann:

Für alle [mm] $\varepsilon>0$ [/mm] gilt:

(2) [mm] $\lim\limits_{n \to \infty} P(\sup\limits_{m \ge n} |X_m-X| [/mm] > [mm] \varepsilon) [/mm] = 0$.

Und wenn man jetzt mal (1) und (2) vergleicht, dann sieht man ganz deutlich, dass (2) (also die ($P$)-fast sichere Konvergenz) eindeutig stärker ist, d.h. aus der ($P$)-fast sicheren Konvergenz folgt die ($P$)-stochastische Konvergenz.

Hier ein Beispiel für eine Folge, die zwar stochastisch, aber nicht fast sicher konvergiert:

Betrachte auf dem Intervall $[0,1)$, versehen mit dem Lebesguemaß [mm] $\lambda$, [/mm] die Folge [mm] $(1_{A_n})_{n \in \IN}$ [/mm] mit

[mm] $A_n:=[k2^{-h} [/mm] , [mm] (k+1)2^{-h}[$, [/mm]

wobei [mm] $n=2^h+k$, $0\le [/mm] k < [mm] 2^h$, $h,k\, \in \IZ$. [/mm]

Stell dir das so vor: Die [mm] $A_n$'s [/mm] durchlaufen das Intervall $[0,1)$ immer wieder, und zwar als immer kleinere Intervalle, von links nach rechts.

Offenbar kann dann durch dieses ständige Durchlaufen [mm] $(1_{A_n})_{n \in \IN}$ [/mm] nicht konvergieren (denn immer wieder wird der Wert für ein festes [mm] $\omega$ [/mm] gleich $1$ und dann ganz oft hintereinander $0$, bis er irgendwann wieder $1$ wird und dann wieder ganz oft hintereinander $0$, usw.).

Andererseits gilt aber:

[mm] $\lambda(|1_{A_n}| \ge \varepsilon) \le 2^{-h} [/mm] < [mm] \frac{2}{n}$ [/mm]

(denn [mm] $1_{A_n}$ [/mm] ist überall gleich $0$, außer in einem Intervall der Länge [mm] $2^{-h}$). [/mm]

Wir haben also:

[mm] $\lim\limits_{n \to \infty} \lambda(|1_{A_n}| \ge \varepsilon) [/mm] =0$,

d.h. [mm] $(1_{A_n})_{n \in \IN}$ [/mm] konvergiert stochastisch gegen die Nullfunktion.

Liebe Grüße
Julius


Bezug
                
Bezug
Gesetz der großen Zahlen: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:36 Mi 05.10.2005
Autor: Martina24

Hallo Julius!

Vielen Dank für deine ausführliche Antwort; sie hat mir auf jeden Fall schon weitergeholfen. Leider versteh ich noch nicht, wieso die fast sichere Konvergenz gleichbedeutend ist mit
[mm] $\limes_{n \rightarrow \infty} [/mm] P [mm] \left(sup| X_m - X| > \epsilon \right) [/mm] = 0$ ?

Bezug
                        
Bezug
Gesetz der großen Zahlen: Antwort
Status: (Antwort) fertig Status 
Datum: 12:36 Mi 12.10.2005
Autor: Julius

Eingabefehler: "\left" und "\right" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)

Hallo!

Es sei

$A :=\left\{\omega \in \Omega\, : \, \lim\limits_{n \to \infty} X_n(\omega)=0\}$.

Dann gilt:

$A = \bigcap\limits_{k=1}^{\infty} \bigcup\limits_{n=1}^{\infty} \left\{\sup\limits_{m \ge n} |X_m(\omega) - X(\omega)| \le \frac{1}{k} \right\}$

und daher:

$A^c = \bigcup\limits_{k=1}^{\infty} \bigcap\limits_{n=1}^{\infty} \left\{ \sup\limits_{m \ge n} |X_m(\omega) - X(\omega)| > \frac{1}{k} \right\}$.

Wegen der Stetigkeit des W-Maßes $P$ folgt:

$P(A^c) = \sup\limits_{k \in \IN} \lim\limits_{n \to \infty} P\left( \sup\limits_{m \ge n} |X_m - X| > \frac{1}{k} \right)$.

Also gilt $P(A^c)=0$ genau dann, wenn für alle $k \in \IN$

$\lim\limits_{n \to \infty} P\left( \sup\limits_{m \ge n} |X_m - X| > \frac{1}{k} \right) = 0$

gilt. Dies wiederum ist genau dann der Fall, wenn  für alle $\varepsilon >0$ gilt:

$\lim\limits_{n \to \infty} P\left( \sup\limits_{m \ge n} |X_m - X| > \varepsilon \right) = 0$.

Liebe Grüße
Julius

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]