Stochastische Konvergenz < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Hallo. Mich plagt mal wieder die Stochastik. Genauer gesagt sind es immer noch die stochastische und die fast sichere Konvergenz. Am besten erstmal zur Aufgabe:
Seien unabhängige Zufallsvariablen auf einem Wahrscheinlichkeitsraum mit
, .
Zu zeigen ist
für
P-stochastisch gilt, aber nicht P-fast sicher.
Also ich habe den Unterschied zwischen den beiden Konvergenzen schon verstanden. Allerdings ist mir nicht klar, wie ich sowas nachweise. Weiterhin habe ich mir überlegt, dass ich die nicht existente fast sicher Konvergenz irgendwie über Borel-Cantelli nachweisen kann, da ich das so verstanden habe, dass aus die fast sichere Konvergenz nicht besteht. Hab ich das richtig verstanden? Aber wie genau ich das dann anwenden kann ist mir nicht ganz klar. Ich hoffe jemand kann mir helfen. Danke
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 11:56 Di 19.11.2013 | Autor: | Fry |
Hallo
[mm]P\left(\left|\frac{1}{n}\sum_{i=2}^{n+1}X_i\right|>\varepsilon\right)\le \frac{1}{n^2\varepsilon^2}\sum_{i=2}^{n+1}Var(X_i)=\frac{1}{n^2\varepsilon^2}\sum_{i=2}^{n+1}\frac{i}{\ln i}\le \frac{1}{n^2\varepsilon^2}\sum_{i=2}^{n+1}\frac{(n+1)}{\ln(n+1)}
= \frac{1}{\varepsilon^2}\left(\frac{n+1}{n}\right)\frac{1}{\ln(n+1)}.
[/mm]
Begründungen (gehe die Un/Gleichungen durch)
(1) Tschebyscheff, Erwartungswert=0, [mm] X_i [/mm] unabhängig
(2) Varianz eingesetzt
(3) Die Fkt [mm]x\mapsto \frac{x}{\ln x}[/mm] ist streng monoton wachsend
(4) Summanden von n unabhängig...
Der letzte Term konvergiert gegen 0.
Damit folgt die stochastische Konvergenz gegen 0.
Zur fast sicheren Konvergenz:
Versuch mal zu zeigen, dass [mm]P(\limsup_{n\to\infty}|\frac{X_n}{n}|\ge 1)=1[/mm].
Da [mm]\left|\frac{1}{n}\sum_{i=1}^{n}X_i(\omega)-\frac{1}{n-1}\sum_{i=1}^{n-1}X_i(\omega)\right|
=\left|\frac{X_n(\omega)}{n}-\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|
\ge \left|\frac{X_n(\omega)}{n}\right|-\left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|\ge 1- \left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|\ge 1-\frac{1}{2}=\frac{1}{2}
[/mm]
für [mm]\omega\in\limsup_{n\to\infty}\left\{|\frac{X_n}{n}|\ge 1\right\}[/mm]
Nach dem Cauchykriterium gilt also: [mm] $\lim_{n\to\infty}\frac{1}{n}\sum_{i=1}^{n}X_i$ [/mm] existiert P-fast sicher nicht.
LG
Christian
|
|
|
|
|
Ok.... Die nicht fast sichere Konvergenz verstehe ich überhaupt nicht!
Warum machst du
[mm] \left|\frac{1}{n}\sum_{i=1}^{n}X_i(\omega)-\frac{1}{n-1}\sum_{i=1}^{n-1}X_i(\omega)\right| =\left|\frac{X_n(\omega)}{n}-\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right| \ge \left|\frac{X_n(\omega)}{n}\right|-\left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|\ge [/mm] 1- [mm] \left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|\ge 1-\frac{1}{2}=\frac{1}{2}
[/mm]
und was soll ich davon haben??? Tut mir leid, aber ich verstehe das echt nicht. Müssten die Summen nicht auch bei 2 beginnen?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 15:46 Di 19.11.2013 | Autor: | Fry |
Hey,
also die Idee dahinter ist, dass man zeigt, dass die Folge [mm] $a_n:=\frac{1}{n}\sum_{i=1}^{n} X_i$ [/mm] P-fast sicher (also mit Wkeit 1) keine Cauchyfolge ist.
In [mm] $\mathbb [/mm] R$ ist dies dann äquivalent dazu, dass [mm] $a_n$ [/mm] nicht konvergiert (bzw. keinen
reellen Limes besitzt).
Ich suche mir also eine Menge [mm] $A\in\mathcal [/mm] A$, auf der [mm] $a_n$ [/mm] keine Cauchyfolge ist und die die Wkeit 1 besitzt.
Nun ist [mm] $a_n$ [/mm] Cauchyfolge gdw [mm] \forall\varepsilon >0 \exists n_0\in\mathbb N \forall n,m\ge n_0: |a_n-a_m|<\varepsilon[/mm]
Speziell schau ich mir mal $m=n-1$ an und den Abstand [mm] $|a_n-a_{n-1}|$ [/mm] kann ich dann für alle [mm] $n\ge [/mm] 2$ durch 0,5 nach unten abschätzen. Allerdings sollte es nach Def. so sein, dass ich $n,m$ nur groß genug wählen muss, damit ich unter eine gegebene Schranke [mm] $\varepsilon$ [/mm] komme. Offensichtlich geht das nicht für$ [mm] \varepsilon<0,5$.
[/mm]
...ja, ich hab mich da vertan, die Summe muss auch bis n+1 gehen. Kriegs aber gerade nicht entsprechend umgeschrieben.
LG
|
|
|
|
|
Ok, dass mit der Cauchy-Folge habe ich so etwa verstanden. Allerdings ist mir nicht ganz klar wie du das nach unten mit [mm] \frac{1}{2} [/mm] meinst. Ich meine, ich habe keine Umformung aus deiner ersten Antwort bis zum letzten Schritt verstanden. Aber ich verstehe nicht wie du am Ende
[mm] \left|\frac{X_n(\omega)}{n}\right|-\left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|\ge [/mm] 1- [mm] \left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|\ge 1-\frac{1}{2}=\frac{1}{2}
[/mm]
abschätzen kannst. Wenn ich das richtig verstehe, kann [mm] X_n(\omega) [/mm] doch nur die Wert n, -n oder 0 annehmen. Wie kannst du dann sagen:
[mm] \left|\frac{X_n(\omega)}{n}\right|\ge [/mm] 1
Und wenn ich gezeigt habe, dass [mm] \lim_{n\to\infty}\frac{1}{n}\sum_{i=1}^{n}X_i [/mm] keine Cauchyfolge ist, dann ist es auch nicht P-fast sicher konvergent? Warum?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 00:44 Mi 20.11.2013 | Autor: | Fry |
> Ok, dass mit der Cauchy-Folge habe ich so etwa verstanden.
> Allerdings ist mir nicht ganz klar wie du das nach unten
> mit [mm]\frac{1}{2}[/mm] meinst. Ich meine, ich habe keine Umformung
> aus deiner ersten Antwort bis zum letzten Schritt
> verstanden.
Das mit der stochastischen Konvergenz ist nicht klar geworden?
Aber ich verstehe nicht wie du am Ende
>
> [mm]\left|\frac{X_n(\omega)}{n}\right|-\left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|\ge[/mm]
> 1-
> [mm]\left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|\ge 1-\frac{1}{2}=\frac{1}{2}[/mm]
>
> abschätzen kannst. Wenn ich das richtig verstehe, kann
> [mm]X_n(\omega)[/mm] doch nur die Wert n, -n oder 0 annehmen. Wie
> kannst du dann sagen:
>
> [mm]\left|\frac{X_n(\omega)}{n}\right|\ge[/mm] 1
Ich betrachte doch gerade die [mm] |a_n-a_{n-1}| [/mm] nur für [mm]\omega\in\limsup_{n\to\infty}\{|\frac{X_n(\omega)}{n}|\ge 1\}[/mm] und auf dieser Menge gilt ja die Abschätzung.
Man kann dann noch mit Borel-Cantelli und Cauchyschem Verdichtungssatz zeigen, dass P(A)=1.
[mm]\left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|[/mm] hab ich dann nach oben abgeschätzt,
indem ich die Dreiecksungleichung benutzt habe: [mm]\left|\frac{1}{n(n-1)}\sum_{i=1}^{n-1}X_i(\omega)\right|\le [/mm][mm]\frac{1}{n(n-1)}\sum_{i=1}^{n-1}|X_i(\omega)|. [/mm]
Nun [mm] $|X_i(\omega)|\le [/mm] i$ und danach Gaußsche Summenformel anwenden.
Aber wahrscheinlich bringt dir das insgesamt sowieso nix, da ja deine Folge anders lautet.
> Und wenn ich gezeigt habe, dass
> [mm]\lim_{n\to\infty}\frac{1}{n}\sum_{i=1}^{n}X_i[/mm] keine
> Cauchyfolge ist, dann ist es auch nicht P-fast sicher
> konvergent? Warum?
Wenn eine Eigenschaft P-fast sicher gilt, heißt das, dass es eine Menge [mm]N[/mm] mit [mm]P(N)=0[/mm] gibt und auf [mm]N^c[/mm] diese Eigenschaft gilt.
In diesem Fall ist Eigenschaft: [mm](a_n)_n[/mm] ist nicht konvergent.
Und wie schon gesagt: [mm](a_n)[/mm] konvergiert nicht [mm] \gdw[/mm] [mm](a_n)[/mm] ist keine Cauchyfolge.
Für [mm]\omega\in N^c=\limsup_{n\to\infty}\{|\frac{X_n(\omega)}{n}|\ge 1\}[/mm] ist [mm](a_n)[/mm] keine Cauchyfolge wegen der obigen Abschätzung
und [mm]P(N^c)=1[/mm]
|
|
|
|
|
Doch doch... Ich habe die stochastische Konvergenz schon verstanden. Aber die Umformungen bzgl der Abschätzung nicht. Du schätzt das ganze ab mit 0,5. Nur meine Frage ist, wie du darauf kommst. Deine Abschätzung mit [mm] 1-\frac{1}{2} [/mm] leuchtet mir einfach nicht ein.
Und wie kann ich [mm] \omega\in\limsup_{n\to\infty}\{|\frac{X_n(\omega)}{n}|\ge 1\} [/mm] interpretieren? Ich meine, ich verstehe nicht was [mm] X_n [/mm] bedeutet. Kürzt du somit die Summe über die [mm] X_k [/mm] ab?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 10:32 Mi 20.11.2013 | Autor: | Fry |
> Doch doch... Ich habe die stochastische Konvergenz schon
> verstanden. Aber die Umformungen bzgl der Abschätzung
> nicht. Du schätzt das ganze ab mit 0,5. Nur meine Frage
> ist, wie du darauf kommst. Deine Abschätzung mit
> [mm]1-\frac{1}{2}[/mm] leuchtet mir einfach nicht ein.
Hab ich im letzten Artikel erklärt
> Und wie kann ich
> [mm]\omega\in\limsup_{n\to\infty}\{|\frac{X_n(\omega)}{n}|\ge 1\}[/mm]
> interpretieren? Ich meine, ich verstehe nicht was [mm]X_n[/mm]
> bedeutet. Kürzt du somit die Summe über die [mm]X_k[/mm] ab?
[mm] $X_n$ [/mm] ist die Zufallsvariable [mm] $\omega\mapsto X_n(\omega)$ [/mm] für ein festes [mm] $n\in\mathbb [/mm] N$
Dasselbe quasi wie [mm] $X_k$, [/mm] nur dass k statt n steht...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:22 Mi 20.11.2013 | Autor: | Fry |
Ah, ich seh gerade, so ganz stimmt das nicht, was ich aufgeschrieben habe.
Also [mm]N^c=\limsup_{n\to\infty}\{|\frac{X_n}{n}|\ge 1\}[/mm] ist die Menge der [mm]\omega\in\Omega[/mm] mit [mm]|\frac{X_n(\omega)}{n}|\ge 1[/mm] für unendlich viele [mm]n\in\mathbb N[/mm].
D.h. korrekterweise bezieht sich die Abschätzung nur auf [mm]\omega\in N^c[/mm] UND [mm]n\in\mathbb N[/mm] mit [mm]|\frac{X_n(\omega)}{n}|\ge 1[/mm].
LG
Christian
|
|
|
|