Bedingter Erwartungswert < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
|
Aufgabe | X,Y seien unabhängig und identisch verteilt. Berechne $E[X|X+Y]$. |
Hallo!
Die grobe Lösung sieht ja so aus:
"Weil X,Y unabhängig und identisch verteilt, gilt:
$E[X|X+Y] = E[Y|X+Y]$. (*)
Damit: $X+Y = E[X+Y|X+Y] = E[X|X+Y] + E[Y|X+Y] = 2*E[X|X+Y]$,
also $E[X|X+Y] = [mm] \frac{X+Y}{2}$."
[/mm]
----
Ich versuche gerade (*) einzusehen. Kennt jemand von euch ein kurzes Argument, um das zu beweisen?
An obiger "Argumentation" wird weder klar, warum man KONKRET die Unabhängigkeit noch die identische Verteilung braucht.
Es muss ja auch mit der Symmetrie von X,Y in der Funktion X+Y zu tun haben (wenn man bzgl. X+2Y bedingen würde, würde das ja so nicht mehr gelten).
Viele Grüße,
Stefan
|
|
|
|
Hallo Stefan,
was genau soll denn mit X und Y und insbesondere
mit der "Summe" (?) X+Y gemeint sein ?
LG
|
|
|
|
|
Hallo Al-Chwarizmi,
> Hallo Stefan,
>
> was genau soll denn mit X und Y und insbesondere
> mit der "Summe" (?) X+Y gemeint sein ?
>
> LG
X und Y sind Zufallsvariablen (auf einem beliebigen Wahrscheinlichkeits-Raum) und X+Y die entsprechende Faltung.
Viele Grüße,
Stefan
|
|
|
|
|
> X und Y sind Zufallsvariablen (auf einem beliebigen
> Wahrscheinlichkeits-Raum) und X+Y die entsprechende
> Faltung.
... und das schreibt ihr dann tatsächlich mit einem
gewöhnlichen Pluszeichen ???
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:17 So 21.04.2013 | Autor: | tobit09 |
Hallo Al-Chwarizmi,
> > X und Y sind Zufallsvariablen (auf einem beliebigen
> > Wahrscheinlichkeits-Raum) und X+Y die entsprechende
> > Faltung.
>
>
> ... und das schreibt ihr dann tatsächlich mit einem
> gewöhnlichen Pluszeichen ???
Ja, das ist so üblich. Schließlich ist
[mm] $(X+Y)(\omega):=X(\omega)+Y(\omega)$
[/mm]
für alle [mm] $\omega\in\Omega$.
[/mm]
Viele Grüße
Tobias
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 18:21 Sa 20.04.2013 | Autor: | valoo |
Warum sollten sie die gleichen bedingten Erwartungswerte haben, wenn sie nicht uiv sind? Wenn X zum Beispiel fast sicher 0 ist und Y nicht, dann ist der bedingte EW von X 0 und von Y Y...
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 18:54 Sa 20.04.2013 | Autor: | luis52 |
> X,Y seien unabhängig und identisch verteilt. Berechne
> [mm]E[X|X+Y][/mm].
>
>
> Hallo!
>
> Die grobe Lösung sieht ja so aus:
>
> "Weil X,Y unabhängig und identisch verteilt, gilt:
> [mm]E[X|X+Y] = E[Y|X+Y][/mm]. (*)
>
> Ich versuche gerade (*) einzusehen. Kennt jemand von euch
> ein kurzes Argument, um das zu beweisen?
>
Moin, vielleicht uebersehe ich hier etwas, aber mir erscheint die Chose offensichtlich zu sein: Wenn $X,Y$ identisch verteilt sind, so ist fuer gegebenes [mm] $z\in\IR$
[/mm]
[mm] $P(X\le x\mid X+Y=z]=P(Y\le x\mid [/mm] X+Y=z]$.
Also sind [mm] $(X\mid [/mm] X+Y=z)$ und [mm] $(Y\mid [/mm] X+Y=z)$ identisch verteilt, also
[mm] $E[X\mid X+Y=z]=E[Y\mid [/mm] X+Y=z]$.
Was mich etwas unruhig macht: Unabhaengigkeit brauche ich nicht, wohl aber die identische Verteilung.
Just my 2c.
vg Luis
|
|
|
|
|
Hallo Luis,
danke für deine Antwort!
> Moin, vielleicht uebersehe ich hier etwas, aber mir
> erscheint die Chose offensichtlich zu sein: Wenn [mm]X,Y[/mm]
> identisch verteilt sind, so ist fuer gegebenes [mm]z\in\IR[/mm]
>
> [mm]P(X\le x\mid X+Y=z]=P(Y\le x\mid X+Y=z][/mm].
Kannst du mir eine Referenz geben, warum das gilt?
Ich finde das nicht offensichtlich.
Viele Grüße,
Stefan
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 20:35 Sa 20.04.2013 | Autor: | luis52 |
> Kannst du mir eine Referenz geben, warum das gilt?
> Ich finde das nicht offensichtlich.
>
Moin Stefan, da war ich wohl etwas vorschnell, denn anscheinend ist
hier etwas mehr Musik drin als gedacht. Ich dachte, weil $X$ und $Y$
identisch verteilt ist, gilt
[mm] $(X\le x)\cap(X+Y=z)=\{\omega\mid X(\omega)\le x\text{ und }
X(\omega)+Y(\omega)=z\}=\{\omega\mid Y(\omega)\le x \text{ und }
X(\omega)+Y(\omega)=z\}$.
[/mm]
Aber das kann man vermutlich nicht ohne Weiteres zeigen. Vielleicht koennen die Masztheoretiker weiterhelfen.
Sorry.
vg Luis
|
|
|
|
|
Hallo Luis,
>
> > Kannst du mir eine Referenz geben, warum das gilt?
> > Ich finde das nicht offensichtlich.
> >
>
> Moin Stefan, da war ich wohl etwas vorschnell, denn
> anscheinend ist
> hier etwas mehr Musik drin als gedacht. Ich dachte, weil [mm]X[/mm]
> und [mm]Y[/mm]
> identisch verteilt ist, gilt
>
> [mm]$(X\le x)\cap(X+Y=z)=\{\omega\mid X(\omega)\le x\text{ und }
X(\omega)+Y(\omega)=z\}=\{\omega\mid Y(\omega)\le x \text{ und }
X(\omega)+Y(\omega)=z\}$.[/mm]
>
> Aber das kann man vermutlich nicht ohne Weiteres zeigen.
Ja, das glaube ich auch...
> Vielleicht koennen die Masztheoretiker weiterhelfen.
Danke trotzdem für die Hilfe :)
Viele Grüße,
Stefan
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 23:03 Sa 20.04.2013 | Autor: | luis52 |
Moin Stefan, schau mal hier, Seite 5.
Da wird ein Spezialfall behandelt.
vg Luis
|
|
|
|
|
Hallo luis,
> Moin Stefan, schau mal
> hier,
> Seite 5.
> Da wird ein Spezialfall behandelt.
Danke Luis,
das hilft mir schon ein Stück weiter.
Das Problem ist nur, dass bei der Aufgabe dort relativ stark benutzt wird, dass es Dichten gibt, usw. Ich kann das also nicht auf einen allgemeinen Fall übertragen.
Viele Grüße,
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 23:28 Sa 20.04.2013 | Autor: | luis52 |
>
> Das Problem ist nur, dass bei der Aufgabe dort relativ
> stark benutzt wird, dass es Dichten gibt, usw. Ich kann das
> also nicht auf einen allgemeinen Fall übertragen.
>
Jaja, das stimmt. Deshalb setze ich meine Hoffnung auf die Masztheoretiker hier im MR.
vg Luis
|
|
|
|
|
Eingabefehler: "{" und "}" müssen immer paarweise auftreten, es wurde aber ein Teil ohne Entsprechung gefunden (siehe rote Markierung)
Hallo,
ich habe jetzt doch noch eine Idee, die in meinen Augen nicht schlecht aussieht:
Es ist
$\IP^{(X, X+Y)} = \IP^{(Y,X+Y)}$, (*)
denn (hier geht Unabhängigkeit und identisch verteilt ein): $\IP^{(X,Y)}= \IP^{X} \otimes \IP^{Y} = \IP^{X} \otimes \IP^{X} = \IP^{Y} \otimes \IP^{X} =\IP^{(Y,X)$ und somit
$\IP^{(X,X+Y)} = (\IP^{(X,Y)})^{g} = (\IP^{(Y,X)})^{g} = \IP^{(Y,X+Y)}$
mit $g(x,y) = (x,x+y)$.
Ich bin mir ehrlich gesagt nicht sicher, ob man die Unabhängigkeit wirklich braucht. Aber so ist auf jeden Fall viel klarer, was man für ein Gegenbeispiel widerlegen müsste.
Nun ist wegen (*)
$\IP^{X|X+Y} \otimes \IP^{X+Y} = \IP^{(X, X+Y)} = \IP^{(Y,X+Y)} = \IP^{Y|X+Y} \otimes \IP^{X+Y}$
und weil die bedingte Wahrscheinlichkeitsverteilung bzgl. des Maßes $\IP^{X+Y}$ eindeutig bestimmt ist, folgt
$\IP^{X|X+Y} = \IP^{Y|X+Y}$.
Daraus schließe ich $\IE[X|X+Y] = \IE[Y|X+Y]$.
Was hältst du davon?
Viele Grüße,
Stefan
PS.: Sorry Gonozal, ich habe erst jetzt gesehn dass du grad ne Antwort schreibst...
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 23:58 Sa 20.04.2013 | Autor: | Gonozal_IX |
Hiho,
> Ich bin mir ehrlich gesagt nicht sicher, ob man die Unabhängigkeit wirklich braucht.
brauchst du nicht
> PS.: Sorry Gonozal, ich habe erst jetzt gesehn dass du grad ne Antwort schreibst...
Dir sei vergeben :P
MFG,
Gono.
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 02:25 So 21.04.2013 | Autor: | tobit09 |
Hallo steppenhahn,
> Es ist
>
> [mm]\IP^{(X, X+Y)} = \IP^{(Y,X+Y)}[/mm], (*)
>
> denn (hier geht Unabhängigkeit und identisch verteilt
> ein): [mm]\IP^{(X,Y)}= \IP^{X} \otimes \IP^{Y} = \IP^{X} \otimes \IP^{X} = \IP^{Y} \otimes \IP^{X} =\IP^{(Y,X)[/mm]
> und somit
>
> [mm]\IP^{(X,X+Y)} = (\IP^{(X,Y)})^{g} = (\IP^{(Y,X)})^{g} = \IP^{(Y,X+Y)}[/mm]
>
> mit [mm]g(x,y) = (x,x+y)[/mm].
> Ich bin mir ehrlich gesagt nicht
> sicher, ob man die Unabhängigkeit wirklich braucht.
Ja, braucht man. (Habe mir ein Gegenbeispiel ohne Unabhängigkeit überlegt.)
> Nun ist wegen (*)
>
> [mm]\IP^{X|X+Y} \otimes \IP^{X+Y} = \IP^{(X, X+Y)} = \IP^{(Y,X+Y)} = \IP^{Y|X+Y} \otimes \IP^{X+Y}[/mm]
>
> und weil die bedingte Wahrscheinlichkeitsverteilung bzgl.
> des Maßes [mm]\IP^{X+Y}[/mm] eindeutig bestimmt ist, folgt
>
> [mm]\IP^{X|X+Y} = \IP^{Y|X+Y}[/mm].
>
> Daraus schließe ich [mm]\IE[X|X+Y] = \IE[Y|X+Y][/mm].
Du arbeitest hier mit einer regulär bedingten Verteilung? Sorry, dass ist bei mir ein bisschen lange her, deshalb kenne ich mich damit nicht mehr aus.
Es geht aber auch direkt mit der Definition des bedingten Erwartungswertes:
Sei $Z:=X+Y$. Du hast
(*) [mm] $\IP^{(X,Z)}=\IP^{(Y,Z)}$ [/mm] gezeigt.
Wir wollen aus (*)
(**) $E[X|Z]=E[Y|Z]$
folgern (im Falle der Quasi-Integrierbarkeit von $X$ und somit auch $Y$). (Es spielt dafür keine Rolle, wie $Z$ definiert ist.)
Für (**) genügt es nach Definition des bedingten Erwartungswertes
(***) [mm] $\integral_{A}X d\IP=\integral_{A}Yd\IP$
[/mm]
für alle [mm] $A\in\sigma(Z)$ [/mm] zu zeigen.
Sei also [mm] $A\in\sigma(Z)$, [/mm] also ist $A$ von der Form [mm] $A=Z^{-1}(B)$.
[/mm]
Dann gilt wegen [mm] $1_A=1_B(Z)$
[/mm]
[mm] $\integral_{A}X d\IP=\integral [/mm] X [mm] 1_B(Z) d\IP=\integral x*1_B(z)d\IP^{(X,Z)}$.
[/mm]
Analog erhält man
[mm] $\integral_A [/mm] Y [mm] d\IP=\integral x*1_B(Z)d\IP^{(Y,Z)}$.
[/mm]
Aus (*) folgt somit wie gewünscht (***).
Viele Grüße
Tobias
|
|
|
|
|
Hallo Tobias,
danke für deine Antwort!
Man braucht ja letztlich die Unabhängig von X und Y nur, um [mm] $\IP^{(X,Y)} [/mm] = [mm] \IP^{(Y,X)}$ [/mm] zu zeigen.
Ich denke, eine äquivalente Formulierung wäre: Die Verteilung von (X,Y) muss symmetrisch in X und Y sein. Das ist ja wesentlich schwächer als Unabhängigkeit.
Viele Grüße,
Stefan
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 02:41 So 21.04.2013 | Autor: | tobit09 |
> Man braucht ja letztlich die Unabhängig von X und Y nur,
> um [mm]\IP^{(X,Y)} = \IP^{(Y,X)}[/mm] zu zeigen.
>
> Ich denke, eine äquivalente Formulierung wäre: Die
> Verteilung von (X,Y) muss symmetrisch in X und Y sein. Das
> ist ja wesentlich schwächer als Unabhängigkeit.
Statt "äquivalente Formulierung" meinst du "hinreichende Bedingung", oder? Dann hast du vollkommen Recht!
|
|
|
|
|
Hiho,
die Aussage ist doch sofort klar, wenn man sich die Definition der bedingten Erwartung anguckt:
[mm] E[X|\mathcal{A}] [/mm] ist ja die Zufallsvariable Z, für die gilt:
i) [mm] $E[X*1_A] [/mm] = [mm] E[Z*1_A]$ [/mm] für A [mm] \in \mathcal{A}
[/mm]
ii) Z ist [mm] \mathcal{A} [/mm] meßbar
[mm] X*1_A [/mm] ist ja nun faktisch eine (meßbare) Funktion f(X) und für die gilt für den Erwartungswert:
$E[f(X)] = [mm] \integral_\Omega [/mm] f(x) [mm] \IP_X(dx)$
[/mm]
Da X und Y id sind, gilt [mm] $P_X [/mm] = [mm] P_Y$ [/mm] und damit:
$E[f(X)] = [mm] \integral_\Omega [/mm] f(x) [mm] \IP_X(dx)= \integral_\Omega [/mm] f(x) [mm] \IP_Y(dx) [/mm] = E[f(Y)]$ für jede meßbare Funktion f, insbesondere also für $f(x) = [mm] x1_A$
[/mm]
Damit folgt somit:
[mm] $E[X1_A] [/mm] = [mm] E[Y1_A]$ [/mm] und damit sofort [mm] $E[X|\mathcal{A}] [/mm] = [mm] E[Y|\mathcal{A}]$ [/mm] für jede [mm] $\sigma$-Algebra $\mathcal{A}$, [/mm] insbesondere also für die von X+Y erzeugte.
Gruß,
Gono.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 00:51 So 21.04.2013 | Autor: | tobit09 |
Hallo Gono,
> [mm]X*1_A[/mm] ist ja nun faktisch eine (meßbare) Funktion f(X)
Das dürfte i.A. falsch sein. Schließlich muss [mm] $1_A$ [/mm] nicht nach $X$ faktorisieren.
> $E[f(X)] = [mm] \integral_\Omega [/mm] f(x) [mm] \IP_X(dx)= \integral_\Omega [/mm] f(x) [mm] \IP_Y(dx) [/mm] = E[f(Y)]$ für jede meßbare Funktion f, insbesondere also für $f(x) = [mm] x1_A$
[/mm]
Unter den Integralzeichen muss es [mm] $\IR$ [/mm] statt [mm] $\Omega$ [/mm] heißen.
>
> Damit folgt somit:
>
[mm] >$E[X1_A] [/mm] = [mm] E[Y1_A]$
[/mm]
I.A. [mm] $f(X)=X*1_A(X)\not=X*1_A$!
[/mm]
Viele Grüße
Tobias
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:00 So 21.04.2013 | Autor: | Gonozal_IX |
Hiho,
> > [mm]X*1_A[/mm] ist ja nun faktisch eine (meßbare) Funktion f(X)
> Das dürfte i.A. falsch sein. Schließlich muss [mm]1_A[/mm] nicht nach [mm]X[/mm] faktorisieren.
Auch wenn ich nicht weiß, was du mit "nach X faktorisieren" meinst, ist die Funktion ganz sicher meßbar, da X meßbar und [mm] 1_A [/mm] für [mm] $A\in\mathcal{A}$ [/mm] auch ganz sicher meßbar ist. Und das Produkt zweier meßbarer Funktionen ist meßbar.
> > [mm]E[f(X)] = \integral_\Omega f(x) \IP_X(dx)= \integral_\Omega f(x) \IP_Y(dx) = E[f(Y)][/mm] für jede meßbare Funktion f, insbesondere also für [mm]f(x) = x1_A[/mm]
>
> Unter den Integralzeichen muss es [mm]\IR[/mm] statt [mm]\Omega[/mm] heißen.
Jop. Ich schrieb erst $E[f(X)] = [mm] \int_\Omega [/mm] f(X) [mm] d\IP$ [/mm] und habs dann aber aufs Bildmaß geändert und da sollte man dann durchaus den Integrationsbereich abändern.
MFG,
Gono.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:15 So 21.04.2013 | Autor: | tobit09 |
Hallo Gono,
> > > [mm]X*1_A[/mm] ist ja nun faktisch eine (meßbare) Funktion f(X)
> > Das dürfte i.A. falsch sein. Schließlich muss [mm]1_A[/mm]
> nicht nach [mm]X[/mm] faktorisieren.
>
> Auch wenn ich nicht weiß, was du mit "nach X
> faktorisieren" meinst, ist die Funktion ganz sicher
> meßbar, da X meßbar und [mm]1_A[/mm] für [mm]A\in\mathcal{A}[/mm] auch
> ganz sicher meßbar ist. Und das Produkt zweier meßbarer
> Funktionen ist meßbar.
Messbar ist [mm] $X*1_A$ [/mm] natürlich. Aber i.A. nicht von der Form $f(X)$ für eine Abbildung $f$. (Dafür sagte mein Professor: [mm] $X*1_A$ [/mm] faktorisiert i.A. nicht nach $X$.)
Viele Grüße
Tobias
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 13:42 So 21.04.2013 | Autor: | Gonozal_IX |
Hiho,
> Messbar ist [mm]X*1_A[/mm] natürlich. Aber i.A. nicht von der Form
> [mm]f(X)[/mm] für eine Abbildung [mm]f[/mm]. (Dafür sagte mein Professor: [mm]X*1_A[/mm] faktorisiert i.A. nicht nach [mm]X[/mm].)
ah, ich verstehe die Problematik.
Ich muss gestehen, da bin ich bisher noch nie drüber gestolpert.
Dann würde mich aber mal die Frage beschäftigen, ob zwei identisch verteilte ZV auch auf jeder (meßbaren) Teilmenge identisch verteilt sind.... intuitiv hätte ich jetzt ja gesagt, aber ich find gerade keinen schönen Beweis.
MFG,
Gono.
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 16:16 So 21.04.2013 | Autor: | tobit09 |
Hallo Gono,
> Dann würde mich aber mal die Frage beschäftigen, ob zwei
> identisch verteilte ZV auch auf jeder (meßbaren) Teilmenge
> identisch verteilt sind.... intuitiv hätte ich jetzt ja
> gesagt, aber ich find gerade keinen schönen Beweis.
Dazu müsstest du ersteinmal definieren, was es heißt, auf einer (meßbaren) Teilmenge identisch verteilt zu sein...
Aber unabhängig davon, wie deine Definition genau lauten wird: Der von dir vermutete Zusammenhang wird nicht gelten.
Betrachte etwa
[mm] $\Omega=\{-1,1\}$
[/mm]
mit der Potenzmenge als Sigma-Algebra und der Laplaceverteilung sowie
[mm] $X(\omega):=\omega$ [/mm] und [mm] $Y(\omega):=-\omega$.
[/mm]
Dann sind X und Y identisch verteilt und [mm] $\{1\}$ [/mm] ist eine messbare Teilmenge von [mm] $\Omega$, [/mm] auf der $X$ den Wert $1$ und $Y$ den Wert $-1$ annimmt. Man wird also hier kaum davon sprechen, dass $X$ und $Y$ auf [mm] $\{1\}$ [/mm] gleich verteilt seien.
Viele Grüße
Tobias
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 21:12 So 21.04.2013 | Autor: | Gonozal_IX |
Hiho,
> > Dann würde mich aber mal die Frage beschäftigen, ob zwei
> > identisch verteilte ZV auch auf jeder (meßbaren) Teilmenge
> > identisch verteilt sind.... intuitiv hätte ich jetzt ja
> > gesagt, aber ich find gerade keinen schönen Beweis.
> Dazu müsstest du ersteinmal definieren, was es heißt,
> auf einer (meßbaren) Teilmenge identisch verteilt zu
> sein...
Hatte mir das schon so gedacht, dass wenn $X,Y: [mm] \Omega \to \IR$ [/mm] identisch verteilt sind, ob dann auch [mm] $X_A,Y_A: [/mm] A [mm] \to \IR$ [/mm] identisch verteilt sind.
Aber das hast du ja eben direkt widerlegt und damit gehen meine Überlegungen einfach schief.
Danke dafür.
Gono.
|
|
|
|
|
Status: |
(Frage) reagiert/warte auf Reaktion | Datum: | 00:52 So 21.04.2013 | Autor: | steppenhahn |
Hallo Gonozal,
danke für deine Antwort!
> die Aussage ist doch sofort klar, wenn man sich die
> Definition der bedingten Erwartung anguckt:
>
> [mm]E[X|\mathcal{A}][/mm] ist ja die Zufallsvariable Z, für die
> gilt:
>
> i) [mm]E[X*1_A] = E[Z*1_A][/mm] für A [mm]\in \mathcal{A}[/mm]
> ii) Z ist
> [mm]\mathcal{A}[/mm] meßbar
>
> [mm]X*1_A[/mm] ist ja nun faktisch eine (meßbare) Funktion f(X) und
> für die gilt für den Erwartungswert:
>
> [mm]E[f(X)] = \integral_\Omega f(x) \IP_X(dx)[/mm]
>
> Da X und Y id sind, gilt [mm]P_X = P_Y[/mm] und damit:
>
> [mm]E[f(X)] = \integral_\Omega f(x) \IP_X(dx)= \integral_\Omega f(x) \IP_Y(dx) = E[f(Y)][/mm]
> für jede meßbare Funktion f, insbesondere also für [mm]f(x) = x1_A[/mm]
Ich bin noch nicht überzeugt.
Wenn du zum induzierten Maß übergehst, ignorierst du irgendwie die Indikatorfunktion:
f ist auf dem Bildraum von X definiert worden, also ist $f(x) = [mm] x*1_{X(A)}$ [/mm] (stimmt das überhaupt?).
Aber ist das immer gleich $f(x) = [mm] x*1_{Y(A)}$ [/mm] ?
Dazu müsste man ja wissen, wie die Zufallsvariablen auf dem zugrundeliegenden W-Raum operieren.
--------------
EDIT: Ich glaube, ich habe jetzt einen Gegenbeispiel dafür, dass es ohne Unabhängigkeit funktioniert: Ich nehme eine nicht-symmetrische Verteilung für X und Y, die trotzdem die gleiche Randverteilung produziert: Die gemeinsame Verteilung sei gegeben durch folgende Tabelle (in den Zellen stehen Wahrscheinlichkeiten)
X
| 1 | 2 | 3 |
3 | 1/3 | | |
Y 2 | | | 1/3 |
1 | | 1/3 | |
Beide haben eine Gleichverteilung auf [mm] \{1,2,3\} [/mm] als Randverteilung
Dann ergibt sich für die bedingte Verteilung X|X+Y und Y|X+Y (in den Zellen stehen Wahrscheinlichkeiten)
X+Y
| 3 | 4 | 5 |
X 1 | | 1 | |
2 | 1 | | |
3 | | | 1 |
Y 1 | 1 | | |
2 | | | 1 |
3 | | 1 | |
Damit ist z.B.
$E[X|X+Y] = [mm] \begin{cases}2, & X+Y = 3\\1, & X + Y = 4\\ 3, & X+Y = 5\end{cases}$
[/mm]
$E[Y|X+Y] = [mm] \begin{cases}1, & X+Y = 3\\3, & X + Y = 4\\ 2, & X+Y = 5\end{cases}$
[/mm]
Das ist nicht gleich.
Viele Grüße,
Stefan
|
|
|
|