www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Wahrscheinlichkeitstheorie" - Unabhängigkeit ZV,Funktion,EW
Unabhängigkeit ZV,Funktion,EW < Wahrscheinlichkeitstheorie < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Unabhängigkeit ZV,Funktion,EW: Beweis, Umkehrung
Status: (Frage) beantwortet Status 
Datum: 02:34 Fr 19.04.2013
Autor: sissile

Aufgabe
Lemma:
Wenn [mm] (X_i)_{i \in I} [/mm] unabhängig sind, dann
E( [mm] \prod_{i \in J} g_i (X_i))= \prod_{i\in J} E(g_i(x_i)) [/mm]
[mm] \forall [/mm] J [mm] \subset [/mm] I, [mm] g_i [/mm] : [mm] \IR [/mm] -> [mm] \IR [/mm] sofern die Erwartungswerte existieren)

Beweis im Skriptum:
E( [mm] \prod_{i \in J} g_i (X_i))= \sum_{x_i\in J} P(X_i=x_i \forall i\in [/mm] J) [mm] \prod_{i\in J} g_i (x_i) [/mm] = [mm] \sum_{x_i, i \in J} \prod_{i \in J} P(X_i= x_i) g_i (x_i) [/mm]
= [mm] \prod_{i\inJ} E[g_i(x_i)] [/mm]

Fragen zum Beweis:
Wir komme ich auf das erste gleichheitszeichen. Die Definition vom Erwartungswert ist mir bekannt, aber ich seh nicht wie man auf die Form kommt die oben steht. Weil auf die Zufallsvariable [mm] X_i [/mm] eine Funktion angewendet wird! Also wieso z.B in P drinnen die [mm] g_i [/mm] nicht mehr vorkommen! Und warum summiert man über J und nicht [mm] X(\Omega) [/mm] wie sonst?

Frage:
Gilt auch das Umgekehrte?
Also wenn E( [mm] \prod_{i \in J} g_i (X_i))= \prod_{i\in J} E(g_i(x_i)) [/mm]
[mm] \forall [/mm] J [mm] \in [/mm] I, [mm] g_i [/mm] : [mm] \IR [/mm] -> [mm] \IR [/mm]  gilt,
sind dann [mm] (X_i)_{i\inI} [/mm] unabhängig für alle J [mm] \subset [/mm] I  endlich?

Edit:
Definition1: Eine Kollektion [mm] (X_i)_{i \in I} [/mm] von Zufallsvariablen auf [mm] (\Omega, \mathcal{A},P) [/mm] heißt unabhängig, falls die ereignisse [mm] (\{X_i=x_i\})_{i\inI} [/mm] unabhängig sind für jede Wahl von [mm] x_i \in X_i (\Omega) [/mm]
Defintion2: Eine Kollektion von Eriegnissen [mm] (A_i)_{i \in I} [/mm] heißt unabhängig falls
P( [mm] \bigcap_{i \in J} A_i [/mm] )= [mm] \prod_{i \in J} P(A_i) [/mm] für alle J [mm] \subset [/mm] I endlich

        
Bezug
Unabhängigkeit ZV,Funktion,EW: Antwort
Status: (Antwort) fertig Status 
Datum: 08:43 Fr 19.04.2013
Autor: luis52


> Lemma:
>  Wenn [mm](X_i)_{i \in I}[/mm] unabhängig sind, dann
>  E( [mm]\prod_{i \in J} g_i (X_i))= \prod_{i\in J} E(g_i(x_i))[/mm]
>  
> [mm]\forall[/mm] J [mm]\subset[/mm] I, [mm]g_i[/mm] : [mm]\IR[/mm] -> [mm]\IR[/mm] sofern die
> Erwartungswerte existieren)
>  Beweis im Skriptum:
>  E( [mm]\prod_{i \in J} g_i (X_i))= \sum_{x_i\in J} P(X_i=x_i \forall i\in[/mm]
> J) [mm]\prod_{i\in J} g_i (x_i)[/mm] = [mm]\sum_{x_i, i \in J} \prod_{i \in J} P(X_i= x_i) g_i (x_i)[/mm]
>  
> = [mm]\prod_{i\inJ} E[g_i(x_i)][/mm]
>  
> Fragen zum Beweis:
>  Wir komme ich auf das erste gleichheitszeichen. Die
> Definition vom Erwartungswert ist mir bekannt,


Moin, leider verraetst du nicht, wie *du* den Erwartungswert berechnen wurdest

> aber ich seh
> nicht wie man auf die Form kommt die oben steht. Weil auf
> die Zufallsvariable [mm]X_i[/mm] eine Funktion angewendet wird! Also
> wieso z.B in P drinnen die [mm]g_i[/mm] nicht mehr vorkommen! Und
> warum summiert man über J und nicht [mm]X(\Omega)[/mm] wie sonst?


Schau mal []hier, Seite 160, als Start.


>  
> Frage:
>  Gilt auch das Umgekehrte?
>  Also wenn E( [mm]\prod_{i \in J} g_i (X_i))= \prod_{i\in J} E(g_i(x_i))[/mm]
>  

Nur so viel: Gilt $E[XY]=E[X]E[Y]$ so sind $X_$ und $Y_$ unkorreliert, nicht notwendigerweise unabhaengig.

vg Luis


Bezug
                
Bezug
Unabhängigkeit ZV,Funktion,EW: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 23:04 Fr 19.04.2013
Autor: sissile

Hallo,
das blöde ist ja nur, wir haben [mm] E(g_i (x_i)) [/mm] ja nicht defeniert, wie in dem Skript. Wir haben nur Erwartngswert von einer Zufallsvariablen defeniert.
Ist [mm] g_i (x_i) [/mm] eine Zufallsvariable?

E ( [mm] \prod_{i \in J} g_i (x_i)) [/mm] = [mm] \prod_{i \in J} [/mm] E [mm] [g_i (x_i)] [/mm]

> so sind $ X_ $ und $ Y_ $ unkorreliert, nicht notwendigerweise unabhaengig.

was bedeutet unkorreliert? Wir hatten den begriff nicht,also kann ich ihn auch nicht heranziehen um das zuzeigen oder widerlegen was ich möchte.

Bezug
                        
Bezug
Unabhängigkeit ZV,Funktion,EW: Antwort
Status: (Antwort) fertig Status 
Datum: 10:09 Sa 20.04.2013
Autor: luis52


>  Ist [mm]g_i (x_i)[/mm] eine Zufallsvariable?

Ja. Betrachte mit $X_$ die Augenzahl beim Werfen eines Wuerfels. $X_$ ist eine Zufallsvariable, aber auch $g(X)_$  mit [mm] $g(x)=x^2$. [/mm]

Ich versuch's mal ohne den Quantoren-Overkill.

Zunarechst:  Wenn diskret verteilte Zufallsvariablen [mm] $X_1,\dots,X_n$ [/mm]
Zufallsvariablen gegeben sind, so sei [mm] $g(X_1,\dots,X_n)$ [/mm] mit
[mm] $g:\IR\to\IR$ [/mm] eine daraus konstruierte Zufallsvariable (z.B.
[mm] $X_1+\dots+X_n$, [/mm] s.u.).  Deren Erwartungswert wird berechnet nach

[mm] $E[g(X_1,\dots,X_n)]=\sum_{x_1,\dots,x_n}g(x_1,\dots,x_n)P(X_1=x_1,\dots,X_n=x_n)$. [/mm]

In deinem Fall ist [mm] $g(x_1,\dots,x_n)=\prod_{i=1}^ng(x_i)$ [/mm] und [mm] $P(X_1=x_1,\dots,X_n=x_n)=\prod_{i=1}^nP(X_i=x_i)$, [/mm] da [mm] $X_1,\dots,X_n$ [/mm] unabhaengig sind ...


>  
> E ( [mm]\prod_{i \in J} g_i (x_i))[/mm] = [mm]\prod_{i \in J}[/mm] E [mm][g_i (x_i)][/mm]
>
> > so sind [mm]X_[/mm] und [mm]Y_[/mm] unkorreliert, nicht notwendigerweise
> unabhaengig.
> was bedeutet unkorreliert? Wir hatten den begriff
> nicht,also kann ich ihn auch nicht heranziehen um das
> zuzeigen oder widerlegen was ich möchte.


Verstehe. Betrachte das Experiment Zweimaliges Werfen einer Muenze, bei dem jeweils Kopf oder Wappen auftritt. Es bezeichne $U_$ bzw. $V$ die Anzahl der Koepfe im ersten bzw. zweiten Wurf. Setze $X=U+V$ und $Y=U-V$. Im Nu wirst du bestaetigen, dass $X_$ und $Y_$ nicht unabhaengig sind, dass jedoch $E[XY]=E[X]E[Y]$.



Bezug
                                
Bezug
Unabhängigkeit ZV,Funktion,EW: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 22:58 Sa 20.04.2013
Autor: sissile


> $ [mm] E[g(X_1,\dots,X_n)]=\sum_{x_1,\dots,x_n}g(x_1,\dots,x_n)P(X_1=x_1,\dots,X_n=x_n) [/mm] $.

Gilt diese Definition nur wenn [mm] X_1 [/mm] ,.., [mm] X_n [/mm] unabhängig ist oder gilt dies allgemein? Ist das überhaupt eine Definition?

Wo verwendet man im Beweis dann die Unabhängigkeit von [mm] X_i´s? [/mm]

Bezug
                                        
Bezug
Unabhängigkeit ZV,Funktion,EW: Antwort
Status: (Antwort) fertig Status 
Datum: 23:07 Sa 20.04.2013
Autor: luis52


> >
> [mm]E[g(X_1,\dots,X_n)]=\sum_{x_1,\dots,x_n}g(x_1,\dots,x_n)P(X_1=x_1,\dots,X_n=x_n) [/mm].
> Gilt diese Definition nur wenn [mm]X_1[/mm] ,.., [mm]X_n[/mm] unabhängig ist
> oder gilt dies allgemein?

Allgemein.


> Ist das überhaupt eine   Definition?

Ja.

>  
> Wo verwendet man im Beweis dann die Unabhängigkeit von
> [mm]X_i´s?[/mm]  

In  $ [mm] P(X_1=x_1,\dots,X_n=x_n)=\prod_{i=1}^nP(X_i=x_i) [/mm] $.

vg Luis


Bezug
                                                
Bezug
Unabhängigkeit ZV,Funktion,EW: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 23:21 Sa 20.04.2013
Autor: sissile

Ahh, jetzt verstehe ich es ;)
Schritte ausgeschrieben:
[mm] E(\prod_{i\inI} g_i (x_i))= \sum_{x_i, i \in J}[ \prod_{i\in I} g_i (x_i)] P(\bigcap_{i \in I} \{x_i = X_i \}) [/mm] = [mm] \sum_{x_i, i \in J} \prod_{i\in I}[ g_i (x_i) P(X_i= x_i)] [/mm]

Bezug
        
Bezug
Unabhängigkeit ZV,Funktion,EW: Antwort
Status: (Antwort) fertig Status 
Datum: 11:03 Fr 19.04.2013
Autor: tobit09

Hallo sissile,


$J$ ist sicherlich als endlich vorausgesetzt, oder?


>  Beweis im Skriptum:
>  E( [mm]\prod_{i \in J} g_i (X_i))= \sum_{x_i\in J} P(X_i=x_i \forall i\in[/mm]
> J) [mm]\prod_{i\in J} g_i (x_i)[/mm] = [mm]\sum_{x_i, i \in J} \prod_{i \in J} P(X_i= x_i) g_i (x_i)[/mm]
>  
> = [mm]\prod_{i\inJ} E[g_i(x_i)][/mm]
>  
> Fragen zum Beweis:
>  Wir komme ich auf das erste gleichheitszeichen. Die
> Definition vom Erwartungswert ist mir bekannt, aber ich seh
> nicht wie man auf die Form kommt die oben steht. Weil auf
> die Zufallsvariable [mm]X_i[/mm] eine Funktion angewendet wird! Also
> wieso z.B in P drinnen die [mm]g_i[/mm] nicht mehr vorkommen! Und
> warum summiert man über J und nicht [mm]X(\Omega)[/mm] wie sonst?

Es muss [mm] $x_i$, $i\in [/mm] J$ statt [mm] $x_i\in [/mm] J$ heißen. Man könnte auch

     [mm] $(x_i)_{i\in J}\in (X_i)_{i\in J}(\Omega)$ [/mm]

schreiben.


Viele Grüße
Tobias

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Wahrscheinlichkeitstheorie"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]