www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Verteilungsprobleme
Verteilungsprobleme < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Verteilungsprobleme: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 14:51 Do 20.01.2011
Autor: janisE

Aufgabe
a) Gegeben sie eine standardnormalverteilte ZV [mm] X \sim \mathcal{N}(0,1) [/mm]. Zeigen Sie: Für [mm] \mu \in \IR [/mm] und [mm] \sigma > 0[/mm] gilt: [mm] \sigma X + \mu \sim \mathcal{N}(\mu,\sigma^2) [/mm]
b) Gegeben seien n unabhängig Poission(1)-verteilte ZV [mm] X_1,\cdots,X_n [/mm]. Bestimmen Sie die Verteilung von [mm]X_1 + X_2 + \cdots + X_n [/mm]



Hallo!

Zu a)

Mir ist zwar klar, was gefragt ist - aber wie soll man das zeigen? Anhand der Definition hätte ich:

[mm]\sigma \left( \frac {1}{\sqrt{2\pi}}\exp\left(-\frac {1}{2} x^2\right) \right) + \mu = \frac {1}{\sigma\sqrt{2\pi}}\exp\left(-\frac {1}{2} \left(\frac{x-\mu}{\sigma}\right)^2\right)[/mm]

ist das richtig?

Zu b)

[mm]P(X_1+X_2=n) =\sum_{k=0}^n P(X_1=k) \, P(X_2=n-k)\\ =\sum_{k=0}^n \frac{\lambda_1^k}{k!}\, \mathrm{e}^{-\lambda_1} \, \frac{\lambda_2^{n-k}}{(n-k)!} \,\mathrm{e}^{-\lambda_2}\\ =\frac{1}{n!}\, \mathrm{e}^{-(\lambda_1+\lambda_2)} \, \sum_{k=0}^n \binom{n}{k} \lambda_1^k \, \lambda_2^{n-k}=\frac{(\lambda_1+\lambda_2)^n}{n!} \, \mathrm{e}^{-(\lambda_1+\lambda_2)} [/mm]

dies rekursiv angewandt zeigt, dass [mm] X_1 + X_2 + \cdots + X_n [/mm] ebenfall Poisson verteilt ist, richtig?

Vielen Dank für eure Hilfe!


        
Bezug
Verteilungsprobleme: Antwort
Status: (Antwort) fertig Status 
Datum: 17:04 Do 20.01.2011
Autor: dormant

Hi!

> a) Gegeben sie eine standardnormalverteilte ZV [mm]X \sim \mathcal{N}(0,1) [/mm].
> Zeigen Sie: Für [mm]\mu \in \IR[/mm] und [mm]\sigma > 0[/mm] gilt: [mm]\sigma X + \mu \sim \mathcal{N}(\mu,\sigma^2)[/mm]
>  
> b) Gegeben seien n unabhängig Poission(1)-verteilte ZV
> [mm]X_1,\cdots,X_n [/mm]. Bestimmen Sie die Verteilung von [mm]X_1 + X_2 + \cdots + X_n[/mm]
>  
>
> Hallo!
>  
> Zu a)
>  
> Mir ist zwar klar, was gefragt ist - aber wie soll man das
> zeigen? Anhand der Definition hätte ich:
>  
> [mm]\sigma \left( \frac {1}{\sqrt{2\pi}}\exp\left(-\frac {1}{2} x^2\right) \right) + \mu = \frac {1}{\sigma\sqrt{2\pi}}\exp\left(-\frac {1}{2} \left(\frac{x-\mu}{\sigma}\right)^2\right)[/mm]

So geschrieben ist das noch nichts. Die Aussage zeigst du indem du die Verteilungsfunktion von [mm]\sigma X + \mu [/mm] ausrechnest und dann diese mit [mm] \mathcal{N}(\mu,\sigma^2)[/mm] vergleichst (oder noch schneller über die charakteristische Funktionen, falls dir das etwas sagt). Wenn die übereinstimmen, so ist die Aussage richtig.

Dazu fängst du so an:

[mm] \IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma}) = \int_{-\infty}^{\bruch{t-\mu}{\sigma}} \phi (u) du = \cdots [/mm] und mit einer Substitution, so dass du bis [mm] t [/mm] integrierst kriegst du Verteilungsfunktion von [mm] \mathcal{N}(\mu,\sigma^2)[/mm] .

>  
> ist das richtig?
>  
> Zu b)
>  
> [mm]P(X_1+X_2=n) =\sum_{k=0}^n P(X_1=k) \, P(X_2=n-k)\\ =\sum_{k=0}^n \frac{\lambda_1^k}{k!}\, \mathrm{e}^{-\lambda_1} \, \frac{\lambda_2^{n-k}}{(n-k)!} \,\mathrm{e}^{-\lambda_2}\\ =\frac{1}{n!}\, \mathrm{e}^{-(\lambda_1+\lambda_2)} \, \sum_{k=0}^n \binom{n}{k} \lambda_1^k \, \lambda_2^{n-k}=\frac{(\lambda_1+\lambda_2)^n}{n!} \, \mathrm{e}^{-(\lambda_1+\lambda_2)}[/mm]
>  
> dies rekursiv angewandt zeigt, dass [mm]X_1 + X_2 + \cdots + X_n[/mm]
> ebenfall Poisson verteilt ist, richtig?

..mit Inetsitätsparamter gleich der Summe der einzelnen Intesitäten, ja.
  

> Vielen Dank für eure Hilfe!
>  

Grüße,
dormant

Bezug
                
Bezug
Verteilungsprobleme: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 18:00 Do 20.01.2011
Autor: janisE

Danke für deine Antwort!

> So geschrieben ist das noch nichts. Die Aussage zeigst du
> indem du die Verteilungsfunktion von [mm]\sigma X + \mu[/mm]
> ausrechnest und dann diese mit [mm]\mathcal{N}(\mu,\sigma^2)[/mm]
> vergleichst (oder noch schneller über die
> charakteristische Funktionen, falls dir das etwas sagt).
> Wenn die übereinstimmen, so ist die Aussage richtig.
>  
> Dazu fängst du so an:
>  
> [mm]\IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma}) = \int_{-\infty}^{\bruch{t-\mu}{\sigma}} \phi (u) du = \cdots[/mm]
> und mit einer Substitution, so dass du bis [mm]t[/mm] integrierst
> kriegst du Verteilungsfunktion von
> [mm]\mathcal{N}(\mu,\sigma^2)[/mm] .
>  

Charakteristische Funktionen haben wir angesprochen, jedoch hatten wir bisher noch nicht die Berechnung des Lebesgue-Integrals, weshalb uns nur die Definition über den Erwartungswert bleibt.

Deine Ideen verstehe ich in der Theorie, aber es hakt bei mir schon am Anfang. Wie kommst du auf [mm] \IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma})[/mm] (also wie hast du den Term umgeformt), und wie berechne ich [mm]\phi[/mm]?

Vielen Dank und noch einen schönen Abend!


Bezug
                        
Bezug
Verteilungsprobleme: Antwort
Status: (Antwort) fertig Status 
Datum: 18:06 Do 20.01.2011
Autor: dormant

Hi!

> Danke für deine Antwort!
>  
> > So geschrieben ist das noch nichts. Die Aussage zeigst du
> > indem du die Verteilungsfunktion von [mm]\sigma X + \mu[/mm]
> > ausrechnest und dann diese mit [mm]\mathcal{N}(\mu,\sigma^2)[/mm]
> > vergleichst (oder noch schneller über die
> > charakteristische Funktionen, falls dir das etwas sagt).
> > Wenn die übereinstimmen, so ist die Aussage richtig.
>  >  
> > Dazu fängst du so an:
>  >  
> > [mm]\IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma}) = \int_{-\infty}^{\bruch{t-\mu}{\sigma}} \phi (u) du = \cdots[/mm]
> > und mit einer Substitution, so dass du bis [mm]t[/mm] integrierst
> > kriegst du Verteilungsfunktion von
> > [mm]\mathcal{N}(\mu,\sigma^2)[/mm] .
>  >  
>
> Charakteristische Funktionen haben wir angesprochen, jedoch
> hatten wir bisher noch nicht die Berechnung des
> Lebesgue-Integrals, weshalb uns nur die Definition über
> den Erwartungswert bleibt.

Die Definition über den Erwartungswert ist OK. Aber ihr kennt die anderen Eigenschaften der charakteristischen Funktion nicht...
  

> Deine Ideen verstehe ich in der Theorie, aber es hakt bei
> mir schon am Anfang. Wie kommst du auf [mm]\IP (\sigma X + \mu \le t) = \IP (X \le \bruch{t-\mu}{\sigma})[/mm]
> (also wie hast du den Term umgeformt), und wie berechne ich
> [mm]\phi[/mm]?
>  
> Vielen Dank und noch einen schönen Abend!
>  

Ich habe in der Ungliechung [mm] \mu [/mm] abgezogen und durch [mm] \sigma [/mm] getielt, mehr nicht.

Mit [mm] \phi [/mm] ist die Dichtefunktion der standard Normalverteilung gemeint.

Grüße,
dormant

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]