www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Definition Markovkette
Definition Markovkette < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Definition Markovkette: Frage (beantwortet)
Status: (Frage) beantwortet Status 
Datum: 13:52 Fr 19.09.2008
Autor: sie-nuss

Hallo,

ich hab mal eine ganz grundlegende Frage zu Markovketten: Eine Markovkette ist doch eine Folge [mm] X_n [/mm] von Zufallsvariablen ueber einem Zustandsraum S. Jedes [mm] X_i [/mm] aus der Folge hat eine eigene Verteilung. Was ist aber die Verteilung der Markovkette [mm] X_n? [/mm] Sind es einfach die Verteilungen der Folgenglieder zusammengenommen? Ich lese staendig, Markovketten haben mindestens eine stationaere Verteilung, das heisst doch, dass so eine Kette mehrere Verteilungen haben kann, wie geht das denn? Zufallsvariablen koennen doch auch nicht mehrere Verteilungen haben ...  wenn ich das richtig verstanden habe ist eine stationaere Verteilung eine, die fuer alle [mm] X_n [/mm] dieselbe ist.

Wuerd mich echt freuen wenn mir da jemand auf die Spruenge helfen koennte.

Viele Gruesse,

sie-nuss



        
Bezug
Definition Markovkette: Kommentare
Status: (Antwort) fertig Status 
Datum: 10:15 Sa 04.10.2008
Autor: Infinit

Hallo sie-nuss,
in diesem Bereich gibt es leider eine ganze Menge leicht unterschiedlicher Definitionen, so dass es mitunter schwer ist, herauszufinden, was denn nun wirklich gemeint ist.

Die Markov-Ketten geben für eine oder mehrere Zufallsvariable die Übergangswahrscheinlichkeiten verschiedener Zustände eines Systems an. Ob die Eingangsdaten für dieses System nun aus einem stochastischen Prozess stammen oder aus mehreren, ist für die Betrachtung der Kette unerheblich. Das Ganze arbeitet taktgesteuert und so kann man sich überlegen, ob es nach unendlich langer Zeit (oder auch kürzer) einen stationären Zustand der Zufallsvariablen gibt, also einen Zustand, der sich in weiteren Taktschritten nicht mehr ändert. Eine Aussage darüber lässt sich mit Hilfe von Grenzwertbetrachtungen gewinnen. Ist dies möglich, so haben dann diese Zufallsvariablen eine stationäre Verteilung. Somit entsteht aus dem zeitabhängigen Zufallsprozess eine Zufallsvariable.
Viele Grüße,
Infinit  

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]