www.vorhilfe.de
Vorhilfe

Kostenlose Kommunikationsplattform für gegenseitige Hilfestellungen.
Hallo Gast!einloggen | registrieren ]
Startseite · Forum · Wissen · Kurse · Mitglieder · Team · Impressum
Forenbaum
^ Forenbaum
Status Englisch
  Status Grammatik
  Status Lektüre
  Status Korrekturlesen
  Status Übersetzung
  Status Sonstiges (Englisch)

Gezeigt werden alle Foren bis zur Tiefe 2

Navigation
 Startseite...
 Neuerdings beta neu
 Forum...
 vorwissen...
 vorkurse...
 Werkzeuge...
 Nachhilfevermittlung beta...
 Online-Spiele beta
 Suchen
 Verein...
 Impressum
Das Projekt
Server und Internetanbindung werden durch Spenden finanziert.
Organisiert wird das Projekt von unserem Koordinatorenteam.
Hunderte Mitglieder helfen ehrenamtlich in unseren moderierten Foren.
Anbieter der Seite ist der gemeinnützige Verein "Vorhilfe.de e.V.".
Partnerseiten
Weitere Fächer:

Open Source FunktionenplotterFunkyPlot: Kostenloser und quelloffener Funktionenplotter für Linux und andere Betriebssysteme
Forum "Uni-Stochastik" - Markov Prozess
Markov Prozess < Stochastik < Hochschule < Mathe < Vorhilfe
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien

Markov Prozess: Frage
Status: (Frage) reagiert/warte auf Reaktion Status 
Datum: 12:53 Mi 08.12.2004
Autor: ghost

Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
Hi, ich hänge im Moment etwas an einem Problem fest das ich eigentlich schon als gelöst betrachtet habe. Das Problem an sich werde ich gar nicht genau schildern, lediglich den Teil der mir zur Lösung fehlt.
Es geht um die Frage wann eine Funktion eines Markov Prozesses wieder Markovsch ist. In Büchern habe ich eine notwendige und hinreichende Bedingung dafür gefunden, jedoch benutzt sie die Übergangswahrscheinlichkteiten und ich brauche eine Bedingung für die Raten. Ich habe versucht die Bedingung selbst umzuschreiben, jedoch gelingt mir das nicht richtig. Habe auch nirgends etwas genaues zu diesem Thema gefunden. Die Frage ist schon spezieller Natur, aber ich hoffe dennoch dass jemand von euch mal etwas damit zu tun hatte. Ein guter Link oder der Verweis auf ein Buch würde mir auch schon helfen. Danke

        
Bezug
Markov Prozess: Antwort
Status: (Antwort) fertig Status 
Datum: 12:04 Do 09.12.2004
Autor: Stefan

Hallo ghost!

Ich habe jetzt stundenlang recherchiert, bin aber an keine brauchbaren Ergebnissen für reguläre Markovprozesse gekommen, die Bedingungen an die Übergangsintensitäten unter Markov-invarianten Transformationen beinhalten.

Das einzige, was ich gefunden habe, ist das, was du vermutlich kennst (es ist nur etwas über die Übergangswahrscheinlichkeiten):

Für [mm] $\varphi [/mm] : [mm] (E,{\cal E}) \to (E',{\cal E}')$ [/mm] muss [mm] $\varphi({\cal E}) \subset {\cal E}'$ [/mm] gelten und

[mm] $P_t(x,\varphi^{-1}(A')) [/mm] = [mm] P_t(y,\varphi^{-1}(A'))$ [/mm]

für alle $t$, $A' [mm] \in {\cal E}'$ [/mm] und $x,y [mm] \in [/mm] E$ mit [mm] $\varphi(x) [/mm] = [mm] \varphi(y)$. [/mm]

Da mit Sicherheit hier kein weiterer so bescheuert ist wie ich und stundenlang für jemanden recherchiert, den er nicht mal kennt ;-), die meisten hier zudem keine Ahnung von dem Thema haben, wird die Frage wohl unbeantwortet bleiben. Tut mir leid! [sorry]

Viele Grüße
Stefan

Bezug
                
Bezug
Markov Prozess: Mitteilung
Status: (Mitteilung) Reaktion unnötig Status 
Datum: 20:13 Do 09.12.2004
Autor: ghost

Vielen Dank für deine Mühe Stefan, gut zu wissen dass ich nicht der einzige bin der darüber nichts gefunden hat. Falls jemand zufällig etwas über den Weg läuft, bitte hier reinposten. Es gibt ja schon ein paar Bücher, vor allem von Murray Rosenblatt, darüber, allerdings hat mir bisher noch nichts weitergeholfen. Werde dann wohl meinen Prof wieder mal belästigen:)

Bezug
Ansicht: [ geschachtelt ] | ^ Forum "Uni-Stochastik"  | ^^ Alle Foren  | ^ Forenbaum  | Materialien


^ Seitenanfang ^
www.englischraum.de
[ Startseite | Forum | Wissen | Kurse | Mitglieder | Team | Impressum ]