Markov Eigentum - Markov property

Eine einzelne Realisierung der dreidimensionalen Brownschen Bewegung für die Zeiten 0 ≤ t ≤ 2. Die Brownsche Bewegung hat die Markov-Eigenschaft, da die Verschiebung des Partikels nicht von seinen früheren Verschiebungen abhängt.

In der Wahrscheinlichkeitstheorie und -statistik bezieht sich der Begriff Markov-Eigenschaft auf die memorylose Eigenschaft eines stochastischen Prozesses . Es ist nach dem russischen Mathematiker Andrey Markov benannt . Der Begriff starke Markov-Eigenschaft ähnelt der Markov-Eigenschaft, außer dass die Bedeutung von "vorhanden" als Zufallsvariable definiert wird, die als Stoppzeit bezeichnet wird .

Der Begriff Markov-Annahme wird verwendet, um ein Modell zu beschreiben, bei dem angenommen wird, dass die Markov-Eigenschaft gilt, z. B. ein verstecktes Markov-Modell .

Ein Markov-Zufallsfeld erweitert diese Eigenschaft auf zwei oder mehr Dimensionen oder auf Zufallsvariablen, die für ein miteinander verbundenes Netzwerk von Elementen definiert sind. Ein Beispiel für ein Modell für ein solches Feld ist das Ising-Modell .

Ein zeitdiskreter stochastischer Prozess, der die Markov-Eigenschaft erfüllt, ist als Markov-Kette bekannt .

Einführung

Ein stochastischer Prozess hat die Markov-Eigenschaft, wenn die bedingte Wahrscheinlichkeitsverteilung zukünftiger Zustände des Prozesses (abhängig von vergangenen und gegenwärtigen Werten) nur vom gegenwärtigen Zustand abhängt; Das heißt, angesichts der Gegenwart hängt die Zukunft nicht von der Vergangenheit ab. Verfahren mit dieser Eigenschaft wird gesagt, dass Markovian oder ein Markov - Prozeß . Das bekannteste Markov-Verfahren ist eine Markov-Kette . Die Brownsche Bewegung ist ein weiterer bekannter Markov-Prozess.

Geschichte

Definition

Sei ein Wahrscheinlichkeitsraum mit einer Filterung für einen ( vollständig geordneten ) Indexsatz ; und sei ein messbarer Raum . Ein -wertige stochastischen Prozess zum Filtrations angepasst gesagt, um die besitzen Markov - Eigenschaft für jeden wenn und jeden mit ,

In dem Fall, in dem eine diskrete Menge mit der diskreten Sigma-Algebra und vorliegt , kann dies wie folgt umformuliert werden:

Alternative Formulierungen

Alternativ kann die Markov-Eigenschaft wie folgt formuliert werden.

für alle und begrenzt und messbar.

Starke Markov-Eigenschaft

Angenommen, dies ist ein stochastischer Prozess in einem Wahrscheinlichkeitsraum mit natürlicher Filtration . Dann gilt für jede Stoppzeit auf , können wir definieren

.

Dann wird gesagt, die starke Markov - Eigenschaft haben , wenn für jede Stoppzeit auf der Veranstaltung Anlage , haben wir für jeden , unabhängig von bestimmten .

Die starke Markov-Eigenschaft impliziert die gewöhnliche Markov-Eigenschaft, da durch Nehmen der Stoppzeit die gewöhnliche Markov-Eigenschaft abgeleitet werden kann.


In der Prognose

In den Bereichen Vorhersagemodellierung und Wahrscheinlichkeitsprognose wird die Markov-Eigenschaft als wünschenswert angesehen, da sie möglicherweise die Begründung und Lösung des Problems ermöglicht, das sonst aufgrund seiner Unlösbarkeit nicht gelöst werden könnte . Ein solches Modell ist als Markov-Modell bekannt .

Beispiele

Angenommen, eine Urne enthält zwei rote und eine grüne Kugel. Ein Ball wurde gestern gezogen, ein Ball wurde heute gezogen und der letzte Ball wird morgen gezogen. Alle Ziehungen sind "ersatzlos".

Angenommen, Sie wissen, dass der heutige Ball rot war, aber Sie haben keine Informationen über den gestrigen Ball. Die Chance, dass der Ball von morgen rot wird, beträgt 1/2. Das liegt daran, dass die einzigen zwei verbleibenden Ergebnisse für dieses zufällige Experiment sind:

Tag Ergebnis 1 Ergebnis 2
Gestern rot Grün
Heute rot rot
Morgen Grün rot

Wenn Sie jedoch wissen, dass die Bälle von heute und gestern rot waren, erhalten Sie morgen garantiert einen grünen Ball.

Diese Diskrepanz zeigt, dass die Wahrscheinlichkeitsverteilung für die Farbe von morgen nicht nur vom Barwert abhängt, sondern auch von Informationen über die Vergangenheit beeinflusst wird. Dieser stochastische Prozess der beobachteten Farben hat nicht die Markov-Eigenschaft. Wenn unter Verwendung des gleichen obigen Experiments die Abtastung "ohne Ersatz" in die Abtastung "mit Ersetzung" geändert wird, hat der Prozess der beobachteten Farben die Markov-Eigenschaft.

Eine Anwendung der Markov-Eigenschaft in verallgemeinerter Form erfolgt in Markov-Ketten-Monte-Carlo- Berechnungen im Kontext der Bayes'schen Statistik .

Siehe auch

Verweise