Markov Decke - Markov blanket

In einem Bayes'schen Netzwerk umfasst die Markov-Grenze des Knotens A seine Eltern, Kinder und die anderen Eltern aller seiner Kinder.

Wenn man in der Statistik und beim maschinellen Lernen eine Zufallsvariable mit einer Reihe von Variablen ableiten möchte, reicht normalerweise eine Teilmenge aus, und andere Variablen sind nutzlos. Eine solche Teilmenge, die alle nützlichen Informationen enthält, wird als Markov-Decke bezeichnet . Wenn eine Markov-Decke minimal ist, was bedeutet, dass sie keine Variable löschen kann, ohne Informationen zu verlieren, wird sie als Markov-Grenze bezeichnet . Das Identifizieren einer Markov-Decke oder einer Markov-Grenze hilft, nützliche Merkmale zu extrahieren. Die Begriffe Markov-Decke und Markov-Grenze wurden 1988 von Judea Pearl geprägt .

Markov Decke

Eine Markov-Decke einer Zufallsvariablen in einer Zufallsvariablensatz ist eine beliebige Teilmenge von , abhängig davon, von denen andere Variablen unabhängig sind mit :

Dies bedeutet, dass mindestens alle Informationen enthalten sind, auf die geschlossen werden muss , wenn die Variablen redundant sind.

Im Allgemeinen ist eine bestimmte Markov-Decke nicht eindeutig. Jedes Set , das eine Markov-Decke enthält, ist auch selbst eine Markov-Decke. Insbesondere ist eine Markov-Decke von in .

Markov-Grenze

Eine Markov-Grenze von in ist eine Teilmenge von , die selbst eine Markov-Decke von ist , aber jede richtige Teilmenge von ist keine Markov-Decke von . Mit anderen Worten, eine Markov-Grenze ist eine minimale Markov-Decke.

Die Markov-Grenze eines Knotens in einem Bayes'schen Netzwerk ist die Menge von Knoten, die sich aus den Eltern, den Kindern und den anderen Eltern der Kinder zusammensetzt. In einem Markov-Zufallsfeld ist die Markov-Grenze für einen Knoten die Menge seiner Nachbarknoten. In einem Abhängigkeitsnetzwerk ist die Markov-Grenze für einen Knoten die Menge seiner Eltern.

Einzigartigkeit der Markov-Grenze

Die Markov-Grenze existiert immer. Unter milden Bedingungen ist die Markov-Grenze einzigartig. Für die meisten praktischen und theoretischen Szenarien können jedoch mehrere Markov-Grenzen alternative Lösungen bieten. Wenn es mehrere Markov-Grenzen gibt, können Größen, die den Kausaleffekt messen, fehlschlagen.

Siehe auch

Anmerkungen

  1. ^ Pearl, Judäa (1988). Probabilistisches Denken in intelligenten Systemen: Netzwerke plausibler Folgerungen . Repräsentations- und Argumentationsserie. San Mateo CA: Morgan Kaufmann. ISBN   0-934613-73-7 . CS1-Wartung: entmutigter Parameter ( Link )
  2. ^ Statnikov, Alexander; Lytkin, Nikita I.; Lemeire, Jan; Aliferis, Constantin F. (2013). "Algorithmen zur Entdeckung mehrerer Markov-Grenzen" (PDF) . Journal of Machine Learning Research . 14 : 499–566.
  3. ^ Wang, Yue; Wang, Linbo (2020). "Kausale Folgerung in entarteten Systemen: Ein Unmöglichkeitsergebnis" . Tagungsband der 23. Internationalen Konferenz für künstliche Intelligenz und Statistik : 3383–3392.