Bayessches Informationskriterium - Bayesian information criterion

In der Statistik ist das Bayessche Informationskriterium ( BIC ) oder das Schwarz-Informationskriterium (auch SIC , SBC , SBIC ) ein Kriterium für die Modellauswahl unter einer endlichen Menge von Modellen; Modelle mit niedrigerem BIC werden im Allgemeinen bevorzugt. Es basiert zum Teil auf der Likelihood-Funktion und ist eng mit dem Akaike-Informationskriterium (AIC) verwandt.

Beim Anpassen von Modellen ist es möglich, die Wahrscheinlichkeit durch Hinzufügen von Parametern zu erhöhen, dies kann jedoch zu einer Überanpassung führen . Sowohl BIC als auch AIC versuchen, dieses Problem zu lösen, indem sie einen Strafterm für die Anzahl der Parameter im Modell einführen; der Strafterm ist im BIC größer als im AIC.

Der BIC wurde von Gideon E. Schwarz entwickelt und 1978 in einer Veröffentlichung veröffentlicht, in der er ein Bayes'sches Argument für seine Übernahme anführte.

Definition

Der BIC ist formal definiert als

wo

  • = der maximierte Wert der Likelihood-Funktion des Modells , dh wo sind die Parameterwerte, die die Likelihood-Funktion maximieren;
  • = die beobachteten Daten;
  • = die Anzahl der Datenpunkte in , die Anzahl der Beobachtungen oder entsprechend der Stichprobenumfang;
  • = Anzahl der vom Modell geschätzten Parameter . Bei der multiplen linearen Regression sind die geschätzten Parameter beispielsweise der Achsenabschnitt, die Steigungsparameter und die konstante Varianz der Fehler; also, .

Konishi und Kitagawa leiten den BIC ab, um die Verteilung der Daten anzunähern, indem sie die Parameter mit der Laplace-Methode integrieren , beginnend mit den folgenden Modellbeweisen :

wo ist der Vorrang für das untere Modell .

Die Log-Likelihood, , wird dann zu einer Taylor-Reihe zweiter Ordnung um den MLE , , erweitert, unter der Annahme, dass sie wie folgt zweimal differenzierbar ist:

wobei die durchschnittliche beobachtete Information pro Beobachtung ist und prime ( ) die Transponierte des Vektors bezeichnet . Soweit dies vernachlässigbar ist und in der Nähe von relativ linear ist , können wir heraus integrieren, um Folgendes zu erhalten:

Als Zunahmen können wir ignorieren und wie sie sind . Daher,

wobei BIC wie oben definiert ist und entweder (a) der Bayes'sche Posterior-Modus ist oder (b) den MLE verwendet und der Prior eine Steigung ungleich Null am MLE hat. Dann das hintere

Verwendungszweck

Bei der Auswahl aus mehreren Modellen werden im Allgemeinen Modelle mit niedrigeren BIC-Werten bevorzugt. Der BIC ist eine ansteigende Funktion der Fehlervarianz und eine ansteigende Funktion von k . Das heißt, unerklärliche Variationen der abhängigen Variablen und die Anzahl der erklärenden Variablen erhöhen den Wert des BIC. Ein niedriger BIC bedeutet jedoch nicht unbedingt, dass ein Modell besser ist als ein anderes. Da es sich um Näherungen handelt, ist der BIC lediglich eine Heuristik. Insbesondere sollten Unterschiede im BIC niemals wie transformierte Bayes-Faktoren behandelt werden.

Es ist wichtig zu bedenken, dass der BIC nur dann zum Vergleich geschätzter Modelle verwendet werden kann, wenn die numerischen Werte der abhängigen Variablen für alle verglichenen Modelle identisch sind. Die verglichenen Modelle müssen nicht verschachtelt werden , anders als wenn Modelle mit einem F-Test oder einem Likelihood-Quotienten-Test verglichen werden .

Eigenschaften

  • Der BIC bestraft freie Parameter im Allgemeinen stärker als das Akaike-Informationskriterium , hängt jedoch von der Größe von n und der relativen Größe von n und  k ab .
  • Es ist unabhängig vom Vorhergehenden.
  • Es kann die Effizienz des parametrisierten Modells hinsichtlich der Vorhersage der Daten messen.
  • Es bestraft die Komplexität des Modells, wobei sich Komplexität auf die Anzahl der Parameter im Modell bezieht.
  • Sie entspricht ungefähr dem Kriterium der minimalen Beschreibungslänge, jedoch mit negativem Vorzeichen.
  • Es kann verwendet werden, um die Anzahl der Cluster entsprechend der intrinsischen Komplexität eines bestimmten Datensatzes auszuwählen.
  • Es steht in engem Zusammenhang mit anderen bestraften Wahrscheinlichkeitskriterien wie dem Abweichungs-Informationskriterium und dem Akaike-Informationskriterium .

Einschränkungen

Der BIC leidet unter zwei Haupteinschränkungen

  1. die obige Näherung gilt nur für Stichprobengrößen, die viel größer sind als die Anzahl der Parameter im Modell.
  2. der BIC kann komplexe Sammlungen von Modellen wie bei dem Problem der Variablenauswahl (oder Merkmalsauswahl ) in hoher Dimension nicht handhaben .

Gaußscher Spezialfall

Unter der Annahme, dass die Modellfehler oder -störungen unabhängig und gleichverteilt gemäß einer Normalverteilung sind und die Randbedingung, dass die Ableitung der Log-Likelihood nach der wahren Varianz null ist, wird dies zu ( bis auf eine additive Konstante , die hängt nur von n und nicht vom Modell ab):

wo ist die fehlervarianz. Die Fehlervarianz ist in diesem Fall definiert als

Dies ist ein verzerrter Schätzer für die wahre Varianz .

Bezogen auf die Residualsumme der Quadrate (RSS) ist der BIC

Beim Testen mehrerer linearer Modelle gegen ein gesättigtes Modell kann der BIC in Bezug auf die Abweichung wie folgt umgeschrieben werden :

wobei die Anzahl der Modellparameter im Test ist.

Siehe auch

Anmerkungen

Verweise

Weiterlesen

Externe Links