F- Test - F-test

Ein F - Test jeder ist statistischer Test , in dem die Teststatistik ein HAS F -Verteilung unter der Nullhypothese . Es wird am häufigsten verwendet, wenn statistische Modelle verglichen werden , die an einen Datensatz angepasst wurden, um das Modell zu identifizieren, das am besten zu der Population passt, aus der die Daten entnommen wurden. Genaue " F- Tests" entstehen hauptsächlich, wenn die Modelle mit den kleinsten Quadraten an die Daten angepasst wurden . Der Name wurde von George W. Snedecor zu Ehren von Sir Ronald A. Fisher geprägt . Fisher entwickelte die Statistik zunächst als Varianzverhältnis in den 1920er Jahren.

Häufige Beispiele

Häufige Beispiele für die Verwendung von F- Tests sind die Untersuchung der folgenden Fälle:

Darüber hinaus verwenden einige statistische Verfahren, wie beispielsweise die Scheffé-Methode zur Anpassung mehrerer Vergleiche in linearen Modellen, auch F- Tests.

F- Test der Gleichheit zweier Varianzen

Der F- Test reagiert empfindlich auf Nichtnormalität . Bei der Varianzanalyse (ANOVA) umfassen alternative Tests den Levene-Test , den Bartlett-Test und den Brown-Forsythe-Test . Wenn jedoch einer dieser Tests durchgeführt wird, um die zugrunde liegende Annahme der Homoskedastizität ( dh Homogenität der Varianz) als vorläufigen Schritt zum Testen auf mittlere Effekte zu testen, steigt die experimentelle Fehlerrate des Typs I an .

Formel und Berechnung

Die meisten F- Tests ergeben sich aus der Betrachtung einer Zerlegung der Variabilität einer Datensammlung in Quadratsummen . Die Teststatistik in einem F- Test ist das Verhältnis zweier skalierter Quadratsummen, die unterschiedliche Variabilitätsquellen widerspiegeln. Diese Quadratsummen sind so konstruiert, dass die Statistik tendenziell größer ist, wenn die Nullhypothese nicht wahr ist. Um für die Statistik , die folgen F -Verteilung unter der Nullhypothese, sollten die Quadratsummen werden statistisch unabhängig , und jeder sollte eine skalierte folgen x²-Verteilung . Die letztere Bedingung ist garantiert, wenn die Datenwerte unabhängig und normalverteilt mit einer gemeinsamen Varianz sind .

ANOVA-Probleme mit mehreren Vergleichen

Der F- Test in der Einweg-Varianzanalyse wird verwendet, um zu bewerten, ob sich die erwarteten Werte einer quantitativen Variablen innerhalb mehrerer vordefinierter Gruppen voneinander unterscheiden. Angenommen, eine medizinische Studie vergleicht vier Behandlungen. Der ANOVA F- Test kann verwendet werden, um zu beurteilen, ob eine der Behandlungen den anderen im Durchschnitt überlegen oder unterlegen ist, verglichen mit der Nullhypothese, dass alle vier Behandlungen das gleiche mittlere Ansprechen ergeben. Dies ist ein Beispiel für einen "Omnibus" -Test. Dies bedeutet, dass ein einzelner Test durchgeführt wird, um einen von mehreren möglichen Unterschieden festzustellen. Alternativ könnten wir paarweise Tests unter den Behandlungen durchführen (zum Beispiel könnten wir im Beispiel einer medizinischen Studie mit vier Behandlungen sechs Tests unter zwei Behandlungspaaren durchführen). Der Vorteil des ANOVA F- Tests besteht darin, dass wir nicht vorab festlegen müssen, welche Behandlungen verglichen werden sollen, und dass wir uns nicht anpassen müssen, um mehrere Vergleiche durchzuführen . Der Nachteil des ANOVA F- Tests besteht darin, dass wir, wenn wir die Nullhypothese ablehnen , nicht wissen, welche Behandlungen sich signifikant von den anderen unterscheiden, und auch nicht angeben können , ob der F- Test auf Stufe α durchgeführt wird dass das Behandlungspaar mit dem größten mittleren Unterschied auf Stufe α signifikant unterschiedlich ist.

Die Formel für die Einweg- ANOVA F -test - Statistik ist

oder

Die "erklärte Varianz" oder "Variabilität zwischen Gruppen" ist

Dabei bezeichnet der Stichprobenmittelwert in der i- ten Gruppe die Anzahl der Beobachtungen in der i- ten Gruppe, den Gesamtmittelwert der Daten und die Anzahl der Gruppen.

Die "ungeklärte Varianz" oder "Variabilität innerhalb der Gruppe" ist

Wo ist die j- te Beobachtung in der i- ten von Gruppen und ist die Gesamtstichprobengröße. Diese F- Statistik folgt der F- Verteilung mit Freiheitsgraden und unter der Nullhypothese. Die Statistik ist groß, wenn die Variabilität zwischen den Gruppen im Verhältnis zur Variabilität innerhalb der Gruppe groß ist. Dies ist unwahrscheinlich, wenn die Populationsmittelwerte der Gruppen alle den gleichen Wert haben.

Beachten Sie, dass wenn es nur zwei Gruppen für den Einweg-ANOVA- F- Test gibt, wobei t die Statistik des Schülers ist .

Regressionsprobleme

Betrachten Sie zwei Modelle, 1 und 2, wobei Modell 1 in Modell 2 'verschachtelt' ist. Modell 1 ist das eingeschränkte Modell und Modell 2 ist das uneingeschränkte. Das heißt, Modell 1 hat p 1 -Parameter und Modell 2 hat p 2 -Parameter, wobei p 1  <  p 2 ist , und für jede Auswahl von Parametern in Modell 1 kann dieselbe Regressionskurve durch eine Auswahl der Parameter des Modells erreicht werden 2.

Ein häufiger Kontext in diesem Zusammenhang ist die Entscheidung, ob ein Modell wesentlich besser zu den Daten passt als ein naives Modell, bei dem der einzige erklärende Begriff der Intercept-Term ist, sodass alle vorhergesagten Werte für die abhängige Variable gleich denen dieser Variablen gesetzt werden Stichprobenmittelwert. Das naive Modell ist das eingeschränkte Modell, da die Koeffizienten aller möglichen erklärenden Variablen auf Null beschränkt sind.

Ein weiterer häufiger Kontext ist die Entscheidung, ob es einen strukturellen Bruch in den Daten gibt: Hier verwendet das eingeschränkte Modell alle Daten in einer Regression, während das uneingeschränkte Modell separate Regressionen für zwei verschiedene Teilmengen der Daten verwendet. Diese Verwendung des F-Tests ist als Chow-Test bekannt .

Das Modell mit mehr Parametern kann immer mindestens genauso gut zu den Daten passen wie das Modell mit weniger Parametern. Daher ergibt Modell 2 typischerweise eine bessere (dh geringere Fehler-) Anpassung an die Daten als Modell 1. Oft möchte man jedoch feststellen, ob Modell 2 eine signifikant bessere Anpassung an die Daten bietet . Ein Ansatz für dieses Problem ist die Verwendung eines F- Tests.

Wenn es n Datenpunkte gibt, aus denen die Parameter beider Modelle geschätzt werden können, kann man die F- Statistik berechnen , die durch gegeben ist

wobei RSS i die Restsumme der Quadrate des Modells i ist . Wenn das Regressionsmodell mit Gewichten berechnet wurde, ersetzen Sie RSS i durch χ 2 , die gewichtete Summe der quadratischen Residuen. Unter der Nullhypothese, dass Modell 2 keine signifikant bessere Anpassung als Modell 1 liefert, hat F eine F- Verteilung mit ( p 2 - p 1 n - p 2 ) Freiheitsgraden . Die Nullhypothese wird verworfen, wenn das aus den Daten berechnete F größer ist als der kritische Wert der F- Verteilung für eine gewünschte Wahrscheinlichkeit einer falschen Zurückweisung (z. B. 0,05). Der F- Test ist ein Wald-Test .

Siehe auch

Verweise

Weiterführende Literatur

Externe Links