Einseitige Varianzanalyse - One-way analysis of variance

In der Statistik ist die Einweg- Varianzanalyse (abgekürzt Einweg-ANOVA ) eine Technik, die verwendet werden kann, um zu vergleichen, ob die Mittelwerte zweier Stichproben signifikant unterschiedlich sind oder nicht (unter Verwendung der F-Verteilung ). Diese Technik kann nur für numerische Antwortdaten verwendet werden, das "Y", normalerweise eine Variable, und numerische oder (normalerweise) kategoriale Eingabedaten, das "X", immer eine Variable, daher "one-way".

Die ANOVA testet die Nullhypothese , die besagt, dass Stichproben in allen Gruppen aus Populationen mit denselben Mittelwerten gezogen werden. Dazu werden zwei Schätzungen der Populationsvarianz vorgenommen. Diese Schätzungen beruhen auf verschiedenen Annahmen ( siehe unten ). Die ANOVA erzeugt eine F-Statistik, das Verhältnis der zwischen den Mittelwerten berechneten Varianz zur Varianz innerhalb der Stichproben. Wenn die Gruppenmittelwerte aus Grundgesamtheiten mit gleichen Mittelwerten gezogen werden, sollte die Varianz zwischen den Gruppenmittelwerten gemäß dem zentralen Grenzwertsatz geringer sein als die Varianz der Stichproben . Ein höheres Verhältnis impliziert daher, dass die Stichproben aus Populationen mit unterschiedlichen Mittelwerten gezogen wurden.

Typischerweise wird jedoch die Einweg-ANOVA verwendet, um auf Unterschiede zwischen mindestens drei Gruppen zu testen, da der Fall mit zwei Gruppen durch einen t-Test abgedeckt werden kann (Gosset, 1908). Wenn es nur zwei Mittel zum Vergleichen gibt, sind der t-Test und der F-Test äquivalent; die Beziehung zwischen ANOVA und t ist gegeben durch F  =  t 2 . Eine Erweiterung der Einweg-ANOVA ist die Zwei-Wege-Varianzanalyse , die den Einfluss zweier verschiedener kategorialer unabhängiger Variablen auf eine abhängige Variable untersucht.

Annahmen

Die Ergebnisse einer Einweg-ANOVA können als zuverlässig angesehen werden, solange die folgenden Annahmen erfüllt sind:

Wenn die Daten ordinal sind , sollte eine nichtparametrische Alternative zu diesem Test verwendet werden, wie die einseitige Varianzanalyse nach Kruskal-Wallis . Wenn bekannt ist, dass die Varianzen nicht gleich sind, kann eine Verallgemeinerung des t-Tests nach Welch bei zwei Stichproben verwendet werden.

Abweichungen von der Normalität der Bevölkerung

ANOVA ist ein relativ robustes Verfahren in Bezug auf Verletzungen der Normalitätsannahme.

Die Einweg-ANOVA kann auf faktorielle und multivariate Layouts sowie auf die Kovarianzanalyse verallgemeinert werden.

In der populären Literatur wird oft behauptet, dass keiner dieser F- Tests robust ist, wenn schwerwiegende Verletzungen der Annahme vorliegen, dass jede Population der Normalverteilung folgt , insbesondere bei kleinen Alpha-Werten und unausgeglichenen Layouts. Darüber hinaus wird auch behauptet, dass bei Verletzung der zugrunde liegenden Annahme der Homoskedastizität die Fehlereigenschaften vom Typ I viel stärker degenerieren.

Dies ist jedoch ein Missverständnis, das auf Arbeiten in den 1950er Jahren und früher basiert. Die erste umfassende Untersuchung des Problems durch Monte-Carlo-Simulation war Donaldson (1966). Er zeigte, dass unter den üblichen Abweichungen (positiver Skew, ungleiche Varianzen) "der F- Test konservativ ist", und es daher weniger wahrscheinlich ist, als es sein sollte, dass eine Variable signifikant ist. Wenn jedoch entweder die Stichprobengröße oder die Anzahl der Zellen zunimmt, "scheinen die Trennschärfekurven zu denen auf der Grundlage der Normalverteilung zu konvergieren". Tiku (1971) fand heraus, dass "die nicht-normale theoretische Trennschärfe von F sich von der normalen theoretischen Trennschärfe durch einen Korrekturterm unterscheidet, der mit zunehmender Stichprobengröße stark abnimmt." Das Problem der Nicht-Normalität, insbesondere bei großen Stichproben, ist weit weniger gravierend, als populäre Artikel vermuten lassen.

Die derzeitige Ansicht ist, dass "Monte-Carlo-Studien ausgiebig mit auf Normalverteilung basierenden Tests verwendet wurden, um zu bestimmen, wie empfindlich sie auf Verletzungen der Annahme der Normalverteilung der analysierten Variablen in der Bevölkerung sind. Die allgemeine Schlussfolgerung aus diesen Studien ist, dass die Die Folgen solcher Verstöße sind weniger schwerwiegend als bisher angenommen. Obwohl diese Schlussfolgerungen niemanden davon abhalten sollten, sich Sorgen über die Normalitätsannahme zu machen, haben sie die allgemeine Popularität der verteilungsabhängigen statistischen Tests in allen Forschungsbereichen erhöht.“

Für nichtparametrische Alternativen im Fakultätslayout siehe Sawilowsky. Für weitere Diskussion siehe ANOVA auf Rängen .

Der Fall fester Effekte, vollständig randomisiertes Experiment, unausgeglichene Daten

Das Model

Das normale lineare Modell beschreibt Behandlungsgruppen mit Wahrscheinlichkeitsverteilungen, die identische glockenförmige (normale) Kurven mit unterschiedlichen Mittelwerten sind. Somit erfordert die Anpassung der Modelle nur die Mittelwerte jeder Behandlungsgruppe und eine Varianzberechnung (es wird eine durchschnittliche Varianz innerhalb der Behandlungsgruppen verwendet). Im Rahmen des Hypothesentests werden Mittelwert- und Varianzberechnungen durchgeführt.

Die üblicherweise verwendeten normalen linearen Modelle für ein vollständig randomisiertes Experiment sind:

(das Mittelmodell)

oder

(das Effektmodell)

wo

ist ein Index über experimentelle Einheiten
ist ein Index über Behandlungsgruppen
ist die Anzahl der Versuchseinheiten in der j-ten Behandlungsgruppe
ist die Gesamtzahl der Versuchseinheiten
sind Beobachtungen
ist der Mittelwert der Beobachtungen für die j-te Behandlungsgruppe
ist das große Mittel der Beobachtungen
ist der j-te Behandlungseffekt, eine Abweichung vom Gesamtmittel
, sind normalverteilte Zufallsfehler mit mittlerem Mittelwert.

Der Index über die experimentellen Einheiten kann auf verschiedene Weise interpretiert werden. In einigen Experimenten wird dieselbe Versuchseinheit einer Reihe von Behandlungen unterzogen; kann auf eine bestimmte Einheit verweisen. In anderen hat jede Behandlungsgruppe einen eigenen Satz von Versuchseinheiten; kann einfach ein Index in die -te Liste sein.

Die Daten und statistische Zusammenfassungen der Daten

Eine Form der Organisation experimenteller Beobachtungen sind Gruppen in Spalten:

ANOVA-Datenorganisation, Unausgeglichen, Einzelfaktor
Listen der Gruppenbeobachtungen
1
2
3
Gruppenzusammenfassungsstatistik Große Zusammenfassungsstatistik
# Beobachtete # Beobachtete
Summe Summe
Summe Quadrat Summe Quadrat
Bedeuten Bedeuten
Abweichung Abweichung

Vergleich des Modells mit Zusammenfassungen: und . Der große Mittelwert und die große Varianz werden aus den Gesamtsummen berechnet, nicht aus Gruppenmittelwerten und Varianzen.

Der Hypothesentest

Aufgrund der zusammenfassenden Statistik werden die Berechnungen des Hypothesentests in tabellarischer Form dargestellt. Während zwei Spalten von SS wegen ihres erklärenden Wertes angezeigt werden, ist nur eine Spalte erforderlich, um die Ergebnisse anzuzeigen.

ANOVA-Tabelle für festes Modell, Einzelfaktor, vollständig randomisiertes Experiment
Quelle der Variation Quadratsummen Quadratsummen Freiheitsgrade Quadratischer Mittelwert F
Erklärende SS Computergestützte SS DF FRAU
Behandlungen
Error
Gesamt

ist die Schätzung der Varianz, die dem Modell entspricht.

Analysezusammenfassung

Die Kern-ANOVA-Analyse besteht aus einer Reihe von Berechnungen. Die Daten werden in tabellarischer Form erhoben. Dann

  • Jede Behandlungsgruppe wird durch die Anzahl der Versuchseinheiten, zwei Summen, einen Mittelwert und eine Varianz zusammengefasst. Die Zusammenfassungen der Behandlungsgruppen werden kombiniert, um Summen für die Anzahl der Einheiten und die Summen bereitzustellen. Der große Mittelwert und die große Varianz werden aus den Gesamtsummen berechnet. Die Behandlung und die großen Mittelwerte werden im Modell verwendet.
  • Die drei DFs und SSs werden aus den Zusammenfassungen berechnet. Dann werden die MSs berechnet und ein Verhältnis bestimmt F.
  • Ein Computer bestimmt typischerweise einen p-Wert aus F, der bestimmt, ob Behandlungen signifikant unterschiedliche Ergebnisse liefern. Wenn das Ergebnis signifikant ist, hat das Modell vorläufig Gültigkeit.

Wenn das Experiment ausgeglichen ist, sind alle Terme gleich, sodass sich die SS-Gleichungen vereinfachen.

In einem komplexeren Experiment, bei dem die experimentellen Einheiten (oder Umgebungseffekte) nicht homogen sind, werden auch Zeilenstatistiken bei der Analyse verwendet. Das Modell enthält Begriffe, die von abhängig sind . Das Bestimmen der zusätzlichen Terme verringert die Anzahl der verfügbaren Freiheitsgrade.

Beispiel

Stellen Sie sich ein Experiment vor, um die Wirkung von drei verschiedenen Ebenen eines Faktors auf eine Reaktion zu untersuchen (z. B. drei Ebenen eines Düngers auf das Pflanzenwachstum). Wenn wir für jede Stufe 6 Beobachtungen hätten, könnten wir das Ergebnis des Experiments in eine Tabelle wie diese schreiben, wobei a 1 , a 2 und a 3 die drei Stufen des untersuchten Faktors sind.

ein 1 ein 2 ein 3
6 8 13
8 12 9
4 9 11
5 11 8
3 6 7
4 8 12

Die mit H 0 bezeichnete Nullhypothese für den Gesamt- F- Test für dieses Experiment wäre, dass alle drei Stufen des Faktors im Durchschnitt dieselbe Antwort erzeugen. Um das F- Verhältnis zu berechnen :

Schritt 1: Berechnen Sie den Mittelwert innerhalb jeder Gruppe:

Schritt 2: Berechnen Sie den Gesamtmittelwert:

wobei a die Anzahl der Gruppen ist.

Schritt 3: Berechnen Sie die "Zwischengruppen"-Summe der quadrierten Differenzen:

wobei n die Anzahl der Datenwerte pro Gruppe ist.

Die Freiheitsgrade zwischen den Gruppen sind eins weniger als die Anzahl der Gruppen

der mittlere quadratische Wert zwischen den Gruppen ist also

Schritt 4: Berechnen Sie die Quadratsumme "innerhalb der Gruppe". Beginnen Sie mit der Zentrierung der Daten in jeder Gruppe

ein 1 ein 2 ein 3
6−5=1 8−9=−1 13−10=3
8−5=3 12−9=3 9−10=−1
4−5=−1 9−9=0 11−10=1
5−5=0 11−9=2 8−10=−2
3−5=−2 6−9=−3 7−10=−3
4−5=−1 8−9=−1 12−10=2

Die Quadratsumme innerhalb der Gruppe ist die Quadratsumme aller 18 Werte in dieser Tabelle

Die Freiheitsgrade innerhalb der Gruppe sind

F-dens-2-15df.svg

Somit ist der mittlere quadratische Wert innerhalb der Gruppe

Schritt 5: Das F- Verhältnis ist

Der kritische Wert ist die Zahl, die die Teststatistik überschreiten muss, um den Test abzulehnen. In diesem Fall ist F krit = (2,15) 3,68 bei α = 0,05. Da F = 9,3> 3,68, die Ergebnisse sind signifikant auf dem 5% Signifikanzniveau. Man würde die Nullhypothese verwerfen und schlussfolgern, dass es starke Beweise dafür gibt, dass sich die Erwartungswerte in den drei Gruppen unterscheiden. Der p-Wert für diesen Test beträgt 0,002.

Nach der Durchführung des F- Tests ist es üblich, eine "post-hoc"-Analyse der Gruppenmittelwerte durchzuführen. In diesem Fall unterscheiden sich die ersten beiden Gruppenmittel um 4 Einheiten, die ersten und dritten Gruppenmittel unterscheiden sich um 5 Einheiten und die zweiten und dritten Gruppenmittel unterscheiden sich nur um 1 Einheit. Der Standardfehler jeder dieser Differenzen beträgt . Somit unterscheidet sich die erste Gruppe stark von den anderen Gruppen, da die Mittelwertdifferenz mehr als der Standardfehler beträgt, sodass wir sehr sicher sein können, dass sich der Grundgesamtheitsmittelwert der ersten Gruppe von den Grundgesamtheitsmittelwerten der anderen Gruppen unterscheidet. Es gibt jedoch keine Hinweise darauf, dass die zweite und dritte Gruppe unterschiedliche Populationsmittelwerte aufweisen, da ihre mittlere Differenz von einer Einheit mit dem Standardfehler vergleichbar ist.

Note F ( xy ) bezeichnet eine F -Verteilung kumulative Verteilungsfunktion mit x Freiheitsgraden im Zähler und y Freiheitsgraden im Nenner.

Siehe auch

Anmerkungen

Weiterlesen