Einseitige Varianzanalyse - One-way analysis of variance
In der Statistik ist die Einweg- Varianzanalyse (abgekürzt Einweg-ANOVA ) eine Technik, die verwendet werden kann, um zu vergleichen, ob die Mittelwerte zweier Stichproben signifikant unterschiedlich sind oder nicht (unter Verwendung der F-Verteilung ). Diese Technik kann nur für numerische Antwortdaten verwendet werden, das "Y", normalerweise eine Variable, und numerische oder (normalerweise) kategoriale Eingabedaten, das "X", immer eine Variable, daher "one-way".
Die ANOVA testet die Nullhypothese , die besagt, dass Stichproben in allen Gruppen aus Populationen mit denselben Mittelwerten gezogen werden. Dazu werden zwei Schätzungen der Populationsvarianz vorgenommen. Diese Schätzungen beruhen auf verschiedenen Annahmen ( siehe unten ). Die ANOVA erzeugt eine F-Statistik, das Verhältnis der zwischen den Mittelwerten berechneten Varianz zur Varianz innerhalb der Stichproben. Wenn die Gruppenmittelwerte aus Grundgesamtheiten mit gleichen Mittelwerten gezogen werden, sollte die Varianz zwischen den Gruppenmittelwerten gemäß dem zentralen Grenzwertsatz geringer sein als die Varianz der Stichproben . Ein höheres Verhältnis impliziert daher, dass die Stichproben aus Populationen mit unterschiedlichen Mittelwerten gezogen wurden.
Typischerweise wird jedoch die Einweg-ANOVA verwendet, um auf Unterschiede zwischen mindestens drei Gruppen zu testen, da der Fall mit zwei Gruppen durch einen t-Test abgedeckt werden kann (Gosset, 1908). Wenn es nur zwei Mittel zum Vergleichen gibt, sind der t-Test und der F-Test äquivalent; die Beziehung zwischen ANOVA und t ist gegeben durch F = t 2 . Eine Erweiterung der Einweg-ANOVA ist die Zwei-Wege-Varianzanalyse , die den Einfluss zweier verschiedener kategorialer unabhängiger Variablen auf eine abhängige Variable untersucht.
Annahmen
Die Ergebnisse einer Einweg-ANOVA können als zuverlässig angesehen werden, solange die folgenden Annahmen erfüllt sind:
- Die Residuen der Antwortvariablen sind normalverteilt (oder annähernd normalverteilt).
- Die Varianzen der Populationen sind gleich.
- Antworten für eine bestimmte Gruppe sind unabhängige und identisch verteilte normale Zufallsvariablen (keine einfache Zufallsstichprobe (SRS)).
Wenn die Daten ordinal sind , sollte eine nichtparametrische Alternative zu diesem Test verwendet werden, wie die einseitige Varianzanalyse nach Kruskal-Wallis . Wenn bekannt ist, dass die Varianzen nicht gleich sind, kann eine Verallgemeinerung des t-Tests nach Welch bei zwei Stichproben verwendet werden.
Abweichungen von der Normalität der Bevölkerung
ANOVA ist ein relativ robustes Verfahren in Bezug auf Verletzungen der Normalitätsannahme.
Die Einweg-ANOVA kann auf faktorielle und multivariate Layouts sowie auf die Kovarianzanalyse verallgemeinert werden.
In der populären Literatur wird oft behauptet, dass keiner dieser F- Tests robust ist, wenn schwerwiegende Verletzungen der Annahme vorliegen, dass jede Population der Normalverteilung folgt , insbesondere bei kleinen Alpha-Werten und unausgeglichenen Layouts. Darüber hinaus wird auch behauptet, dass bei Verletzung der zugrunde liegenden Annahme der Homoskedastizität die Fehlereigenschaften vom Typ I viel stärker degenerieren.
Dies ist jedoch ein Missverständnis, das auf Arbeiten in den 1950er Jahren und früher basiert. Die erste umfassende Untersuchung des Problems durch Monte-Carlo-Simulation war Donaldson (1966). Er zeigte, dass unter den üblichen Abweichungen (positiver Skew, ungleiche Varianzen) "der F- Test konservativ ist", und es daher weniger wahrscheinlich ist, als es sein sollte, dass eine Variable signifikant ist. Wenn jedoch entweder die Stichprobengröße oder die Anzahl der Zellen zunimmt, "scheinen die Trennschärfekurven zu denen auf der Grundlage der Normalverteilung zu konvergieren". Tiku (1971) fand heraus, dass "die nicht-normale theoretische Trennschärfe von F sich von der normalen theoretischen Trennschärfe durch einen Korrekturterm unterscheidet, der mit zunehmender Stichprobengröße stark abnimmt." Das Problem der Nicht-Normalität, insbesondere bei großen Stichproben, ist weit weniger gravierend, als populäre Artikel vermuten lassen.
Die derzeitige Ansicht ist, dass "Monte-Carlo-Studien ausgiebig mit auf Normalverteilung basierenden Tests verwendet wurden, um zu bestimmen, wie empfindlich sie auf Verletzungen der Annahme der Normalverteilung der analysierten Variablen in der Bevölkerung sind. Die allgemeine Schlussfolgerung aus diesen Studien ist, dass die Die Folgen solcher Verstöße sind weniger schwerwiegend als bisher angenommen. Obwohl diese Schlussfolgerungen niemanden davon abhalten sollten, sich Sorgen über die Normalitätsannahme zu machen, haben sie die allgemeine Popularität der verteilungsabhängigen statistischen Tests in allen Forschungsbereichen erhöht.“
Für nichtparametrische Alternativen im Fakultätslayout siehe Sawilowsky. Für weitere Diskussion siehe ANOVA auf Rängen .
Der Fall fester Effekte, vollständig randomisiertes Experiment, unausgeglichene Daten
Das Model
Das normale lineare Modell beschreibt Behandlungsgruppen mit Wahrscheinlichkeitsverteilungen, die identische glockenförmige (normale) Kurven mit unterschiedlichen Mittelwerten sind. Somit erfordert die Anpassung der Modelle nur die Mittelwerte jeder Behandlungsgruppe und eine Varianzberechnung (es wird eine durchschnittliche Varianz innerhalb der Behandlungsgruppen verwendet). Im Rahmen des Hypothesentests werden Mittelwert- und Varianzberechnungen durchgeführt.
Die üblicherweise verwendeten normalen linearen Modelle für ein vollständig randomisiertes Experiment sind:
- (das Mittelmodell)
oder
- (das Effektmodell)
wo
- ist ein Index über experimentelle Einheiten
- ist ein Index über Behandlungsgruppen
- ist die Anzahl der Versuchseinheiten in der j-ten Behandlungsgruppe
- ist die Gesamtzahl der Versuchseinheiten
- sind Beobachtungen
- ist der Mittelwert der Beobachtungen für die j-te Behandlungsgruppe
- ist das große Mittel der Beobachtungen
- ist der j-te Behandlungseffekt, eine Abweichung vom Gesamtmittel
- , sind normalverteilte Zufallsfehler mit mittlerem Mittelwert.
Der Index über die experimentellen Einheiten kann auf verschiedene Weise interpretiert werden. In einigen Experimenten wird dieselbe Versuchseinheit einer Reihe von Behandlungen unterzogen; kann auf eine bestimmte Einheit verweisen. In anderen hat jede Behandlungsgruppe einen eigenen Satz von Versuchseinheiten; kann einfach ein Index in die -te Liste sein.
Die Daten und statistische Zusammenfassungen der Daten
Eine Form der Organisation experimenteller Beobachtungen sind Gruppen in Spalten:
Listen der Gruppenbeobachtungen | ||||||||
---|---|---|---|---|---|---|---|---|
1 | ||||||||
2 | ||||||||
3 | ||||||||
Gruppenzusammenfassungsstatistik | Große Zusammenfassungsstatistik | |||||||
# Beobachtete | # Beobachtete | |||||||
Summe | Summe | |||||||
Summe Quadrat | Summe Quadrat | |||||||
Bedeuten | Bedeuten | |||||||
Abweichung | Abweichung |
Vergleich des Modells mit Zusammenfassungen: und . Der große Mittelwert und die große Varianz werden aus den Gesamtsummen berechnet, nicht aus Gruppenmittelwerten und Varianzen.
Der Hypothesentest
Aufgrund der zusammenfassenden Statistik werden die Berechnungen des Hypothesentests in tabellarischer Form dargestellt. Während zwei Spalten von SS wegen ihres erklärenden Wertes angezeigt werden, ist nur eine Spalte erforderlich, um die Ergebnisse anzuzeigen.
Quelle der Variation | Quadratsummen | Quadratsummen | Freiheitsgrade | Quadratischer Mittelwert | F |
---|---|---|---|---|---|
Erklärende SS | Computergestützte SS | DF | FRAU | ||
Behandlungen | |||||
Error | |||||
Gesamt |
ist die Schätzung der Varianz, die dem Modell entspricht.
Analysezusammenfassung
Die Kern-ANOVA-Analyse besteht aus einer Reihe von Berechnungen. Die Daten werden in tabellarischer Form erhoben. Dann
- Jede Behandlungsgruppe wird durch die Anzahl der Versuchseinheiten, zwei Summen, einen Mittelwert und eine Varianz zusammengefasst. Die Zusammenfassungen der Behandlungsgruppen werden kombiniert, um Summen für die Anzahl der Einheiten und die Summen bereitzustellen. Der große Mittelwert und die große Varianz werden aus den Gesamtsummen berechnet. Die Behandlung und die großen Mittelwerte werden im Modell verwendet.
- Die drei DFs und SSs werden aus den Zusammenfassungen berechnet. Dann werden die MSs berechnet und ein Verhältnis bestimmt F.
- Ein Computer bestimmt typischerweise einen p-Wert aus F, der bestimmt, ob Behandlungen signifikant unterschiedliche Ergebnisse liefern. Wenn das Ergebnis signifikant ist, hat das Modell vorläufig Gültigkeit.
Wenn das Experiment ausgeglichen ist, sind alle Terme gleich, sodass sich die SS-Gleichungen vereinfachen.
In einem komplexeren Experiment, bei dem die experimentellen Einheiten (oder Umgebungseffekte) nicht homogen sind, werden auch Zeilenstatistiken bei der Analyse verwendet. Das Modell enthält Begriffe, die von abhängig sind . Das Bestimmen der zusätzlichen Terme verringert die Anzahl der verfügbaren Freiheitsgrade.
Beispiel
Stellen Sie sich ein Experiment vor, um die Wirkung von drei verschiedenen Ebenen eines Faktors auf eine Reaktion zu untersuchen (z. B. drei Ebenen eines Düngers auf das Pflanzenwachstum). Wenn wir für jede Stufe 6 Beobachtungen hätten, könnten wir das Ergebnis des Experiments in eine Tabelle wie diese schreiben, wobei a 1 , a 2 und a 3 die drei Stufen des untersuchten Faktors sind.
ein 1 ein 2 ein 3 6 8 13 8 12 9 4 9 11 5 11 8 3 6 7 4 8 12
Die mit H 0 bezeichnete Nullhypothese für den Gesamt- F- Test für dieses Experiment wäre, dass alle drei Stufen des Faktors im Durchschnitt dieselbe Antwort erzeugen. Um das F- Verhältnis zu berechnen :
Schritt 1: Berechnen Sie den Mittelwert innerhalb jeder Gruppe:
Schritt 2: Berechnen Sie den Gesamtmittelwert:
- wobei a die Anzahl der Gruppen ist.
Schritt 3: Berechnen Sie die "Zwischengruppen"-Summe der quadrierten Differenzen:
wobei n die Anzahl der Datenwerte pro Gruppe ist.
Die Freiheitsgrade zwischen den Gruppen sind eins weniger als die Anzahl der Gruppen
der mittlere quadratische Wert zwischen den Gruppen ist also
Schritt 4: Berechnen Sie die Quadratsumme "innerhalb der Gruppe". Beginnen Sie mit der Zentrierung der Daten in jeder Gruppe
ein 1 | ein 2 | ein 3 |
---|---|---|
6−5=1 | 8−9=−1 | 13−10=3 |
8−5=3 | 12−9=3 | 9−10=−1 |
4−5=−1 | 9−9=0 | 11−10=1 |
5−5=0 | 11−9=2 | 8−10=−2 |
3−5=−2 | 6−9=−3 | 7−10=−3 |
4−5=−1 | 8−9=−1 | 12−10=2 |
Die Quadratsumme innerhalb der Gruppe ist die Quadratsumme aller 18 Werte in dieser Tabelle
Die Freiheitsgrade innerhalb der Gruppe sind
Somit ist der mittlere quadratische Wert innerhalb der Gruppe
Schritt 5: Das F- Verhältnis ist
Der kritische Wert ist die Zahl, die die Teststatistik überschreiten muss, um den Test abzulehnen. In diesem Fall ist F krit = (2,15) 3,68 bei α = 0,05. Da F = 9,3> 3,68, die Ergebnisse sind signifikant auf dem 5% Signifikanzniveau. Man würde die Nullhypothese verwerfen und schlussfolgern, dass es starke Beweise dafür gibt, dass sich die Erwartungswerte in den drei Gruppen unterscheiden. Der p-Wert für diesen Test beträgt 0,002.
Nach der Durchführung des F- Tests ist es üblich, eine "post-hoc"-Analyse der Gruppenmittelwerte durchzuführen. In diesem Fall unterscheiden sich die ersten beiden Gruppenmittel um 4 Einheiten, die ersten und dritten Gruppenmittel unterscheiden sich um 5 Einheiten und die zweiten und dritten Gruppenmittel unterscheiden sich nur um 1 Einheit. Der Standardfehler jeder dieser Differenzen beträgt . Somit unterscheidet sich die erste Gruppe stark von den anderen Gruppen, da die Mittelwertdifferenz mehr als der Standardfehler beträgt, sodass wir sehr sicher sein können, dass sich der Grundgesamtheitsmittelwert der ersten Gruppe von den Grundgesamtheitsmittelwerten der anderen Gruppen unterscheidet. Es gibt jedoch keine Hinweise darauf, dass die zweite und dritte Gruppe unterschiedliche Populationsmittelwerte aufweisen, da ihre mittlere Differenz von einer Einheit mit dem Standardfehler vergleichbar ist.
Note F ( x , y ) bezeichnet eine F -Verteilung kumulative Verteilungsfunktion mit x Freiheitsgraden im Zähler und y Freiheitsgraden im Nenner.
Siehe auch
- Varianzanalyse
- F-Test ( beinhaltet ein Einweg-ANOVA-Beispiel )
- Gemischtes Modell
- Multivariate Varianzanalyse (MANOVA)
- Wiederholte Messungen ANOVA
- Zwei-Wege-ANOVA
- Welchs T-Test
Anmerkungen
Weiterlesen
- George Casella (18. April 2008). Statistisches Design . Springer . ISBN 978-0-387-75965-4.