Ziel der einfaktoriellen Varianzanalyse (ANOVA)

Die einfaktorielle Varianzanalyse (kurz: ANOVA) testet unabhängige Stichproben darauf, ob bei mehr als zwei unabhängigen Stichproben die Mittelwerte einer abhängigen Variable unterschiedlich sind. Die Varianzanalyse in SPSS kann man mittels weniger Klicks durchführen. Ein kurzes Tutorial zur zweifaktoriellen Varianzanalyse ist hier zu finden. In Excel kann man sie auch durchführen. Das Tutorial gibt es hier. Sollte eine der folgenden Voraussetzungen nicht erfüllt sein, ist ein Kruskal-Wallis-Test zu rechnen.

Habt ihr einen zweiten Faktor, ist die zweifaktorielle ANOVA zu rechnen. Solltet ihr lediglich eine Kontrollvariable haben, ist eine ANCOVA hingegen die richtige Methode.

Voraussetzungen der einfaktoriellen Varianzanalyse (ANOVA)

Die wichtigsten Voraussetzungen sind:

  • mehr als zwei voneinander unabhängige Stichproben/Gruppen
  • metrisch skalierte y-Variable
  • normalverteilte Fehlerterme innerhalb der Gruppen
  • Homogene (nahezu gleiche) Varianzen der y-Variablen der Gruppen (Levene-Test über die Ausgabe beim Durchführen der ANOVA)

Fragen können unter dem verlinkten Video gerne auf YouTube gestellt werden.

Durchführung der einfaktoriellen Varianzanalyse in SPSS (ANOVA)

Über das Menü in SPSS: Analysieren -> Mittelwerte vergleichen -> Einfaktorielle Varianzanalyse

ODER

Analysieren > Allgemeines lineares Modell > Univariat (*empfohlen)

Als Faktor ist das beiden Gruppen trennende Merkmal/Variable auszuwählen und die Gruppen anhand der Merkmalsausprägungen zu definieren.

Unter Optionen Deskriptive Statistiken,  Homogenitätstests und Schätzungen der Effektgröße auswählen.

Bei Diagramme den Faktor als Horizontale Achse definieren und auf hinzufügen klicken.

Unter Post hoc den Faktor als „Post-hoc Tests für auswählen“ und „Bonferroni“ anhaken – dient dem mehrfachen paarweisen Vergleich zwischen den Gruppen.

Interpretation der einfaktoriellen Varianzanalyse in SPSS (ANOVA)

  1. Die Voraussetzung der Varianzhomogenität wird mit dem Levene-Test direkt mit den Ergebnissen der einfaktoriellen Varianzanalyse (ANOVA) ausgegeben. Die Nullhypothese lautet hierbei, dass die Varianzen homogen sind. Die Signifikanz sollte demzufolge über 0,05 liegen, damit sie nicht verworfen werden kann und den Stichproben homogene Varianzen bescheinigt werden.
  2. Die Tabelle „Tests der Zwischensubjekteffekte“ zeigt, ob statistisch signifikante Unterschiede hinsichtlich der Gruppen existieren. Das erkennt man in der Zeile, in der der vorher definierte Faktor (die Trennungsvariable) steht.  Ist die Signifikanz kleiner als 0,05, geht man von statistisch signifikanten Unterschieden hinsichtlich der Mittelwerte zwischen den Stichproben aus.
  3. ACHTUNG: Ein 1-seitiges testen ist nicht möglich, da bei mehr als zwei Gruppen nicht gesagt werden kann, welche Gruppe einen größeren oder kleineren Wert hat.
  4. In der Tabelle „Multiple Comparisons“ sieht man die paarweisen Vergleiche, die sog. post hoc-Tests. Hier wird in der ersten Spalte eine Gruppe und in der zweiten Spalte paarweise mit allen anderen Gruppen getestet. Auch hier ist das Hauptaugenmerk auf die Signifikanz zu richten. Wenn zwischen zwei Gruppen ein statistisch signifikanter Unterschied besteht, ist auch hier der Signifikanzwert kleiner als 0,05.
  5. Die Effektstärke wird von SPSS nicht ausgegeben, also wie stark sich die Stichproben unterscheiden. Die ist manuell zu berechnen und mit Cohen: Statistical Power Analysis for the Behavioral Sciences (1988), S. 284-287 zu beurteilen. Die Berechnung erfolgt über die Formel mit f als Wurzel aus Eta² geteilt durch 1-Eta².

    \[  f = \sqrt{\frac{\eta^2}{1-\eta^2}} \]

Ab 0,1 ist es demnach ein schwacher Effekt, ab 0,25 ein mittlerer und ab 0,4 ein starker Effekt.

 

Weitere nützliche Tutorials findest du auf meinem YouTube-Kanal.