Ziel der zweifaktoriellen Varianzanalyse (ANOVA)

Die zweifaktorielle Varianzanalyse (kurz: ANOVA) testet unabhängige Stichproben darauf, ob bei mehr als zwei unabhängigen Stichproben die Mittelwerte unterschiedlich sind. Im Unterschied zur einfaktoriellen Varianzanalyse gibt es bei der zweifaktoriellen Varianzanalyse zwei unabhängige Variablen (Faktoren), die einen Einfluss auf eine unabhängige Variable haben. Die Varianzanalyse in SPSS kann man mittels weniger Klicks durchführen, wie nachfolgend erkennbar ist.

Voraussetzungen für die zweifaktorielle Varianzanalyse (ANOVA)

Die wichtigsten Voraussetzungen sind:

ANOVA (zweifaktorielle Varianzanalyse) in SPSS durchführen - Daten analyisieren in SPS (11)
Dieses Video ansehen auf YouTube.

 

Fragen können unter dem verlinkten Video gerne auf YouTube gestellt werden.

 

Durchführung der zweifaktoriellen Varianzanalyse (ANOVA) in SPSS

Über das Menü in SPSS:

Analysieren > Allgemeines lineares Modell > Univariat

Als Faktor ist das beiden Gruppen trennende Merkmal/Variable auszuwählen und die Gruppen anhand der Merkmalsausprägungen zu definieren.

Unter Optionen Deskriptive Statistiken,  Homogenitätstests und Schätzungen der Effektgröße auswählen.

Bei Diagramme den Faktor als Horizontale Achse definieren und auf hinzufügen klicken.

Unter Post hoc den Faktor als „Post-hoc Tests für auswählen“ und „Bonferroni“ anhaken – dient dem mehrfachen paarweisen Vergleich zwischen den Gruppen.

 

Interpretation der Ergebnisse für die zweifaktorielle Varianzanalyse in SPSS (ANOVA)

1. Die Voraussetzung der Varianzhomogenität wird mit dem Levene-Test direkt mit den Ergebnissen der zweifaktoriellen Varianzanalyse (ANOVA) ausgegeben. Die Nullhypothese lautet hierbei, dass die Varianzen homogen sind. Die Signifikanz sollte demzufolge über 0,05 liegen, damit sie nicht verworfen werden kann und den Stichproben homogene Varianzen bescheinigt werden.

 

2. Die Tabelle „Tests der Zwischensubjekteffekte“ zeigt, ob die Faktoren einen Haupteffekt haben. Das erkennt man in der Zeile, in der die vorher definierten Faktoren stehen.  Ist die Signifikanz kleiner als 0,05, geht man von statistisch signifikanten Unterschieden aufgrund des jeweiligen Faktors hinsichtlich der Mittelwerte zwischen den Stichproben aus. Ist der Interaktionseffekt (Faktor1*Faktor2) ebenfalls signifikant, hängt ein Teil des Effektes des einen vom anderen Faktor ab. Dies ist im Vorfeld des Testes entsprechend zu begründen.

 

3. ACHTUNG: Ein 1-seitiges testen ist nicht möglich, da bei mehr als zwei Gruppen nicht gesagt werden kann, welche Gruppe einen größeren oder kleineren Wert hat.

 

4. In der Tabelle „Mehrfachvergleiche“ sieht man die paarweisen Vergleiche, die sog. post hoc-Tests. Sie lassen erkennen, auf welchen Faktorstufen signifikante Unterschiede zustandekommen. Hier wird in der ersten Spalte eine Gruppe und in der zweiten Spalte paarweise mit allen anderen Gruppen getestet. Auch hier ist das Hauptaugenmerk auf die Signifikanz zu richten. Wenn zwischen zwei Gruppen ein statistisch signifikanter Unterschied besteht, ist auch hier der Signifikanzwert kleiner als 0,05.

 

5. Die Effektstärke wird von SPSS nicht ausgegeben, also wie stark sich die Stichproben unterscheiden. Die ist manuell zu berechnen und mit Cohen: Statistical Power Analysis for the Behavioral Sciences (1988), S. 284-287 zu beurteilen. Die Berechnung erfolgt über die Formel mit f als Wurzel aus Eta² geteilt durch Eta²+1.

Effektstärke ANOVA

 

Ab 0,1 ist es demnach ein schwacher Effekt, ab 0,25 ein mittlerer und ab 0,4 ein starker Effekt.

 

Tipp zum Schluss

Findest du die Tabellen von SPSS hässlich? Dann schau dir mal an, wie man mit wenigen Klicks die Tabellen in SPSS im APA-Standard ausgeben lassen kann.

 

Weitere nützliche Tutorials findest du auf meinem YouTube-Kanal.