t-Test für abhängige Stichproben in R rechnen und interpretieren

von | Jul 29, 2020 | R, t-Test

Ziel des t-Test bei abhängigen Stichproben in R

Der t-Test für abhängige Stichproben testet, ob für zwei verbundene (abhängige) Stichproben, also Messwiederholungen, unterschiedliche Mittelwerte bzgl. einer abhängigen Testvariable existieren. Für unabhängige Stichproben ist der t-Test für unabhängige Stichproben zu rechnen. In Excel und SPSS kann der t-Test für unabhängige Stichproben auch gerechnet werden.

Sind die folgenden Voraussetzungen nicht erfüllt, solltet ihr einen Friedman-Test rechnen.

Voraussetzungen des t-Test bei abhängigen Stichproben in R

Die wichtigsten Voraussetzungen sind:

  • zwei voneinander abhängige Stichproben, also Messwiederholungen der selben Untersuchungssubjekte
  • metrisch skalierte y-Variable
  • normalverteilte Residuen bzw. Differenzen zwischen den Messzeitpunkten
Dieses Video ansehen auf YouTube.

Fragen können unter dem verlinkten Video gerne auf YouTube gestellt werden.

 

Durchführung des t-Test bei abhängigen Stichproben in R

Nullhypothese

Die Nullhyopthese beim t-Test für abhängige Stichproben geht von in etwa Gleichheit der Mittelwerte zu beiden Zeitpunkten aus.

Ihr könnt bei diesem Test einseitig und zweiseitig testen. Einseitig heißt lediglich, dass ihr eine konkrete Vermutung habt, dass der Mittelwert der Testvariable (=abhängige Variable) zum einen Zeitpunkte kleiner oder größer ist als der Mittelwert der Testvariable zum anderen Zeitpunkt. Standardmäßig wird zweiseitig getestet, das heißt ihr vermutet einen Unterschied, wisst aber nicht, zu welchem Zeitpunkt der größere Mittelwert existiert. Ein Beispiel: Ich habe einen Datensatz mit zwei Messzeitpunkten. Zwischen den Messzeitpunkten liegt eine Intervention – der Beginn eines Trainings. Es wurde vor dem Training gezählt, wie viele Liegestütze die Probanden schafften. Nach einem regelmäßigen, z.B. 10-wöchigen Training, wurde erneut gezählt.

Die Nullhypothese ist also: Es gibt keinen Unterschied hinsichtlich der Anzahl an Liegestützen vor und nach dem Training.

Die Alternativhypothese lautet entsprechend: Es gibt einen Unterschied hinsichtlich der Anzahl der Liegestützen vor und nach dem Training. Das können wir sogar konkretisieren, da wir aus Erfahrung wissen, dass ein gezieltes Training typischerweise zu einer Verbesserung der Leistung führt. Die Alternativhypothese kann demzufolge sogar lauten: nach dem 10-wöchigen Training ist die mittlere Anzahl an Liegestützen höher als davor. Dies wäre die einseitige Testung.  

 

t-Statistik

Die Berechnung der T-Statistik ist die Basis, die folgende Formel hat:

    \[ T={\sqrt {n}}{\frac {{\overline {D}}-\omega _{0}}{S_{D}}}\sim t_{n-1}} \]

Zum Glück muss man das in R nicht alles nachbauen und kann direkt die Funktion t.test() verwenden.

 

Code in R

Nach dem Einlesen eurer Daten verwendet ihr die Funktion t.test():

t.test(t0, t1, var.equal, alternative, paired = TRUE)

Die Funktion t.test() hat noch viele weitere Attribute, die vier obigen sind aber die wichtigsten. t0 ist die Testvariable zum ersten Messzeitpunkt, t1 die Testvariable zum zweiten Messzeitpunkt – also jeweils die Anzahl Liegesützen im Beispiel. „alternative“ gibt an, ob ein- oder zweiseitig getestet wird. Einseitig bedeutet, ihr wisst, was nach dem Training mit der Anzahl Liegestützen passiert, also ob sie steigt oder fällt. Wir können hier einseitig testen, ich zeige aber sowohl einen einseitigen als auch einen zweiseitigen Test.

 

Beispielcode in R: zweiseitiger Test

t.test(data$t0,data$t10, paired = TRUE, alternative = “two.sided“)

Wie zu erkennen ist, habe ich den Startzeitpunkt (t0) und den Zeitpunkt nach 10 Wochen (t10) für den Test verwendent. Mit paired = TRUE lege ich fest, dass es verbundene Stichproben, also Messwiederholungen sind. Als „alternative“ habe ich „two.sided“ angegeben. Das ist die typische Testung, die standardmäßig von t.test() vorgenommen wird – man kann dieses Argument daher auch hier weglassen.

 

Beispielcode in R: einseitiger Test

Habt ihr eine konkrete Vermutung, wie sich der Messwert zum zweiten Zeitpunkt entwickelt hat, testet ihr einseitig. Dazu fügt ihr dem Code noch das Argument alternative = “greater“ oder alternative = “less“ hinzu. Hierbei ist zu beachten, dass less bedeutet, dass der Messwert zum Zeitpunkt 1 kleiner ist als zum Zeitpunkt 2. Das habt ihr im Zweifel mit der Reihenfolge der Aufnahme bei t.test() festgelegt.

t.test(data$t0,data$t10, paired = TRUE, alternative = “less“)

 

Wenn ihr jedoch (aus welchen Gründe auch immer) davon ausgeht, dass das Training einen negativen Effekt auf die Anzahl an schaffbaren Liegestützen hat (in Zeitpunkt 1 mehr als in Zeitpunkt 2), lautet das Argument alternative = “greater“.

t.test(Größe~Geschlecht, var.equal = TRUE, alternative = “greater“)

 

Interpretation der Ergebnisse des t-Test für abhängige Stichproben in R

Interpretation des zweiseitigen t-Tests

Paired t-test data: data$t0 and data$t10

t = -6.7445, df = 16, p-value = 4.71e-06

alternative hypothesis: true difference in means is not equal to 0

95 percent confidence interval: -11.674220 -6.090486

sample estimates: mean of the differences -8.882353

Aus diesem Wust an Zahlen interessiert an und für sich nur sehr weniges.

  • Zunächst stehen ganz unten die Veränderung von Zeitpunkt 2 (t10) zu Zeitpunkt 1 (t0). Sie ist -8,88. Im Umkehrschluss ist die mittlere Anzahl um 8,88 von t0 zu t10 gestiegen.
  • Der sich hieraus ergebende t-Wert lautet -6,7445.
  • Der p-Wert ist mit 4,71e-06 sehr klein und somit unter dem typischen Alphafehler von 0,05. Man verwirft also die Nullhypothese von Gleichheit der Gruppenmittelwerte. Die Alternativhypothese „true difference in means is not equal to 0“ wird angenommen. Auf deutsch: Die Mittelwertdifferenz ist ungleich 0. Demzufolge gehen wir von statistisch signifikanten Unterschieden hinsichtlich der geschafften Liegestütze zwischen den Messzeitpunkten infolge des Trainings aus.
  • Berichtet man die Ergebnisse, gibt man zusätzlich zum p-Wert und den Mittelwerten noch die t-Statistik (-6,7445) sowie die Freiheitsgrade (df=16) zusätzlich zum p-Wert an.

 

Interpretation des einseitigen t-Tests

Hier wurde nun der t-Test für verbundene Stichproben einseitig gerechnet. Und zwar war die Vermutung, dass eine Zunahme beobachtbar ist.

Paired t-test data: data$t0 and data$t10

t = -6.7445, df = 16, p-value = 2.355e-06

alternative hypothesis: true difference in means is less than 0

95 percent confidence interval: -Inf -6.583064

sample estimates: mean of the differences -8.882353

 

Der einseitige t-Test ist nahezu analog zum zweiseitigen t-Test zu interpretieren:

  • Erneut steht ganz unten ganz unten die Veränderung von Zeitpunkt 2 (t10) zu Zeitpunkt 1 (t0). Sie ist -8,88. Im Umkehrschluss ist die mittlere Anzahl um 8,88 gestiegen.
  • Nun wird getestet, ob der Mittelwert zum Zeitpunkt 1 (t0) größer ist als zum Zeitpunkt 2 (t10).
  • Der p-Wert ist mit 2,355e-06 unter dem typischen Alphafehler von 0,05. Man verwirft also die Nullhypothese von Gleichheit der Mittelwerte zugunsten eines größeren Mittelwertes im Zeitpunkt 2 (t10). Die Alternativhypothese „true difference in means is greater than 0“ wird angenommen.
  • Der p-Wert beim einseitigen Test ist stets halb so groß wie beim zweiseitigen Test – vorausgesetzt man hat die korrekte Alternativhypothese (greater, less) formuliert.
  • Berichtet man die Ergebnisse, gibt man zusätzlich zum p-Wert noch die Mittelwerte, die t-Statistik (-6,7445) sowie die Freiheitsgrade (df=16) zusätzlich zum p-Wert an.

 

Berechnung der Effektstärke des Unterschiedes

Sofern ein statistisch signifikanter Unterschied beobachtet werden konnte, kann die Stärke dieses Unterschiedes eingeordnet werden. Zur Berechnung verwendet man beim t-Test für verbundene Stichproben typischerweise Cohens D. Standardmäßig ist dies nicht in R implementiert. Mit dem sog. „lsr“-Paket kann man dies allerdings berechnen lassen.

install.packages(“lsr“)

library(lsr)

cohensD(data$t0,data$t10, method=“paired“)

 

Für meinen Test bekomme ich d = 1.635782. Dies gilt es einzuordnen.

Die von Jacob Cohen (1992: Power Primer, S. 157) genannten Grenzen sind 0,2-0,5 für einen kleinen Effekt, 0,5-0,8 für einen mittleren Effekt und ab 0,8 von einem großen Effekt. In meinem Beispiel ist es ein großer Effekt. Demzufolge hat das Training für eine starke Zunahme bei der Anzahl an geschafften Liegestützen bei den Probanden geführt.  

 

Weitere nützliche Tutorials findest du auf meinem YouTube-Kanal.  

Hat dir der Beitrag geholfen?

Dann würde ich mich über eine kleine Spende freuen, die es mir erlaubt, weiterhin kostenfreie Inhalte zu veröffentlichen.

Vielen Dank und viel Erfolg!

Über mich

Björn Walther

Excel- und SPSS-Experte

YouTube-Kanal

Excel Online-Kurs

YouTube-Kanal