Ziel der einfachen linearen Regression

Eine einfache lineare Regressionsanalyse hat das Ziel eine abhängige Variable (y) mittels einer unabhängigen Variablen (x) zu erklären. Es ist ein quantitatives Verfahren, das zur Prognose einer Variable dient.

Die einfache lineare Regression testet auf Zusammenhänge zwischen x und y. Für mehr als eine x-Variable wird die multiple lineare Regression verwendet. Solltet ihr Excel verwenden, schaut euch diesen Artikel an. Im Vorfeld der Regressionsanalyse kann zudem eine Filterung vorgenommen werden, um nur einen gewissen Teil der Stichprobe zu untersuchen, bei dem man am ehesten einen Effekt erwartet.

 

Voraussetzungen der einfachen linearen Regression

Die wichtigsten Voraussetzungen sind:

Einfache lineare Regression in SPSS rechnen und interpretieren - Daten analysieren in SPSS (3)
Dieses Video ansehen auf YouTube.

Fragen können unter dem verlinkten Video gerne auf YouTube gestellt werden.

 

Durchführung der einfachen linearen Regression in SPSS

Das von mir gewählte Beispiel versucht das Gewicht von Probanden durch deren Größe zu erklären. Die abhängige (y-)Variable ist also das Gewicht und die unabhängige (x-)Variable die Größe.

Über das Menü in SPSS: Analysieren -> Regression -> Linear

Unter Statistiken empfiehlt sich Kollinearitätsdiagnose, der Durbin-Watson-Test (Autokorrelation).

Unter Diagramme empfiehlt sich ein Streudiagramm mit den standardisierten Residuen (ZRESID) und den standardisierten x-Variablen (ZPRED).

 

Interpretation der Ergebnisse der einfachen linearen Regression in SPSS

Sofern die o.g. Voraussetzungen erfüllt sind, sind drei Dinge besonders wichtig.

1. Die ANOVA-Tabelle sollte einen signifikanten Wert (<0,05) ausweisen – ist dies der Fall, leistet das Regressionsmodell einen Erklärungsbeitrag. Im Beispiel ist die Signifikanz mit 0,000 klein genug und damit leistet das spezifizierte Regressionsmodell einen (signifikanten) Erklärungsbeitrag.

ANOVA einfache lineare Regression SPSS

 

2. Die Güte der gerechneten Regression wird anhand des Bestimmtheitsmaßes R-Quadrat (R²) abgelesen. Das R² ist zwischen 0 und 1 definiert. Es gibt an, wie viel Prozent der Varianz der abhängigen Variable erklärt werden. Ein höherer Wert  ist hierbei besser. Bei einem R² von z.B.  0,65 werden 65% der Varianz der y-Variable erklärt. Im Beispiel erklärt das Modell 44,8% der Varianz, da das R²=0,448 ist.

Modellgüte einfache lineare Regression SPSS

 

3. Der Regressionskoeffizient sollte signifikant (p<0,05) sein. Unter „nicht standardisiert“ ist der interpretierbare Effekt dieses Koeffizienten zu sehen. Sollte dieser  z.B. -23 sein, ist mit jeder zusätzlichen Einheit dieser x-Variable eine Abnahme um 23 Einheiten der y-Variable verbunden. Positive Koeffizienten haben entsprechend einen positiven Einfluss auf die y-Variable. Zum Vergleich dienen die standardisierten Koeffizienten, anhand derer man im Falle einer multiplen linearen Regression sieht, welche x-Variable den größten positiven/negativen Einfluss auf die y-Variable hat. Im Beispiel ist der Koeffizient des Gewichts 70,071. Das bedeutet, dass eine zusätzliche Einheit der „Größe in m“ zu einem zusätzlichen Gewicht in kg von 70,071 führt. Die Signifikanz der Konstanten kann ignoriert werden.

Die Regressionsgleichung lautet allerdings -54,148 + 70,071*Größe. Setzt man z,B. 1,75m als Größe in diese Gleichung ein, erhält man auf Basis des Modells ein geschätztes Gewicht von 68,48 kg.

Koeffiziententabelle einfache lineare Regression SPSS

 

Tipp zum Schluss

Findest du die Tabellen von SPSS hässlich? Dann schau dir mal an, wie man mit wenigen Klicks die Tabellen in SPSS im APA-Standard ausgeben lassen kann.

 

Weitere nützliche Tutorials findest du auf meinem YouTube-Kanal.