Regression - Forschungsmethoden in Psychologie und Sozialwissenschaften PDF

Title Regression - Forschungsmethoden in Psychologie und Sozialwissenschaften
Author Hania Khorshed
Course Statistik
Institution Universität Koblenz-Landau
Pages 4
File Size 231.8 KB
File Type PDF
Total Downloads 91
Total Views 127

Summary

Regression...


Description

Die Rangkorrelation (Spearman-Rangkorrelation)   

Zur Berechnung der Korrelation zweier ordinalskalierter Merkmale bietet sich die Rangkorrelation nach Spearman an Die Rangkorrelation erfasst, inwieweit zwei Rangreihen systematisch miteinander Variieren FORMEL (Beispiel S.108 Rasch 1) o o



d i stellt die Differenz der Rangplätze einer Untersuchungseinheit i bezüglich der Variablen x und y dar N die Anzahl der Untersuchungseinheiten

Genau wie bei der Produkt-Moment-Korrelation erstreckt sich der Wertebereich: 1. der Rangkorrelation von –1 bei einem perfekten negativen Zusammenhang aufgrund einer gegenläufigen Reihenfolge 2. der Rangkorrelation +1 bei einem perfekten positiven Zusammenhang aufgrund einer identischen Reihenfolge

Regression 

Die Regressionsanalyse prüft den Zusammenhang zwischen einer oder mehreren unabhängigen Variablen (Prädiktoren) und einer Zielvariable (Kriterium).

Einfache lineare Regression   





Die einfache lineare Regression liefert eine lineare Funktion, die der Vorhersage eines Merkmals y(Kriterium) aus einem Merkmal x (Prädiktor) dient. »Einfach« heißt:  weil nur ein Prädiktor und ein Kriterium verwendet werden »Linear« heißt:  der Zusammenhang zwischen Prädiktor und Kriterium linearer und nicht etwa kurvilinearer oder exponentieller Natur ist. Unterschied zwischen Regression und Korrelation: 1. bei der Regression wird zwischen unabhängiger und abhängiger Variablen unterschieden, wogegen bei der oben besprochenen Korrelation die beiden Merkmale gewissermaßen gleichberechtigt nebeneinanderstehen und 2. Unterschied zwischen r und β besteht bei der einfachen linearen Regression darin, dass die Korrelation keine Annahme über den Kausalzusammenhang zwischen den Merkmalen macht, wohingegen der Regression eine Annahme über die Richtung der Verursachung zugrunde liegt (was aber nicht heißt, dass diese Annahme auch tatsächlich zutrifft) Die Stärke des Zusammenhangs zwischen einem Prädiktor und dem Kriterium wird durch den sog. Regressionskoeffizienten (b)bzw. den Betakoeffizienten(β) angegeben  Betakoeffizienten(β): Der standardisierte Betakoeffizient gibt an, um wie viele Standardabweichungen sich das Kriterium ändern, wenn sich der Prädiktor um eine Standardabweichung verändert.  Im Fall der bivariaten Regression (einfach lineare Regression) ist der standardisierte Betakoeffizient identisch mit dem Korrelationskoeffizienten r = β  Β (Beta Gewicht) liegt zwischen -1 und +1

+1 = perfekte Vorhersage (positive Richtung, d.h. je größer x, desto größer y) -1 = perfekte Vorhersage (negative Richtung, d.h. je größer x, desto kleiner y) 0 = keine Vorhersage möglich

Die Regressionsgerade  



Definition: Gerade, die die Punktewolke am besten repräsentiert Je höher der tatsächliche Zusammenhang ist, desto enger wird die Punktewolke. Bei maximalem Zusammenhang geht die Punktewolke schließlich in eine Gerade über. In diesem rein theoretischen Fall liegt ein funktionaler Zusammenhang vor. Berechnung der Regressionsgleichung ^y = b*x+a 1. Die Steigung dieser Geraden wird mit b bezeichnet und heißt Regressionsgewicht 2. die Höhenlage (bzw. der y-Achsenabschnitt) wird mit a bezeichnet 3. Variable y der Funktion wird als Schätzer mit einem Dach (y) gekennzeichnet Diese Funktion, deren Parameter b und a es zu bestimmen gilt, liefert für jeden Wert xi einen zugehörigen Wert yi. Dieser vorhergesagte Wert kann jedoch von dem empirischen Wert yi abweichen. Die Differenz y− ^y gibt allgemein für jede Versuchsperson an, wie stark ihr wahrer Wert, von dem durch die Gerade vorhergesagten Wert abweicht. Die optimale Gerade, die diesen Punkteschwarm am beste wiedergibt, ist diejenige, bei der über alle Versuchspersonen hinweg dieser Vorhersagefehler am kleinsten ist.

Nichtlineare Zusammenhänge

 Statistikprogramme wie SPSS berechnen für jede irgendwie geartete Beziehung zwischen Variablen eine lineare Regression, unabhängig davon, ob diese Operation sinnvoll ist oder nicht  Parabolischen (und damit nichtlinearen) Zusammenhangs eine positive lineare Korrelation und eine entsprechende Regressionsgerade berechnet wurden.  Eine folgenschwere Fehlinterpretation dieser Daten im Sinne eines linearen Zusammenhangs ist durch die simple Betrachtung des dazugehörigen Streudiagramms vermeidbar

Signifikanztest von Regressionsgewichten  Um beurteilen zu können, ob ein Merkmal X ein Merkmal Y statistisch bedeutsam vorhersagt, gibt es einen Signifikanztest, der ähnlich wie der t-Test funktioniert unstandardisierte Regressionskoeffizient b Standardfehler S b



 Je größer b und je kleiner der Standardfehler ist, desto größer ist der t-Wert und desto eher kann die Nullhypothese verworfen werden Alternativ dient im Fall der einfachen linearen Regression die Signifikanz der Korrelation (4.1.5) als Beurteilungsgrundlage dafür, ob eine gegebene Vorhersageleistung statistisch bedeutsam ist  In diesem Fall ist β identisch mit der Korrelation zwischen Prädiktor und Kriterium

Der Determinationskoeffizient  



2

der Standardschätzfehler ist der Determinationskoeffizient r Definition: Der Determinationskoeffizient gibt den Anteil der Varianz der vorher gesagten Werte an der Gesamtvarianz an. Er ist als das Quadrat des Korrelationskoeffizienten r definiert BEISPIEL:

Der

Determinationskoeffizient ist ein Effektstärkenmaß, welches dem Einfluss der abhängigen Variabler auf die unabhängige Variable Rechnung trägt.

Dichotom nominalskalierte Prädiktoren



dichotom nominalskalierten Prädiktor wie etwa das Geschlecht als Prädiktor zu verwenden. Dabei lässt sich der nominalskalierte Prädiktor mathematisch integrieren, indem seine beiden Kategorien mit 0 und 1 kodiert werden (Dummy Kodierung)

Voraussetzungen der linearen Regression Abschließend sollen die wichtigsten Voraussetzungen für die Durchführung einer Regressionsanalyse angeführt werden.  Das Kriterium muss intervallskaliert und normalverteilt sein.  Der Prädiktor kann entweder intervallskaliert und normalverteilt sein oder  dichotom nominalskaliert.  Die Einzelwerte verschiedener Versuchspersonen müssen voneinander unabhängig zustande gekommen sein.  Der Zusammenhang der Variablen muss theoretisch linear sein.  Die Streuungen der zu einem x-Wert gehörenden y-Werte müssen über den  ganzen Wertebereich von x homogen sein (Annahme der Homoskedastizität, vgl. Bortz und Schuster, 2010, S. 192)

 

Multiple Regression Die multiple Regression wird eingesetzt, wenn eine Kriteriumsvariable von mehr als eine unabhängige Variable vorhergesagt werden soll die multiple Regression wägt die Vorhersagekraft der einzelnen Prädiktoren gegeneinander ab...


Similar Free PDFs