Title | 1 Einführung - Zusammenfassung Multivariate Verfahren |
---|---|
Course | Multivariate Verfahren |
Institution | Universität zu Köln |
Pages | 4 |
File Size | 324.3 KB |
File Type | |
Total Downloads | 110 |
Total Views | 141 |
Wintersemester...
1 Einführung Mittwoch, 11. Oktober 2017
14:34
Multi = viel; variate = mit Variablen • Multivariate Verfahren im engeren Sinne: Verfahren mit mehreren abhängigen Variablen • Multivariate Verfahren im weiteren Sinne: ○ Statistische Verfahren zur Beschreibung komplexer Zusammenhänge ○ Drei oder mehr Variablen => Es gibt sehr viele unterschiedliche multivariate Verfahren. Bsp. Wovon könnte Wohlbefinden abhängen? -> Geld, Liebe, Freunde, Arbeit etc. (multiple Regression) Bsp. Wer freut sich mehr über Sieg seiner Mannschaft: FC Bayern oder FC Köln? (Moderierte Regression) Spielergebnis --> Freude (Verein moderiert das: FC Köln Fans freuen sich womöglich mehr, wenn sie mal gewinnen) => Zusammenhang zwischen zwei Variablen wird durch Dritte beeinflusst Bsp. Mehrebenenanalyse: Kann die neue Therapie depressive Symptome wirksam verringern? Alte vs. Neue Therapie Bsp. Mediationsanalyse: Warum ist die neue Therapie wirksamer als die alte? (Emotionsregulation als Mediator?)
Bsp. Pfadanalyse: Wie hängen Sorgen und Schlafstörungen zusammen? (Beides Gestern vs. Heute und überkreuz) Bsp. Lineare Strukturgleichungsmodelle: Misst der Fragebogen in allen Gruppen dasselbe? (Lebenszufriedenheit rechtsrheinisch vs. Linksrheinisch) Multivariate Verfahren in der klinischen Psychologie: • Bewertung von klinischen Studien (z.B. Therapieevaluationen, pharmazeutische Studien) • Entwicklung und Evaluation von diagnostischen Verfahren • Forschungsorientierte Kliniken (Verbindung von Psychotherapie-Ausbildung und Promotion) Multivariate Verfahren in der Wirtschaft • Marktforschung • Personaldiagnostik • Evaluation von Coaching-und Trainingskonzepten Multivariate Verfahren in der Forschung • Für die adäquate Auswertung fast aller empirischen Studien notwendig
Zentrale Statistische Konzepte Skalenniveaus Skala
Relevante Relationen
Beispiele
Transformationen*
Nominal
Gleich vs. Verschieden
Geschlecht, Diagnosen
Alle eineindeutigen
Ordinal
Zstl. Ordnung
Schulbildung
Alle streng monotonen
Intervall
Zstl. Gleichheit von Differenzen
IQ, Temperatur
Alle linearen
Verhältnis Zstl. Gleichheit von Verhältnissen Länge, Gewicht, Alter Einheitstransformation
Multivariate Verfahren Seite 1
Absolut
Absolute Ausprägungen
Nur Häufigkeiten
Keine
*Daten so verändern, dass sie ihre Eigenschaften im Wesentlichen erhalten bleiben
Variablen im Experiment • Unabhängige Variable (UV): ○ diejenige Variable, die variiert wird => im Wenn-Teil der Hypothese (z.B. Lernen mit Pausen / am Stück); • Abhängige Variable (AV): ○ an der die Wirkung der Variation der UV beobachtet wird => im Dann-Teil der Hypothese (z.B. Behaltens-Leistung)
Deskriptive Statistik • z.B. Beschreibung von Werten, Verteilungen, Zusammenhängen, Unterschieden • Stichprobenkennwerte
Inferenzstatistik • Sind in den Daten/der Stichprobe gefundenen Zusammenhänge stärker, als man sie bei „zufälligen“ Zahlen erwarten kann? Ziel: Verallgemeinerung (auf Population übertragen) • z.B. Wie hoch ist die mittlere Lebenszufriedenheit von Kölnern? => Bei den multivariaten Verfahren spielen vielfach beide Aspekte eine Rolle. Ziele: • Testen von Hypothesen über die Population anhand von Stichprobendaten: z.B. es besteht („allgemein“) ein Zusammenhang zwischen Variable x und Variable Y, so dass sich y aus x vorhersagen lässt. • Schätzen von Populationsparametern anhand von Stichprobendaten: Welcher Wert ist der beste Schätzer für einen bestimmten Populationsparameter; z.B. Korrelationskoeffizient zwischen X und Y Wie? Über Signifikanztests: • Bsp. Forschungsfrage: Unterscheidet sich die Lebenszufriedenheit der Kölner im Durchschnitt von der Lebenszufriedenheit der Deutschen im Allgemeinen? • Statistische Hypothesen (ungerichtet): ○ Nullhypothese Ho: kein Unterschied - Populationsmittelwert der Kölner = Populationsmittelwert aller Deutschen μ = 6.98 (σ = 1.78) Wie könnte es aussehen, wenn alles nur Zufall war? Wenn WK größer 5% -> Wert durch Zufall zustande gekommen -> H0 wird angenommen ○ Alternativhypothese H1: Unterschied - Populationsmittelwert der Kölner ungleich dem der Deutschen μ≠6.98 • Stichprobenwerte N = 100; M = 7.37; SD = 1.87: Wie wahrscheinlich ist es, einen Mittelwert von 7.37 zu beobachten, wenn der “wahre” Mittelwert in der Population 6.98 ist? ○ Gehört der beobachtete Mittelwert zu den 95 % wahrscheinlichsten: Nullhypothese wird beibehalten ○ Gehört der beobachtete Mittelwert zu den 5 % unwahrscheinlichsten: Nullhypothese wird verworfen; der Unterschied ist “statistisch signifikant” ○ Übliches Signifikanzniveau: α = 5% Woher wissen wir, wie wahrscheinlich der beobachtete Mittelwert ist? Stichprobenkennwerteverteilung: • Verteilung der Mittelwerte aus unendlich vielen Stichproben der Größen aus derselben Population • Mittelwert (Erwartungswert) der Stichprobenkennwerteverteilung = Mittelwert der Population • Standardabweichung der Stichprobenkennwerteverteilung wird auch als Standardfehler bezeichnet ○ Maß, wie unterschiedlich die Werte sind
Multivariate Verfahren Seite 2
• Wie stark verschätzen wir uns im Durchschnitt? Berechnung aus Standardabweichung des Merkmals
σM = Kritische Werte: • Die kritischen Werte schneiden die unteren 2.5% und die oberen 2.5% der Verteilung ab • Erfordert die Annahme, dass das Merkmal normalverteilt ist • Berechnung anhand der Standardnormalverteilung • ist ein Merkmal normalverteilt, dann liegen 95% aller Werte im Bereich µ +/- 1.96*σ M ○ hier also: 6,98 + 1.96 * 0,178 = 7,33 ○ 6,98 -1.96 * 0,178 = 6,63
• Fällt der beobachtete Wert in einen der Ablehnungsbereiche, wird die H0 verworfen. • Statistischer Schluss: ○ Vergleiche den empirischen mit dem kritischen Wert ○ Hier: beobachteter Wert (7.37) > kritischer Wert (7.33) ○ Schlussfolgerung: Wir verwerfen die H0 und nehmen die H1 an • Interpretation: Im Mittel unterscheiden sich Kölner signifikant in ihrer Lebenszufriedenheit von den Restdeutschen. • Kritische Werte in der Standardnormalverteilung (z-Werte): z = -1.96; z = 1.96 - Schnittpunkte die 5% der Fläche der Kurve abschneiden Andere statistische Verteilungen: • t-Verteilung ○ t-Test für unabhängige Stichproben ○ t-Test für abhängige Stichproben ○ Regressionskoeffizienten • F-Verteilung ○ Varianzanalyse ○ Test von R² (Anteil aufgeklärter Varianz an der Gesamtvarianz) • χ²-Verteilung ○ Abweichungen zwischen mehreren erwarteten und beobachteten Häufigkeiten p-Wert („Überschreitungswahrscheinlichkeit“) • Wahrscheinlichkeit, diese oder eine größere Teststatistik zu erhalten, wenn die H0 gilt • Wenn p< .05: Wahrscheinlichkeit, einen solchen Effekt zu finden, wenn es eigentlich keinen gibt, ist kleiner als 5 % • Bei Signifikanzniveau von α= 5 %: „Test ist signifikant.“ • p-Werte berichten ○ Auf 3 Nachkommastellen runden ○ Immer konkrete p-Werte berichten, auch wenn der Test nicht signifikant ist (z.B.
Multivariate Verfahren Seite 3
p= .362) Effektgrößen: Ein Unterschied ist statistisch signifikant - aber ist er auch praktisch bedeutsam? • Effektgrößen drücken den Unterschied (oder Zusammenhang) in standardisierten Einheiten aus • Effektgrößen sind ○ Unabhängig vom ursprünglichen Wertebereich des Merkmals ○ Unabhängig von der Streuung des Merkmals in der Stichprobe ○ Daher über Studien hinweg vergleichbar • Ein paar Beispiele: ○ Effektgröße für Mittelwertsunterschiede: Cohens d(und andere) ○ Effektgröße für Zusammenhänge: Korrelationskoeffizient r(und andere) ○ Effektgröße für Varianzaufklärung: R², η² • Berechnung von Cohens d: Mittelwertsdifferenz geteilt durch Standardabweichung (σ= 1.78)
○ Konfidenzintervalle: • Wertebereich, der einen Populationsparameter mit einer bestimmten Wahrscheinlich überdeckt • Breite wird von zwei Faktoren beeinflusst ○ Standardfehler: Je kleiner der Standardfehler, desto präziser die Schätzung, desto kleiner das Konfidenzintervall ○ Konfidenzkoeffizient: Wahrscheinlichkeit, mit der die Schätzung zu Intervallen führt, die den Populationsparameter enthalten (z.B. 95%) Je kleiner der Konfidenzkoeffizient, desto kleiner das Konfidenzintervall Fehler bei statistischen Hypothesentests: Statistische Entscheidung Realität H0 trifft zu
H1 trifft zu
H0 wird verworfen H1 wird beibehalten
Fehler 1. Art α
1-β Richtige Entscheidung
H0 wird beibehalten H1 wird verworfen
1-α Fehler 2. Art Richtige Entscheidung β
=> Wahrscheinlichkeit für diese Entscheidung ist 1 –β = Teststärke/Power Beziehungen der vier Größen beim Signifikanztest:
=> wichtig bei der Planung von Untersuchungen: Berechnung des optimalen Stichprobenumfangs) und bei der Bewertung von Studienergebnissen (z.B. nicht-signifikantes Ergebnis bei einer kleinen vs. großen Stichprobe)
Multivariate Verfahren Seite 4...