1 Einführung - Zusammenfassung Multivariate Verfahren PDF

Title 1 Einführung - Zusammenfassung Multivariate Verfahren
Course Multivariate Verfahren
Institution Universität zu Köln
Pages 4
File Size 324.3 KB
File Type PDF
Total Downloads 110
Total Views 141

Summary

Wintersemester...


Description

1 Einführung Mittwoch, 11. Oktober 2017

14:34

Multi = viel; variate = mit Variablen • Multivariate Verfahren im engeren Sinne: Verfahren mit mehreren abhängigen Variablen • Multivariate Verfahren im weiteren Sinne: ○ Statistische Verfahren zur Beschreibung komplexer Zusammenhänge ○ Drei oder mehr Variablen => Es gibt sehr viele unterschiedliche multivariate Verfahren. Bsp. Wovon könnte Wohlbefinden abhängen? -> Geld, Liebe, Freunde, Arbeit etc. (multiple Regression) Bsp. Wer freut sich mehr über Sieg seiner Mannschaft: FC Bayern oder FC Köln? (Moderierte Regression) Spielergebnis --> Freude (Verein moderiert das: FC Köln Fans freuen sich womöglich mehr, wenn sie mal gewinnen) => Zusammenhang zwischen zwei Variablen wird durch Dritte beeinflusst Bsp. Mehrebenenanalyse: Kann die neue Therapie depressive Symptome wirksam verringern? Alte vs. Neue Therapie Bsp. Mediationsanalyse: Warum ist die neue Therapie wirksamer als die alte? (Emotionsregulation als Mediator?)

Bsp. Pfadanalyse: Wie hängen Sorgen und Schlafstörungen zusammen? (Beides Gestern vs. Heute und überkreuz) Bsp. Lineare Strukturgleichungsmodelle: Misst der Fragebogen in allen Gruppen dasselbe? (Lebenszufriedenheit rechtsrheinisch vs. Linksrheinisch) Multivariate Verfahren in der klinischen Psychologie: • Bewertung von klinischen Studien (z.B. Therapieevaluationen, pharmazeutische Studien) • Entwicklung und Evaluation von diagnostischen Verfahren • Forschungsorientierte Kliniken (Verbindung von Psychotherapie-Ausbildung und Promotion) Multivariate Verfahren in der Wirtschaft • Marktforschung • Personaldiagnostik • Evaluation von Coaching-und Trainingskonzepten Multivariate Verfahren in der Forschung • Für die adäquate Auswertung fast aller empirischen Studien notwendig

Zentrale Statistische Konzepte Skalenniveaus Skala

Relevante Relationen

Beispiele

Transformationen*

Nominal

Gleich vs. Verschieden

Geschlecht, Diagnosen

Alle eineindeutigen

Ordinal

Zstl. Ordnung

Schulbildung

Alle streng monotonen

Intervall

Zstl. Gleichheit von Differenzen

IQ, Temperatur

Alle linearen

Verhältnis Zstl. Gleichheit von Verhältnissen Länge, Gewicht, Alter Einheitstransformation

Multivariate Verfahren Seite 1

Absolut

Absolute Ausprägungen

Nur Häufigkeiten

Keine

*Daten so verändern, dass sie ihre Eigenschaften im Wesentlichen erhalten bleiben

Variablen im Experiment • Unabhängige Variable (UV): ○ diejenige Variable, die variiert wird => im Wenn-Teil der Hypothese (z.B. Lernen mit Pausen / am Stück); • Abhängige Variable (AV): ○ an der die Wirkung der Variation der UV beobachtet wird => im Dann-Teil der Hypothese (z.B. Behaltens-Leistung)

Deskriptive Statistik • z.B. Beschreibung von Werten, Verteilungen, Zusammenhängen, Unterschieden • Stichprobenkennwerte

Inferenzstatistik • Sind in den Daten/der Stichprobe gefundenen Zusammenhänge stärker, als man sie bei „zufälligen“ Zahlen erwarten kann? Ziel: Verallgemeinerung (auf Population übertragen) • z.B. Wie hoch ist die mittlere Lebenszufriedenheit von Kölnern? => Bei den multivariaten Verfahren spielen vielfach beide Aspekte eine Rolle. Ziele: • Testen von Hypothesen über die Population anhand von Stichprobendaten: z.B. es besteht („allgemein“) ein Zusammenhang zwischen Variable x und Variable Y, so dass sich y aus x vorhersagen lässt. • Schätzen von Populationsparametern anhand von Stichprobendaten: Welcher Wert ist der beste Schätzer für einen bestimmten Populationsparameter; z.B. Korrelationskoeffizient zwischen X und Y Wie? Über Signifikanztests: • Bsp. Forschungsfrage: Unterscheidet sich die Lebenszufriedenheit der Kölner im Durchschnitt von der Lebenszufriedenheit der Deutschen im Allgemeinen? • Statistische Hypothesen (ungerichtet): ○ Nullhypothese Ho: kein Unterschied - Populationsmittelwert der Kölner = Populationsmittelwert aller Deutschen μ = 6.98 (σ = 1.78) Wie könnte es aussehen, wenn alles nur Zufall war? Wenn WK größer 5% -> Wert durch Zufall zustande gekommen -> H0 wird angenommen ○ Alternativhypothese H1: Unterschied - Populationsmittelwert der Kölner ungleich dem der Deutschen μ≠6.98 • Stichprobenwerte N = 100; M = 7.37; SD = 1.87: Wie wahrscheinlich ist es, einen Mittelwert von 7.37 zu beobachten, wenn der “wahre” Mittelwert in der Population 6.98 ist? ○ Gehört der beobachtete Mittelwert zu den 95 % wahrscheinlichsten: Nullhypothese wird beibehalten ○ Gehört der beobachtete Mittelwert zu den 5 % unwahrscheinlichsten: Nullhypothese wird verworfen; der Unterschied ist “statistisch signifikant” ○ Übliches Signifikanzniveau: α = 5% Woher wissen wir, wie wahrscheinlich der beobachtete Mittelwert ist? Stichprobenkennwerteverteilung: • Verteilung der Mittelwerte aus unendlich vielen Stichproben der Größen aus derselben Population • Mittelwert (Erwartungswert) der Stichprobenkennwerteverteilung = Mittelwert der Population • Standardabweichung der Stichprobenkennwerteverteilung wird auch als Standardfehler bezeichnet ○ Maß, wie unterschiedlich die Werte sind

Multivariate Verfahren Seite 2

• Wie stark verschätzen wir uns im Durchschnitt? Berechnung aus Standardabweichung des Merkmals

σM = Kritische Werte: • Die kritischen Werte schneiden die unteren 2.5% und die oberen 2.5% der Verteilung ab • Erfordert die Annahme, dass das Merkmal normalverteilt ist • Berechnung anhand der Standardnormalverteilung • ist ein Merkmal normalverteilt, dann liegen 95% aller Werte im Bereich µ +/- 1.96*σ M ○ hier also: 6,98 + 1.96 * 0,178 = 7,33 ○ 6,98 -1.96 * 0,178 = 6,63

• Fällt der beobachtete Wert in einen der Ablehnungsbereiche, wird die H0 verworfen. • Statistischer Schluss: ○ Vergleiche den empirischen mit dem kritischen Wert ○ Hier: beobachteter Wert (7.37) > kritischer Wert (7.33) ○ Schlussfolgerung: Wir verwerfen die H0 und nehmen die H1 an • Interpretation: Im Mittel unterscheiden sich Kölner signifikant in ihrer Lebenszufriedenheit von den Restdeutschen. • Kritische Werte in der Standardnormalverteilung (z-Werte): z = -1.96; z = 1.96 - Schnittpunkte die 5% der Fläche der Kurve abschneiden Andere statistische Verteilungen: • t-Verteilung ○ t-Test für unabhängige Stichproben ○ t-Test für abhängige Stichproben ○ Regressionskoeffizienten • F-Verteilung ○ Varianzanalyse ○ Test von R² (Anteil aufgeklärter Varianz an der Gesamtvarianz) • χ²-Verteilung ○ Abweichungen zwischen mehreren erwarteten und beobachteten Häufigkeiten p-Wert („Überschreitungswahrscheinlichkeit“) • Wahrscheinlichkeit, diese oder eine größere Teststatistik zu erhalten, wenn die H0 gilt • Wenn p< .05: Wahrscheinlichkeit, einen solchen Effekt zu finden, wenn es eigentlich keinen gibt, ist kleiner als 5 % • Bei Signifikanzniveau von α= 5 %: „Test ist signifikant.“ • p-Werte berichten ○ Auf 3 Nachkommastellen runden ○ Immer konkrete p-Werte berichten, auch wenn der Test nicht signifikant ist (z.B.

Multivariate Verfahren Seite 3

p= .362) Effektgrößen: Ein Unterschied ist statistisch signifikant - aber ist er auch praktisch bedeutsam? • Effektgrößen drücken den Unterschied (oder Zusammenhang) in standardisierten Einheiten aus • Effektgrößen sind ○ Unabhängig vom ursprünglichen Wertebereich des Merkmals ○ Unabhängig von der Streuung des Merkmals in der Stichprobe ○ Daher über Studien hinweg vergleichbar • Ein paar Beispiele: ○ Effektgröße für Mittelwertsunterschiede: Cohens d(und andere) ○ Effektgröße für Zusammenhänge: Korrelationskoeffizient r(und andere) ○ Effektgröße für Varianzaufklärung: R², η² • Berechnung von Cohens d: Mittelwertsdifferenz geteilt durch Standardabweichung (σ= 1.78)

○ Konfidenzintervalle: • Wertebereich, der einen Populationsparameter mit einer bestimmten Wahrscheinlich überdeckt • Breite wird von zwei Faktoren beeinflusst ○ Standardfehler: Je kleiner der Standardfehler, desto präziser die Schätzung, desto kleiner das Konfidenzintervall ○ Konfidenzkoeffizient: Wahrscheinlichkeit, mit der die Schätzung zu Intervallen führt, die den Populationsparameter enthalten (z.B. 95%) Je kleiner der Konfidenzkoeffizient, desto kleiner das Konfidenzintervall Fehler bei statistischen Hypothesentests: Statistische Entscheidung Realität H0 trifft zu

H1 trifft zu

H0 wird verworfen H1 wird beibehalten

Fehler 1. Art α

1-β Richtige Entscheidung

H0 wird beibehalten H1 wird verworfen

1-α Fehler 2. Art Richtige Entscheidung β

=> Wahrscheinlichkeit für diese Entscheidung ist 1 –β = Teststärke/Power Beziehungen der vier Größen beim Signifikanztest:

=> wichtig bei der Planung von Untersuchungen: Berechnung des optimalen Stichprobenumfangs) und bei der Bewertung von Studienergebnissen (z.B. nicht-signifikantes Ergebnis bei einer kleinen vs. großen Stichprobe)

Multivariate Verfahren Seite 4...


Similar Free PDFs