Statistik I - Zusammenhangsmaße PDF

Title Statistik I - Zusammenhangsmaße
Course Statistik I
Institution Johannes Gutenberg-Universität Mainz
Pages 2
File Size 91.3 KB
File Type PDF
Total Downloads 34
Total Views 142

Summary

Zusammenhangsmaße...


Description

Statistik I Alternative zu Zusammenhangsmaße  PRE – Maße = Proportional Reduktion in Error  Wie gut lässt sich die Ausprägung der abhängigen Variable bei Kenntnis einer unabhängigen Variable vorhersagen? Maßzahlen für 2 nominalskalierte Merkmale  Cramers V und Lambda Maßzahlen für 2 ordinalskalierte Merkmale  Somers D, Kendalls T b und Gamma Maß für ein nominal- und ein mindestens intervallskaliertes Merkmal  ETA Quadrat Maß für 2 metrisch skalierte Merkmale  Pearson‘s r => quantifiziert die Stärke eines linearen Zusammenhangs 2er Merkmale  symmetrisches Zusammenhangsmaß f e (ij)  der erwartende Wert zur Berechnung von CHI Quadrat; f b (ij)  Wert der Tabelle CHI Quadrat  quadratische Kontinenz  Assoziationsmaß = gleichzeitig abhängig von der Anzahl n Cramers V  Zusammenhangsmaß, der auf CHI basiert  nominales Skalenniveau Lambda  Asymmetrisches und PRE – Maß : Die Fehler der Prognose werden durch Lambda Kenntnis verringert Lambda und Cramers V sind Maßzahlen für 2 nominalskalierte Merkmale Gamma / Kendalls tau b (T b ) und Sommers D  ordinalskalierte Merkmale ETA Quadrat  nominalskaliert UV und ein intervallskaliertes AV Merkmal Bei ordinalskalierten Merkmalen kann die Reihenfolge ebenfalls wiedergegeben werden  Richtung des Zusammenhangs ist erkennbar Gamma berücksichtigt keine Ties, die auf keinen eindeutigen Zusammenhang hinweisen Stärke des Zusammenhangs wird überschätzt Somers D und Kendalls T b (tau b) greifen auf Ties zurück! = Sommers D Ist ein asymmetrisches Assoziationsmaß  Kendalls T b und Gamma sind symmetrische Fehler 1 => Summe der quadrierten Abweichungen ( X i – X aM) zum Quadrat Fehler 2 => Summe der gruppenspezifischen Abweichungen Bsp. Männer, oder Frauen ETA Quadrat kann als Vorhersagefehler interpretiert werden  Basiert auf der Logik der Fehlerreduktion  Intervall- oder metrischskalierte abhängige Variable Abhängige Variablen sollen mit Hilfe unabhängiger Variablen erklärt werden Konkordante und diskordante Paare (Paarvergleiche) - Konkordante Paare sind gleichgerichtet Paare - Diskordante Paare sind Ungleichgerichtete Paare Paare, die weder Konkordante oder diskordante Paare sind, werden als Ties bezeichnet Cov = Kovarianz ist ein Maß für die gemeinsame Streuung zweier Variablen SAP Cov =__________________ Anzahl der Messwerte ,,n“

Die Summe ( X i – X aM) * (Y i – Y aM) = _________________________________ n

Kovarianz ist auch ein Zusammenhangsmaß wie CHI Quadrat, deshalb ähnlich problematisch

Pearson’s r  Wertebereich von -1 bis 1 Determinationskoffizienten R Quadrat  Quadrieren des Pearson’s r  Gütekriterium, dass angibt den erklärten Anteil der Varianz an einem statistischen Modell Lineare Regression  Rückführung der Ausprägung einer Variablen auf die Ausprägung einer anderen Variablen  theoretische Vorstellung einer abhängigen und einer unabhängigen Variable Eine unabhängige Variable = Regressor X übt einen linearen Einfluss auf eine abhängige Variable = Regressand Y aus! Beobachtung mathematisch ausdrücken mit einer Geradengleichung/Regressionsgleichung Y i = a + b * x i + Epsilon E i - a = y-Achsenabschnitt - b = Regressionskoeffizienten/Steigungskoeffizienten - Fehlerterm = Epsilon E i - Und natürlich durch den vorliegenden Wert der unabhängigen Variable X i Y Dach i = der Wert, der für die Person i in dem Regressionsmodell vorhergesagt wird Y Dach i = a + b * x i Fehlerterm Epsilon E i = y i – y Dach i Der Fehler/Residuum ist vorhanden in der vorhergesagten Beobachtung unseres Wertes B = die Summe aus (x i – x aM) * (y i – y aM) ______________________  SAP x,y / SAQ x Die Summe aus ( x i – x aM) Quadrat Die Summe der Abweichungsprodukte und die Summe der quadrierten Abweichungen haben wir für Pearson’s r schon ermittelt A = y aM – b * x aM Die beobachteten Werte y i und die Vorhergesagten Werte y Dach i besitzen das gleiche arithmetische Mittel  Die Summe aller Fehlerwerte und das arithmetische Mittel des Fehlerterms sind immer 0 Regressionsgerade geht immer durch den Schwerpunkt eines Streudiagramms ( x aM ------------, und y aM ------------)...


Similar Free PDFs