Title | Statistik I - Zusammenhangsmaße |
---|---|
Course | Statistik I |
Institution | Johannes Gutenberg-Universität Mainz |
Pages | 2 |
File Size | 91.3 KB |
File Type | |
Total Downloads | 34 |
Total Views | 142 |
Zusammenhangsmaße...
Statistik I Alternative zu Zusammenhangsmaße PRE – Maße = Proportional Reduktion in Error Wie gut lässt sich die Ausprägung der abhängigen Variable bei Kenntnis einer unabhängigen Variable vorhersagen? Maßzahlen für 2 nominalskalierte Merkmale Cramers V und Lambda Maßzahlen für 2 ordinalskalierte Merkmale Somers D, Kendalls T b und Gamma Maß für ein nominal- und ein mindestens intervallskaliertes Merkmal ETA Quadrat Maß für 2 metrisch skalierte Merkmale Pearson‘s r => quantifiziert die Stärke eines linearen Zusammenhangs 2er Merkmale symmetrisches Zusammenhangsmaß f e (ij) der erwartende Wert zur Berechnung von CHI Quadrat; f b (ij) Wert der Tabelle CHI Quadrat quadratische Kontinenz Assoziationsmaß = gleichzeitig abhängig von der Anzahl n Cramers V Zusammenhangsmaß, der auf CHI basiert nominales Skalenniveau Lambda Asymmetrisches und PRE – Maß : Die Fehler der Prognose werden durch Lambda Kenntnis verringert Lambda und Cramers V sind Maßzahlen für 2 nominalskalierte Merkmale Gamma / Kendalls tau b (T b ) und Sommers D ordinalskalierte Merkmale ETA Quadrat nominalskaliert UV und ein intervallskaliertes AV Merkmal Bei ordinalskalierten Merkmalen kann die Reihenfolge ebenfalls wiedergegeben werden Richtung des Zusammenhangs ist erkennbar Gamma berücksichtigt keine Ties, die auf keinen eindeutigen Zusammenhang hinweisen Stärke des Zusammenhangs wird überschätzt Somers D und Kendalls T b (tau b) greifen auf Ties zurück! = Sommers D Ist ein asymmetrisches Assoziationsmaß Kendalls T b und Gamma sind symmetrische Fehler 1 => Summe der quadrierten Abweichungen ( X i – X aM) zum Quadrat Fehler 2 => Summe der gruppenspezifischen Abweichungen Bsp. Männer, oder Frauen ETA Quadrat kann als Vorhersagefehler interpretiert werden Basiert auf der Logik der Fehlerreduktion Intervall- oder metrischskalierte abhängige Variable Abhängige Variablen sollen mit Hilfe unabhängiger Variablen erklärt werden Konkordante und diskordante Paare (Paarvergleiche) - Konkordante Paare sind gleichgerichtet Paare - Diskordante Paare sind Ungleichgerichtete Paare Paare, die weder Konkordante oder diskordante Paare sind, werden als Ties bezeichnet Cov = Kovarianz ist ein Maß für die gemeinsame Streuung zweier Variablen SAP Cov =__________________ Anzahl der Messwerte ,,n“
Die Summe ( X i – X aM) * (Y i – Y aM) = _________________________________ n
Kovarianz ist auch ein Zusammenhangsmaß wie CHI Quadrat, deshalb ähnlich problematisch
Pearson’s r Wertebereich von -1 bis 1 Determinationskoffizienten R Quadrat Quadrieren des Pearson’s r Gütekriterium, dass angibt den erklärten Anteil der Varianz an einem statistischen Modell Lineare Regression Rückführung der Ausprägung einer Variablen auf die Ausprägung einer anderen Variablen theoretische Vorstellung einer abhängigen und einer unabhängigen Variable Eine unabhängige Variable = Regressor X übt einen linearen Einfluss auf eine abhängige Variable = Regressand Y aus! Beobachtung mathematisch ausdrücken mit einer Geradengleichung/Regressionsgleichung Y i = a + b * x i + Epsilon E i - a = y-Achsenabschnitt - b = Regressionskoeffizienten/Steigungskoeffizienten - Fehlerterm = Epsilon E i - Und natürlich durch den vorliegenden Wert der unabhängigen Variable X i Y Dach i = der Wert, der für die Person i in dem Regressionsmodell vorhergesagt wird Y Dach i = a + b * x i Fehlerterm Epsilon E i = y i – y Dach i Der Fehler/Residuum ist vorhanden in der vorhergesagten Beobachtung unseres Wertes B = die Summe aus (x i – x aM) * (y i – y aM) ______________________ SAP x,y / SAQ x Die Summe aus ( x i – x aM) Quadrat Die Summe der Abweichungsprodukte und die Summe der quadrierten Abweichungen haben wir für Pearson’s r schon ermittelt A = y aM – b * x aM Die beobachteten Werte y i und die Vorhergesagten Werte y Dach i besitzen das gleiche arithmetische Mittel Die Summe aller Fehlerwerte und das arithmetische Mittel des Fehlerterms sind immer 0 Regressionsgerade geht immer durch den Schwerpunkt eines Streudiagramms ( x aM ------------, und y aM ------------)...