Fisher\'s Z-Transformation; Verteilungsfreie und Chi-Quadrat Verfahren PDF

Title Fisher\'s Z-Transformation; Verteilungsfreie und Chi-Quadrat Verfahren
Course Psychologische Statistik II
Institution Universität Graz
Pages 6
File Size 156.1 KB
File Type PDF
Total Downloads 4
Total Views 131

Summary

SS 2020 (Online Einheit via Moodle)...


Description

Fisher’s Z-Transformation   

Die Fishers Z-Transformation bildet Korrelationen annähernd auf Intervallskalenniveau ab Für die Berechnung eines Mittelwerts von Korrelationen sollten diese vorher in Fishers ZWerte transformiert werden. Die Aufgabe dieser Transformation ist es, Korrelationen in annähernd intervallskalierte Werte zu überführen, sodass die Bildung des arithmetischen Mittels zulässig ist. Dazu sind drei Schritte notwendig: o 1. Transformation der einzelnen Korrelationen in Fishers Z-Werte o 2. Bildung des arithmetischen Mittels der Fishers Z-Werte o 3. Rücktransformation des arithmetischen Mittels der Fishers Z-Werte in eine Korrelation

1 Allgemeine Formel: o o 



Tabelle auf Seite 50 reicht aus

( )

1+r 1 z ' = ∗ln 2 1−r

Der Wertebereich der Fishers Z-Werte ist nicht begrenzt. o Noch einmal: Korrelationen sind nicht äquidistant, Unterschiede können streng genommen nur als Größer-Kleiner-Relationen interpretiert werden. o Fishers Z-Werte dagegen sind nahezu äquidistant, es lassen sich Mittelwerte bilden und die Größe von Abständen interpretieren. o äquidistant bedeutet:  gleiche Abstände zwischen den Ausprägungen --> Intervallskalenniveau Konfidenzintervall: o CI z ' =z ' ± z Crit∗σ z ' o

σ z'=

1 √ n−3

1.1 Vergleich zwischen zwei unabhängigen Korrelationen (H0: p1 -p2 = 0) o

z=

( z ' 1− z ' 2) σ z ' −z ' 1

o

1

o



σ z ' −z ' = 2

2

1 1 + n n1 −3 2−3

Signifkikanzprüfung !  alpha: z.B. 5 %  bei z-Tabelle 0,025/0,975 schauen  z > zcrit -> signifikant

1.2 Vergleich zwischen zwei abhängigen Korrelationen (H0: pab -pac = 0) o

z=

(z'1−z'2 )−0

√ ( 2−2 C V

1

)

Seite 1 von 6

2

2

1−2r a .−r bc r bc∗( 1−2 r a .) −0,5 r a .∗¿ )) 1 ∗¿ CV 1= 2 ( 1−r a2) r ab +r ac  r a .= 2 2

o

2

Seite 2 von 6

Verteilungsfreie und Chi-Quadrat Verfahren 2 Verfahren für Rangdaten 

 



Analyse von Daten auf Ordinalskalenniveau: o U-Test: unabhängie Stichproben o W-Test: abhängige Stichproben o H-Test: Rangvarianzanalyse arbeiten mit der Betrachtung von Rangplätzen, die den Versuchspersonen aufgrund ihrer Messwerte zugeordnet werden. Durch Zuordnung wird eine künstliche Äquidistanz zwischen den Werten erzeugt o nicht parametische Verfahren: haben eigene Verteilungen und bilden Rangreihen  wenige Voraussetzungen: Rangskalierung + zufällige Zuordnung zu den Gruppen o deshalb gibt es diese Tests als Alternative, wenn Voraussetzungen des t-Tests bzw. Varianzanalyse grob verletzt und die Stichprobe sehr klein ist. Intervallskalierten Daten: o parametrische Test sollten vorgezogen werden (t-Tests und Varianzanalysen)

2.1 Der Mann-Whitney U-Test   







prüft, ob zwischen 2 unabhängigen Gruppen ein signifikanter Unterschied besteht für ordinalskalierte Daten bietet eine Alternative für den T Test für unabhängige Stichproben, wenn: o Die Intervallskalenqualität der abhängigen Variablen zweifelhaft ist o Merkmal folgt in der Population keiner Normalverteilung o Annahme der Varianzhomogenität ist verletzt, sodass der t-Tests für unabhängige Stichproben keine zuverlässigen Ergebnisse mehr liefert. Nullhypothese: o kein Unterschied zwischen den beiden untersuchten Gruppen hinsichtlich des erhobenen Merkmals o -> erfasst mithilfe der Rangplätze Im Gegensatz zu t-Tests und Varianzanalysen geht bei den nichtparametischen Verfahren die Nullhypothese nicht über einen bestimmten Parameter hinaus. Die inhaltliche Interpretation darf sich nicht auf den Mittelwert /durchschnittlich / im Mittel beziehen. Für die statistsiche Schlussfolgerung: o SPSS: Ergebnis als p-Wert

2.2 Der Wilcoxon-Test  



auch W-Test = nichtparametrischer Test für zwei abhängige Stichproben geläufigste Beispiel: o Messwiederholung. Wenn von derselben Person zu zwei unterschiedlichen Zeitpunkten Messwerte erhoben werden, sind diese nicht unabhängig voneinander bietet eine Alternative für den t-Test für abhängige Messungen, wenn dessen mathematische Voraussetzungen nicht erfüllt sind oder die Stichprobe zu klein sind.

Seite 3 von 6

2.3 Der Kruskal-Wallis H-Test   

ist eine Alternative zur einfaktoriellen Varianzanalyse für unabhängige Messungen. (von mehr als 2 unabhängigen Gruppen) arbeitet mit Rangreihen. Testet die Nullhypothese, dass die zugrunde liegenden Verteilungen der untersuchten Gruppe identisch sind.

2.4 Friedman Test  

nichtparametrisches Verfahren ist eine Alternative zur einfaktoriellen Varianzanalyse für abhängige Messungen

3 Chi-Quadrat Verfahren   







Verfahren für Nominaldaten (diskrete oder kategoriale Daten) o z.B. Geschlecht, Parteizugehörigkeit oder Studienfach dienen der Analyse von Häufigkeiten Voraussetzungen: o Jede Testperson muss eindeutig einer Kategorie zugeordnet werden können und darf nur einmal in der Tafel erscheinen o Nicht mehr als 20% der erwarteten Häufigkeiten sollen kleiner als 5 sein  keine erwartete Häufigkeit kleiner als 1  Ausnahme: bei einem 1-dimensionalen Verfahren mit df = 1 sollen die erwarteten Häufigkeiten nicht kleiner als 10 sein die Häufigkeitsverteilung ist zu analysieren, die aus der Einteilung der Versuchsobjekte in verschiedene Kategorien entstanden ist o Annahme über eine theoretisch zu erwartende Verteilung der Häufigkeiten notwendig -> Nullhypothese eindimensionale Test o wird herangezogen, wenn die Versuchspersonen einer Population anhand eines Merkmals mit zwei oder mehr Stufen klassifiziert werden. zweidimensionale Test o Erweiterung des eindimensionalen um ein weiteres kategoriales Merkmal mit mindestens zwei Stufen

3.1 Der eindimensionale Chi-Quadrat Test  



dient dazu, Hypothesen über die Verteilung einer kategorialen Variablen in einer Population zu testen. Der Test prüft, ob die beobachteten Häufigkeiten von den erwarteten Häufigkeiten abweichen. o Die erwarteten Häufigkeiten entsprechen der Nullhypothese des Tests o es gibt nicht nur eine mögliche Nullhypothese, sondern mehrere Gleichverteilung: o Häufigkeiten verteilen sich in der untersuchten Stichprobe über alle Merkmalsstufen hinweg gleich o f e =n∗ p  f o … beobachtete Häufigkeit  

f e … erwartete Häufigkeit p … erwartete relative Häufigkeit

Seite 4 von 6





Entsprechen die erwarteten Häufigkeiten denen einer Normalverteilung, wird der Test Kolmogorov-Smirnov Test genannt o Mit diesem Test kann man daher prüfen, ob eine Häufigkeitsverteilung in der Population gut an eine Normalverteilung angenähert ist o Der Test ist nur bei großen Stichproben > 200 zulässig. Der Chi-Quadrat-Kennwert o Maß für die Stärke der Abweichung der beobachteten von den erwarteten Häufigkeiten 2

o

2

χ =Σ  



( f o −f e ) fe

df = k-1

f e =n∗p f o … beobachtete Häufigkeit  f e … erwartete Häufigkeit   p … erwartete relative Häufigkeit

o ist Null, wenn die beobachteten mit den erwarteten Häufigkeiten übereinstimmen. o kann nur positive Kennwerte annehmen. Signifikanzprüfung mithilfe der Tabelle auf Seite 48

3.2 Der zweidimensionale Chi-Quadrat Test  

 



Erweiterung des eindimensionalen um ein weiteres kategoriales Merkmal mit mindestens zwei Stufen prüft die Unabhängigkeit der untersuchten Merkmale = Kontingenzanalyse o Hängen die zwei betrachteten Merkmale in irgendeiner Weise miteinander zusammen Vordergrund steht die Beziehung der Merkmale zueinander o NICHT: Verteilung der Merkmale Nullhypothese und Alternativhypothese o Nullhypothese: Zwei Merkmale sind voneinander unabhängig verteilt o Alternativhypothese: Zwei Merkmale hängen zusammen Chi-Quadrat Formel 2

o

χ 2=ΣΣ 

 

( f o− f e ) fe

df = (k-1) * (l-1)  k = Anzahl Spalten  l = Anzahl Zeilen

f e=

Zeilensumme∗Spaltensumme n

Signifikanzprüfung mithilfe der Tabelle auf Seite 48

3.3 Der 4-Feldler Chi Quadrat Test   

Spezialfall des zweidimensionalen Chi-Quadrat Tests auf Unabhängigkeit hat eine 2x2 Kontingenztabelle 2

χ= o

n∗ (a∗d−b∗c )2 ( a+ b )∗( c+ d )∗( a+ c )∗( b+d ) df = 1

Seite 5 von 6

3.4 Der Phi-Koeffiezient 

kann man gleichsetzen mit der Korrelation der beiden dichotomen Verfahren



r ϕ=



r ϕ=



ad−bc √ ( a+c )∗( b+d )∗( a+b )∗(c+d )



χ n

2

Signifikanzprüfung: 2 o χ 2=r ϕ o df = 1

3.5 McNemar’s Chi Quadrat 

   

χ 2=

( b−c )2 b+c

o df = 1 b + c = beobachteten Häufigkeiten in den Zellen, in denen sich etwas ändert Eine nominalskalierte Variable, welche jedoch bei denselben Personen zweimal gemessen wird -> Abhängige Messung Unterschied ist signifikant, da nur die Werte b und c in die Rechnung mit eingingen Mit einem solchen einfachen Verfahren kann man nur deuten, dass ein Effekt besteht

3.6 Voraussetzungen der Chi-Quadrat-Verfahren   

Die einzelnen Beobachtungen sind voneinander unabhängig. Jede untersuchte Versuchsperson kann eindeutig einer Kategorie bzw. Merkmalskombination zugeordnet werden die Erwartete Häufigkeit sind in 80 % der Zellen des Versuchsplans größer als 5

3.7 Durchführung eines Chi-Quadrat-Tests       

Anzahl der betrachteten Variablen und deren Verfahren festlegen Null- und Alternativhypothese aufstellen. Aus der Nullhypothese lassen sich die erwarteten Häufigkeiten bestimmen. Das Signifikanzniveau (alpha) festlegen Die Freiheitsgrade (df) und den Stichprobenumfang (N) bestimmen Stichprobe der Größe N erheben. Beobachtete Häufigkeiten pro Zelle bestimmen 2 χ - Wert anhand der Formel bestimmen den kritischen χ 2 - Wert für alpha und df aus der Tabelle S.48 ablesen o Wenn χ 2 > χ 2 krit ist der Unterschied zwischen den beobachteten und den erwarteten Häufigkeiten signifikant

Seite 6 von 6...


Similar Free PDFs