Voraussetzungen und deren Prüfung PDF

Title Voraussetzungen und deren Prüfung
Author Sarah-Marie Schwegler
Course Statistik I
Institution Universität Salzburg
Pages 8
File Size 421 KB
File Type PDF
Total Downloads 50
Total Views 132

Summary

Download Voraussetzungen und deren Prüfung PDF


Description

Voraussetzungen Pearson Korrelation Signifikanztest - Intervallskalenniveau - Normalverteilung der Stichprobenkennwerte - Variablen folgen bivariater Normalverteilung der (x,y - 2 Variablen) Voraussetzung

Prüfung

Korrektur (falls möglich)

Lineare Regression Linearität des Zusammenhangs: die in der Population vorliegende Abhängigkeit zwischen Prädiktor und Kriterium kann durch eine Gerade dargestellt werden. Homoskedastizität (Varianhomogenität) die Varianz der y-Werte, welche an einer bestimmten Stelle des Prädiktors vorliegt, ist für alle Prädiktorwerte gleich. Abstände der Werte um gerade sind annähernd gleich groß. Normalverteilung der Variablen und der Fehler (Mittelwert des Fehlers ε = 0 )

Grafisch: Residuenplot, Streudiagramm (Scatterplot) mit Regressionsgerade Grafisch: Residuenplot, Streudiagramm (schlauchartige Verteilung um Gerade)

Keine Ausreißer: Bereits wenige Ausreißer

Grafisch: Streudiagramm oder Boxplot

können zu einer starken Verzerrung der im Modell verwendeten Parameter b0, b1, s2e bewirken. Kompliziert wird die Identifizierung bei mehrdimensionalen (multivariaten) Ausreißern.

Unabhängigkeit der Residuen und Daten: Alle Daten sollten unabhängig voneinander sein, d.h. die Fälle sollten nicht untereinander korrelieren. Der Wert x4 sollte also nicht einfach von x3 abgeleitet werden können (gilt insbesondere für die Residuen). Verletzung = Autokorrelation

Analytisch: Levene’s Test Grafisch: Histogramm (glockenförmig), QQ-Plot, PP-Plot Deskriptiv: Schiefe, Kurtosis, Median, Mittelwert Ausreßer Analytisch: KolmogorovSmirnov und ShapiroWilk Test Ausreißertests (Grubbs, Nalimov, Pearson, etc.),

Analytisch: DurbinWatson-Koeffizienten (Details bei multipler Regression).

Erhebungsfehler: Ausschluß der Daten bzw. Korrektur durch Näherung (Begründung nötig) Echtes Ergebnis: - zu kleines N? - keine Ausreißer, sondern Werte die nichtlinearen Zusammenhang suggerieren - Transformation der Daten (logarithmisch, quadratisch, etc.) - Doppelrechnung - einmal mit und einmal ohne Ausreißer. - Trimmen (Winsorising) der Daten (bestimmter Prozentsatz der größten und kleinsten Werte wird eliminiert). - Verwendung robuster Methoden

Voraussetzung

Prüfung

Korrektur (falls möglich)

Einstichproben ttest/One-Sample t-test Intervallskalenniveau d. AV Normalverteilung der Daten (keine Ausreißer) Merkmal in der Population normalverteilt Achtung: nicht gesamte Daten auf N(μ, σ) testen, sondern Stichproben separat auf N(μ1, σ1) und N(μ2, σ2) testen Daten anhand Zufallsstichprobe erhoben

Kolmogorov-Smirnov und Shapiro-Wilk Test -> signifikantes Ergebnis bedeutet Voraussetzungsverletzung

Unabhängiger t-test Intervallskalenniveau d. AV voneinander unabhängige Zufallsstichproben Varianzhomogenität: Varianzen σ12 und σ22 der zu vergleichenden Populationen sind gleich.  Stichprobenvarianzen s12 ≈ s12 Normalverteilung des Merkmals in jeweiliger Population

Abhängiger t-test - Zufallsstichprobe von Beobachtungspaaren - Differenzwerte di sind normalverteilt. - wahre Varianz der Differenzwerte, σd2 muss nicht bekannt sein. - Messwertreihen korrelieren positiv, bei negativer Korrelation verliert der t-Test Teststärke

Levene’s Test (Ergebnis sig=Varianzen heterogen)

Bei heterogenen Varianzen sind die Kennwerte aus der zweiten Zeile des Levens Test abzulesen (Varianzen nicht gleich) -> durch Abnahme der Freiheitsgrade wird der kritische Wert erhöht, außerdem wird Standardfehler d. Differenzen anders berechnet Abweichungen von der Normalverteilung & heterogene Varianzen -> Verzicht auf Interpretation der d. t-Tests Alternativ: - nicht-parametrische (verteilungsfreie) Verfahren wie der Wilcoxon - Rangsummen-Test (Mann-Whitney-U-Test). - Permutations- und Bootstrap-Tests.

Neg. Korrelation: Wilcoxon-Test

Verletzung der Voraussetzungen: Verzicht auf Interpretation der Ergebnisse Alternativ: nicht-parametrische (verteilungsfreie) Verfahren wie Wilcoxon Vorzeichentest, Permutations- und Bootstrap-Tests.

Einfaktorielle ANOVA - Prüfung Voraussetzungen

Korrektur

abhängige Variable: intervallskaliert + innerhalb der jeweiligen Gruppe¸ normalverteilt

Normalverteilung: Kolmogorow-Sminow-Test (geringe Teststärke, konservativ v.a. bei kleinen Stichproben, liberal bei großen Stichproben) Lilifors-Test, Shapiro-Wilk-Test, Anderson-Darling-Test Grafiken: Histogramm, QQ-/PP- Plot, Transformation der Daten (z.B. logarithmisch), Ausreißer-Analyse Deskriptiv: Schiefe, Kurtosis, Median, Mittelwert

- Abweichungen zu vernachlässigen, wenn Populationsverteilungen schief - Extrem schmalgipfligen Verteilungen: F-Test konservativer, höhere Teststärke (bei kleinen Stichproben) - breitgipfelige Verteilungen: Wahrscheinlichkeit eines Fehlers 1. Steigt, niedrigere Teststärke (bei kleinen Stichproben)

Homogenität der Varianzen zwischen den Gruppen

Levene’s Test (F)

Heterogene Varianzen - gleichgroße Stichproben(balanciert): F-Test nur unerheblich beeinträchtigt - zusätzlich ungleich großen Stichproben (unbalanciert): Gültigkeit d. F-Tests gefährdet (vor allem bei kleineren n) Heterosekdastizität: - Korrektur bei SPSS zwei alternative FTests (v.a. bei ungleich großen Stichproben) 1. Brown-Forsythe F 2. Welch’s F (höhere Teststärke)

Levene’s Test (F) Zufallsstichprobe: alle Δ��� =|� ��−� �����| Beobachtungen sind voneinander unabhängig; Homoskedastizität : Unabhängigkeit der Fehlerkomponenten zwischen den Stichproben (Einfluss auf Fehler 1. Und 2. Art): Die Beeinflussung eines Messwertes muss davon unabhängig sein, wie die übrigen Messwerte durch Störvariablen beeinflusst werden Kontrastanalyse (a-priori, SPSS: Tabelle hypothesengeleitet) Test d. ZwischenSubjektkontraste? SPSS: Tabelle Post-Hoc Tests (a-posteriori, Mehrfachvergleiche explorativ)

Wahl des Verfahrens abhängig von: - Stichprobenumfang - Varianzhomogenität - Design (balanciert vs. unbalanciert) - Kontrolle des α- bzw. β-Fehlers

Konservativ Bonferroni→ Duncan→ Scheffe→ Tukey→ Newman-Keuls→ Least significant

Vorausetzungen (wie für unabhängige t-tests): Intervallskalenniveau, Normalverteilung, Varianzhomogenität Unterschied zu Kontrasten: alle möglichen paarweisen Mittelwertsdifferenzen auf sig. Unterschied getestet -> α-Fehlerkumulierung. Korrektur der Alpha-Fehler Kumulierung -Empfehlungen für Wahl des Verfahrens: - Voraussetzungen erfüllt: REGWQ/Tukkey HSD - Konservativ: Bonferroni - Ungleiche Stichprobengrößen bei kleinem n Gabriel - Ungleiche Stichprobengrößen bei großem n

difference – nicht konservativ

Hochberg’s GT2 - Ungleiche Varianzen: Games-Howell, Dunnett’s T3

Einfaktorielle ANOVA mit Messwiederholung Voraussetzungen 1. Voneinander abhängige, Intervallskalierte Variablen (AV) 2. keine fehlenden Werte: Messungen für jedes Objekt über alle Messzeitpunkte vorhanden 3. keine signifikanten Ausreißer in den Daten vorliegen (evtl. data trimming, oder winsorizing) 4. Verteilung der Daten der abhängigen Variablen normalverteilt 5. compound symmetry: Varianz der Differenzen zwischen den Gruppen (zB s2A−B = s2A−C = s2B−C) + Paarweise Korrelationen annähernd gleich

Prüfung - Voraussetzungsverletzung - Konsequenzen Zu 5. Mauchly’s Test überprüft Zirkularitäts-Annahme, Sphärizität -> überprüft ob Varianzen der Differenzen ungefähr gleich -> reagiert auf Verletzungen der Normalverteilung und Heterogenen Kovarianzen (Korrelationen) mit der Ablehnung der Sphärizitätsannahme -> signifikantes Ergebnis bedeutet Sphärizitätsverletzung -> nur sinnvoll bei mind. 3 Messwiederholungen -> Große Stichproben: kleine Abweichungen signifikant (liberal), hypersensitiv -> Kleine Stichproben: große Abweichungen nicht signifikant (konservativ), geringe Teststärke -> Korrektur: Greenhouse-Geisser (konservativ) oder Huyhn-Feldt (liberal) über Freiheitsgrade Spärizitätsverletzung: -> sinkende Teststärke, inkorrekte F-Verteilung -> Post-Hoc-Tests nicht mehr durchführbar -> RM-ANOVA Alternative: nicht-parametrische Tests oder robuste Verfahren (bootstrap) alternative Möglichkeiten bei Verletzung der Spärizitätsannahme: -Korrektur der Freiheitsgrade (Greenhouse-Geisser, Huyhn-Feldt) -Transformation der Variablen (log, quadratisch, etc.). - Einzelvergleiche statt Omnibustest. -Multivariate Verfahren. -Maximum-Likelihood Tests. - Multilevel Verfahren. Post-Hoc -> vergleicht alle möglichen Kombinationen der Messwiederholungen - SPSS: keine direkte Auswahl von Post-hoc bei RM-ANOVA (keine Zwischensubjektkontraste) - Optionen -> Mittelwerte -> Haupteffekte vergleichen - 3 Korrekturmöglichkeiten zur Anpassung des KIS (Alpha-Fehler) - LSD (keine), Bonferroni (konservativ) und Sidak (liberal)

Zweifaktorielle ANOVA Voraussetzungen hinsichtlich der Fehlerkomponenten: 1. Unabhängigkeit der Fehlerkomponenten: die Beeinflussung eines Messwertes durch Fehlereffekte (Störvariablen) muss unabhängig davon sein, wie die übrigen Messwerte durch diese Störvariablen beeinflusst werden.

abhängige Fehlerkomponenten können den F-Test hinsichtlich des Fehlers 1. Art und des Fehlers 2. Art entscheidend beeinflussen.

-> Zufällige Zuordnung zu Treatmentstufen bzw. unter Treatmentstufen -> verschiedene Stichproben untersuchen 2. Varianzhomogenität zwischen allen Levene’s Test Gruppen heterogene Varianzen beeinflussen den F-Test nur unerheblich, wenn die untersuchten Stichproben gleich groß sind. 3. Normalverteilung: der Messwerte - vernachlässigbar wenn Populationsverteilungen schief, innerhalb der Treatmentgruppen Es gilt (vor allem bei kleinen Stichproben): (nicht über alle Beobachtungen über alle - schmalgipflige Verteilungen -> Treatmentstufen hinweg!) Teststärke vergrößert, - breitgipflige Verteilungen -> Teststärke verkleinert.  Voraussetzungen der Varianzanalyse verlieren mit wachsendem Umfang der Stichproben an Bedeutung  kleine (ni < 10) und ungleich große Stichproben, Verdacht auf Voraussetzungsverletzung: verteilungsfreies Verfahren zB Kruskal-Wallis-Test  bei ungleich großen Stichproben und heterogenen Varianzen ist die Gültigkeit des F-Tests vor allem bei kleineren Stichprobenumfängen erheblich gefährdet Fixed effect model Random effect model UV Faktor fest (fester Effekt) Faktor zufällig (zufälliger Effekt) Unterschiede zwischen bestimmten Beeinflussen Treatmentstufen überhaupt Treatmentstufen feststellen die AV? Beispiele

Berechnung Definition

- Unterschiede der Wirkung auf UV zwischen Therapeuten - erhöhen höhere Temperaturen die Aggressionsbereitschaft? identisch - die Treatmentstufen wurden vor Beginn der Untersuchung aus gutem Grund bewußt ausgewählt - alle möglichen Treatmentstufen werden im Versuch berücksichtigt (bei

- beeinflussen Therapeuten die UV? - wie viel Variation der Aggressionsbereitschaft hängt von der Temperatur ab? identisch - die zu vergleichenden Treatmentstufen wurden zufällig ausgewählt

- nicht alle möglichen Treatmentstufen

begrenzter Anzahl/ exhaustiven Kategorien zB Geschlecht) Wiederholun dieselben Treatmentstufen aus der g der Studie Menge aller Treatmentstufen auswählen Kontraste Vorgehen a-priori, hypothesengeleitet Vergleiche Orthogonale/nicht orthogonale paarweise Mittelwertsvergleiche Alpha-Fehler Nicht orthogonal: Kumulierung Kumulierung Orthogonal: keine Kumulierung

Manuell/vorgefertigt ANOVA manuell ANOVA RM vorgefertigt (über Syntax benutzdefiniert) Tabelle SPSS ANOVA: Test der Zwischensubjektkontraste ANOVA RM: Test der Innersubjektkontraste 2kft ANOVA: Test auf Univariate Verwertbarkeit in Bezug auf H0 Interpretation Interaktion sig.

Interpretation wie F-Test

werden untersucht Treatmentstufen können auch anders gewählt werden Post-Hoc-Test a-posteriori, explorativ Alle möglichen paarweisen Mittelwertsvergleiche auf sig. Unterschied testen Problem der Kumulierung Anpassung des Konfidenzintervalls über Bonferroni/Sidak… Voraussetzungen erfüllt: REGWQ/Tukkey HSD - Konservativ: Bonferroni - Ungleiche Stichprobengrößen bei kleinem n Gabriel - Ungleiche Stichprobengrößen bei großem n Hochberg’s GT2 - Ungleiche Varianzen: Games-Howell, Dunnett’s T3

vorgefertigt

ANOVA: Mehrfachvergleiche ANOVA RM: Paarweise Vergleiche 2fkt ANOVA: Paarweise Vergleiche, Multiple Comparisons, Simple Effects/Einzelvergleiche Daten dürfen nicht zur Verifikation daraus geschlossener Hypothesen verwendet werden Interpretation wie t-test Posthoc nur wenn keine Interaktion Simple effect analysis bei Interaktion (Test auf Univariate – aposteriori)

Kontraste (a priori definiert) – Möglichkeiten: Abweichung: Mittelwert jeder Faktorstufe (außer bei Referenzkategorien) gegen Mittelwert aller Faktorstufen (Gesamtmittelwert).

Kontrast 1 Kontrast 2 Kontrast 3 Kontrast 4 Produktsumme  Nicht orthogonal

Morgens

Mittags

Abends

Nachts

4 -1 -1 -1 -4

-1 4 -1 -1 -4

-1 -1 4 -1 -4

-1 -1 -1 4 -4

Kontrollgruppe =Referenz -1 -1 -1 -1 1

Summe

Kontrollgruppe =Referenz -1 -1 -1 -1 -1

Summe

0 0 0 0 -15

Die Stufen des Faktors können in beliebiger Ordnung vorliegen. Einfach: Mittelwert jeder Faktorstufe gegen Mittelwert einer angegebenen Faktorstufe. nützlich, wenn es eine Kontrollgruppe gibt. -> erste oder die letzte Kategorie als Referenz wählen (Kontrollgruppe an erster/letzter Stelle d. Variablenreihenfolge) Morgens Mittags Abends Nachts Kontrast 1 Kontrast 2 Kontrast 3 Kontrast 4 Produktsumme  Nicht orthogonal

1 0 0 0 0

0 1 0 0 0

0 0 1 0 0

0 0 0 -1 0

0 0 0 0 -1

Differenz: Mittelwert jeder Faktorstufe (außer der ersten) gegen Mittelwert der vorhergehenden Faktorstufen (umgekehrter Helmert-Kontrast)

Kontrast 1 Kontrast 2 Kontrast 3 Kontrast 4 Produktsumme  orthogonal

Morgens 1 -1 -1 -1 -1

Mittags -1 -1 -1 -1 1

Abends 0 2 -1 -1 0

Nachts 0 0 3 -1 0

Kontrollgruppe 0 0 0 4 0

Summe 0 0 0 0 0

Helmert: Mittelwert jeder Stufe des Faktors (bis auf die letzte) gegen Mittelwert der folgenden Stufen

Kontrast 1 Kontrast 2 Kontrast 3 Kontrast 4 Produktsumme  orthogonal

Morgens 4 0 0 0 0

Mittags -1 3 0 0 0

Abends -1 -1 2 0 0

Nachts -1 -1 -1 1 -1

Kontrollgruppe -1 -1 -1 -1 1

Summe 0 0 0 0 0

Wiederholt: Mittelwert jeder Faktorstufe (außer der letzten) gegen Mittelwert der folgenden Faktorstufe (Wenn Anordnung der Messwiederholungen relevant) Morgens Mittags Abends Kontrollgruppe Summe Kontrast 1 1 -1 0 0 0 Kontrast 2 0 1 -1 0 0 Produktsumme 0 -1 0 0 -1  nicht orthogonal

Polynomial: vergleicht linearen Effekt, quadratischen Effekt, kubischen Effekt und so weiter. Der erste Freiheitsgrad enthält den linearen Effekt über alle Kategorien; der zweite Freiheitsgrad den quadratischen Effekt und so weiter. -> polynomiale Trends zu schätzen.

Benutzerdefinierte Kontraste über SPSS-Syntax

Trend d. Mittelwerte Gibt es einen systematischen Verlauf der Mittelwerte/ der AV über die verschiedenen Stufen eines Faktors hinweg?

Voraussetzungen: - AV stetig intervallskaliert - Untersuchter Faktor in ANOVA signifikant - aufsteigende Sortierung der Kategorien d AV sinnvoll

H0: es liegt kein Trend d er Mittelwerte vor Linearer Trend x quadratischer Trend x2 Kein Wechsel 1 Wechsel Ordnung d Kategorien zuerst Zunahme aufsteigend -> dann Abnahme der Linearer Verlauf der Wirkung des Treatments Mittelwerte (oder vice versa) -> mindestens 3 Treatmentstufen erforderlich

kubischer Trend x3 zwei Wechsel der Wirkung des Treatments

quartic Trend x4 drei Wechsel der Wirkung der Treatmentstufen -> mindestens 5 TreatmentStufen notwendig...


Similar Free PDFs