Vollständige Zusammenfassung Statistische Grundlagen PDF

Title Vollständige Zusammenfassung Statistische Grundlagen
Course Statistische Grundlagen
Institution Universität Potsdam
Pages 17
File Size 1.1 MB
File Type PDF
Total Downloads 154
Total Views 224

Summary

Zusammenfassung Statistische Grundlagen I VL Variablen: Variablen lassen sich folgender 1) anhand ihrer dichotom (zwei kategorial (mehrere die sich in Kategorien unterteilen lassen Wohnort, Musikgeschmack, Schulabschluss), kontinuierlich (mehrere die stufenlos und messbar sind Alter, Intelligenz, La...


Description

Zusammenfassung Statistische Grundlagen I – 1-3 VL Variablen: Variablen lassen sich folgender Maßen unterteilen…. 1) anhand ihrer Ausprägung: dichotom (zwei Ausprägungen), kategorial (mehrere Ausprägungen, die sich in Kategorien unterteilen lassen – Wohnort, Musikgeschmack, Schulabschluss), kontinuierlich (mehrere Ausprägungen, die stufenlos und messbar sind – Körpergröße, Alter, Intelligenz, Laufzeit) 2) anhand ihrer Beobachtbarkeit bzw. Messbarkeit: manifest (direkt beobachtbar bzw. messbar – Haarfarbe, Alter), latent (nicht direkt beobachtbar bzw. messbar – Markenimage, Gefühlszustand) 3) anhand ihrer Rolle im Forschungsprozess: unabhängig (diejenige Variable, die verändert wird, um die Auswirkungen auf die abhängige Variable zu messen bzw. beobachten), abhängig (diejenige Variable, die primär gemessen bzw. beobachtet werden soll) Skalenniveaus: Grundsätzlich unterscheidet man die Skalenniveaus anhand ihres statistischen Informationsgehaltes: 1) Nominalskala, 2) Ordinalskala, 3) Intervallskala, 4) Ratio- bzw. Verhältnisskala – Die Nominal- u. Ordinalskalen zählen zu den nicht-metrischen Skalenniveaus, wo hingegen die Intervall- u. Verhältnisskalen zu den metrischen Skalenniveaus zählen. Skalenniveau

Messbare Eigenschaften

Zulässige Lagemaße

Nominalskala

Häufigkeit

Modalwert (Modus)

Ordinalskala

Häufigkeit, Reihenfolge

Modalwert (Modus), Median

Intervallskala

Häufigkeit, Reihenfolge, Abstand

Modalwert Mittelwert

(Modus),

Median,

Ratio bzw. Verhältnisskala

Häufigkeit, Reihenfolge, Abstand, Modalwert (natürlicher Nullpunkt) Mittelwert

(Modus),

Median,

Erlaubte Rechenoperationen: Skala Messniveau

Mögliche Aussagen

Beispiele

Nominalskala

nominal

Gleich / Ungleich

Lieblingsfarbe, Familienstand

Ordinalskala

ordinal

Größer / Kleiner

Tabellenplatz im Fußball, Uni-Ranking

Intervallskala

metrisch

Plus / Minus

IQ, Temperatur

Ratio bzw. Verhältniss.

metrisch

Multiplizieren/Dividieren

Alter, Länge, Gewicht

Stichprobe: Grundsätzlich gilt, dass eine sog. Totalerhebung die beste Möglichkeit ist präzise Informationen zu einem konkreten Sachverhalt zu bekommen. Dies ist aller Dings aus Zeit- u. Kostengründen nicht möglich. Deshalb werden Stichproben herangezogen. Dabei wird ein möglichst repräsentativer Teil der Grundgesamtheit ausgewählt (deskriptive Statistik), um anschließend Aussagen über die Grundgesamtheit treffen zu können (induktive Statistik).

Anforderungen an wissenschaftliche Stichprobenkonstruktionen: 1. Die Stichprobe muss eine verkleinerte Abbildung der Grundgesamtheit hinsichtlich Heterogenität der Elemente und Repräsentativität relevanter Variablen sein. 2. Die Elemente der Stichprobe müssen definiert sein. 3. Die Grundgesamtheit soll angebbar und empirisch definierbar sein. 4. Das Auswahlverfahren muss angebbar sein und Forderung (1) erfüllen.

Deskriptive Statistik I: Unter deskriptiver Statistik werden statistische Methoden zur Beschreibung und Auswertung von Daten zusammengefasst. Dies kann in Form von Graphiken und Tabellen geschehen, durch die Errechnung von einfachen Parametern wie dem Mittelwert sowie durch die Berechnung komplexerer Parameter wie der Streuung, der Standardabweichung oder des Korrelationskoeffizienten. Das entscheidende Charakteristikum der deskriptiven Statistik ist es, dass ausschließlich Aussagen zum Datensatz selbst gemacht werden. Deskriptive statistische Parameter beschreiben bei einer Befragung nur, was auf die Teilnehmer einer Befragung/Beobachtung selbst zutrifft. Sollen aus den Daten Schlussfolgerungen für eine Grundgesamtheit getroffen werden, kommen Verfahren der induktiven Statistik zum Einsatz. Beispiel: In einer Befragung geben 10.000 Befragte an, wie viel Geld sie monatlich verdienen und wie viel Geld sie im Jahr für Urlaubsreisen ausgeben. Der berechnete Korrelationskoeffizient zeigt, dass ein Zusammenhang zwischen Einkommen und Ausgabebereitschaft im Urlaub besteht. Diese Schluss gilt aber nur für die Befragten selbst – der Rückschluss auf die Grundgesamtheit, für die die Befragten stehen sollen, ist erst nach einem Signifikanztest möglich. Dieser Test ist Teil der induktiven Statistik. In der deskriptiven Statistik nutzt man sog. Lageparameter, um die zentrale Lage bzw. den Mittelpunkt einer Verteilung näher zu beschreiben. Zu den wichtigsten Lageparameter zählen: • Arithmetisches Mittel (Mittelwert) • Varianz • Standardabweichung Während die Lageparameter den Mittelpunk selbst beschreiben und definieren, geben die Streuungsparameter (Varianz, Standardabweichung, „Range“ bzw. Spannweite) Auskunft über den Verlauf der Daten (oder der Verteilungsfunktion) rechts und links des Mittelpunktes. Arithmetisches Mittel (Mittelwert): Für den Mittelwert addiert man alle Werte eines Datensatzes und teilt die Summe durch die Anzahl aller Werte. Beispiel: Vier Freunde trinken an einem Abend Bier. Karl trinkt sechs, Hauke fünf, Paul eins und Carsten keins. Zusammen haben unsere Freunde 12 Bier getrunken. Im Schnitt jeder 3 ([6+5+1+0]) / 4 = 3). Das Beispiel zeigt ein Problem des Mittelwertes – er kann schnell täuschen, wenn externe Abweichungen vorliegen. Im Schnitt hat zwar jeder der Männer drei Bier getrunken, tatsächlich sitzen jedoch zwei nüchterne und zwei eher angetrunkene Personen am Tisch. Der Mittelwert bietet häufig eine gute Orientierung (z.B. Durchschnittsverbrauch des Autos, Durchschnittsgehälter usw.), muss aber kritisch hinterfragt werden. Varianz und Standardabweichung: Die Varianz ist ein sog. Streuungsmaß, welches die Verteilung von Werten um den Mittelwert kennzeichnet. Sie ist das Quadrat (SD²) der Standardabweichung. Berechnet wird die Varianz, indem die Summe der quadrierten Abweichungen aller Messwerte vom arithmetischen Mittel durch die Anzahl der Messwerte dividiert wird. Beispiel: Betrachtet wird das Merkmal Alter in einer Stichprobe aus 5 Personen. Die Messwerte sind 14, 17, 20, 24 und 25 Jahre. Der Mittelwert beträgt also 100/5 = 20 Jahre. Nun werden die Abweichungen der einzelnen Messwerte vom Mittelwert berechnet: (14-20) = 6, (17-20) = 3, (2020) = 0, (24-20) = 4 und (25-20) = 5. Die quadrierten Abweichungen betragen also 36, 9, 0, 16, 25 und ergeben eine Summe aus 86. Die Varianz beträgt somit 86/5 = 17,2 Jahre². Wie im Beispiel zu erkennen ist, hat die Varianz den Nachteil, dass sie aufgrund der Quadrierung eine andere Einheit als die beobachtbaren Messwerte besitzt. Auf den ersten Blick können somit

keine konkreten Aussagen über die Streuungsbreite abgeleitet werden. In der Praxis wird daher häufig die Standardabweichung, die sich aus der Quadratwurzel der Varianz ergibt, zur Interpretation herangezogen. Beispiel: Betrachtet wird das Ergebnis des obigen Beispiels. Die Varianz beträgt 17,2 Jahre². Jahre² ist kein gängiges Maß und es kann keine unmittelbare Interpretation der Streubreite erfolgen. Wird nun allerdings mittels der Quadratwurzel die Standardabweichung berechnet, erhält man für diese einen Wert von 4,15 Jahre für normalverteilte Merkmale kann nun eine leichtere Interpretation erfolgen. Range bzw. Spannweite: Die Spannweite ist der Abstand zwischen dem größten und dem kleinsten empirischen Messwert untersuchter numerischer Merkmale. Beispiel (aus dem vorherigen der Varianz und Standardabweichung abgeleitet): Man betrachtet fünf Personen, die 14, 17, 20, 24 und 25 Jahre alt sind. Der kleinste empirische Messwert beträgt 14, der größte 25 Jahre. Die Spannweite beträgt 11 Jahre (25 -14). Deskriptive Statistik II Exkurs – Varianz Varianz als Schlüsselbegriff der Statistik • Herauszufinden, warum Merkmalsausprägungen zwischen unterschiedlichen Personen variieren, ist eine der Hauptaufgaben der Statistik (Stichwort: Varianzaufklärung) • Können wir unterschiedliche Merkmalsausprägungen auf bestimmte Ursachen zurückführen?

Normalverteilung • • • •

Unimodale, symmetrische Verteilungen in Populationen am häufigsten Adolp Quetelet: Körpergröße (und viele andere physiologische und soziale Merkmale) normalverteilt. Francis Galton: Auch viele mentale Merkmale normalverteilt Viele statistische Verfahren gehen von Annahme einer Normalverteilung aus

Median vs. Mittelwert Weichen Median und Mittelwert voneinander ab, dann ist Quartile das ein Hinweis auf eine nicht-symmetrische Verteilung. Quartile beschreiben die Daten noch besser, weil sie Aufschluss über die tatsächliche Verteilfungsform geben. Symmetrisch: Es gibt einen Gipfel in der Mitte, nach links und recht nehmen Werte etwa gleichmäßig ab. Quartile teilen die Stichproben in vier Viertel: Nicht- symmetrisch: Es gibt mehr als einen (oder keinen) • erstes Quartil Q1: 25% der Stichprobe ist Gipfel und/oder dieser befindet sich nicht in der Mitte. kleiner oder gleich Q1 bzw. 75% der Stichprobe ist größer oder gleich Q1 • zweites Quartil Q2: Median • drittes Quartil Q3: gilt analog, dass 75% der Werte der Stichprobe maximal so groß wie Q3 sind und 25% der Werte mindestens so groß wie Q3.

Mögliche Verteilungsformen: Der Mittelwert ist sehr anfällig für Ausreißer. Bei Vorliegen von Ausreißern repräsentiert der Median die Daten besser.

Inferenzstatistik I Die Rolle der Inferenzstatistik im Prozess der Erkenntnisgewinnung

Deskriptive- vs. Inferenzstatistik Deskriptive Statistik: Beschreibung der Daten (d.h. der erhobenen Stichprobe) Inferenzstatistik: Dürfen wir annehmen, dass die für Stichproben erzielte Ergebnisse auch für die Population gelten?

Rückschlüsse auf die Grundgesamtheit

Beispiel

Möglichkeit 1: Wie wahrscheinlich ist es, dass eine Person im Alter von • Viele Stichproben zur selben Fragestellung 60 Jahren diese Sportart (Krabundo) ausprobiert? Möglichkeit 2: • Angabe von Maßzahlen, die Rückschlüsse auf die Güte der Schätzung der Parameter in der Population geben Möglichkeit 3: • Statt einzelnen Werten werden Intervalle angegeben, in denen sich der wahre Wert mit bestimmter Wahrscheinlichkeit befindet

Problemstellung • •

Z-Standardierung

Für alle normalverteilten Daten mit M=0 und Jeder Datensatz kann so transformiert werden, dass gilt: SD=1 kann man die Wahrscheinlichkeitstabelle M=0 und SD=1. • Formel: z-Standardisierung benutzen, um die Frage zu beantworten. • Die resultierenden Werte nennt man auch z-Werte Offensichtliches Problem: Welche Daten haben M=0 und SD=1?

• •

Schritt 1.: z-Standardisierung Schritt 2.: Nachschauen in der Tabelle z-Standardisierung und z-Werte

In der Statistik hat man sich besonders auf zwei wichtigte z-Werte geeinigt: • z=+/- 1.96 – denn dies sind die oberen und unteren 2,5% der Verteilung(d.h. 95% aller Daten liegen dazwischen) Man spricht auch von einem 95%Kofidenzintervall • z=+/- 2.58 – denn dies sind die oberen und unteren 1% der Verteilung(d.h. 99% der Daten liegen dazwischen) Man spricht auch von einem 99%Konfidenzintervall • Wenn z-Werte größer als 1.96/2.58 sind oder kleiner als -1.96/-2.58, dan ist das sehr selten (und in der Statistik: Signifikant), denn wir sind confident zu 95%/99% dass die Daten dort nicht liegen

Beispiel H1-Hypothese: Jedes Lebewesen muss sterben. Testung: Ich beobachte 100 Lebewesen – alle sterben Schlussfolgerung: Jedes Lebewesen muss sterben? • Es gibt theoretisch die Möglichkeit, dass das 101. Lebewesen nicht gestorben wäre • Eine Hypothese kann man nicht bestätigen (Nicht-Verifizierbarkeit) H0 – Gegenhypothese: Lebewesen müssen nicht sterben Testung: Ich beobachte 100 Lebewesen – sterben Schlussfolgerung: Hypothese widerlegt, d.h. wir können nicht sagen, dass sie nicht sterben, also gehen wir davon aus, dass sie sterben müssen. Falsifizierbarkeit von Hypothesen

Testen von Hypothesen In der Statistik unterscheidet man zwischen zwei Hypothesen: Alternativ-Hypothese • H1: Es gibt einen Effekt bzw. Zusammenhang Es ist statistisch unmöglich zu prüfen, ob diese Hypothese wahr ist oder nicht (Karl Popper: Verifikation/Falsifikation) Nullhypothese • H0: Es gibt keinen Effekt bzw. Zusammenhang

Inferenzstatistik II Mittelwertschätzungen

Standardfehler

Häufig wollen wir Dinge vergleichen: • Funktioniert Training A besser als Training B? • Ist Neuromarketing besser als traitionelles Marketing? Vorgehen: Mittelwerte der beiden Gruppen bilden Problem 1: Die Gruppen sind unterschiedlich groß Problem 2: Die Gruppen haben unterschiedliche Standardabweichung

• • •

Die Standardabweichung hängt auch von der Stichproben ab – mehr Leute führen wahrscheinlich zu mehr Abweichung/Varianz Die Standardabweichung in verschiedenen Stichproben ist zufallsabhängig Wir wissen nicht was die Standardabweichung der Population ist – und wir wollen genau die schätzen

ggf. eine

Wie soll man da einen Mittelwertunterschied zwischen den Gruppen interpretieren? Um den Mittelwert einer Population schätzen zu können, brauchen wir: • Einen Wert aus der Stichprobe mit dessen Hilfe wir den Mittelwert schätzen → Stichprobenmittelwert • Eine Maßzahl für Güte dieser Schätzung → Standardfehler Wir können jetzt die kritischen Werte (z-Werte) und das Konfidenzintervall berechnen (d.h. wie wahrscheinlich liegt der wahre Mittelwert der Population in einem bestimmten Bereich) • Wir können allerdings nicht auf die Häufigkeitstabelle der Normalverteilung zurückgreifen, sondern müssen eine andere Verteilung heranziehen

Die t-Verteilung • •







Häufigketsverteilung nicht der einzelnen Werte (wie bei der Normalverteilung), sondern der Mittelwerte Der Mittelwert ist bei beiden Verteilungen bekannt (Normalverteilung und t-Verteilung), aber die Standardabweichung ist bei der tVerteilung unbekannt Normalverteilung und t-Verteilung sind sich sehr ähnlich. Die Glocke und somit auch das Vertrauensintervall sind etwas breiter berücksichtigt die zusätzliche Unsicherheit, die wegen der unbekannten Standardabweichung der Population entsteht Verteilungsform nähert sich bei größer werdender Stichprobe immer mehr der Normalverteilungskurve an Je mehr Personen getestet werden (je größer N), desto sicherer können wir sein, dass die Standardabweichung der Stichprobe auch der Standardabweichung der Population entspricht Die t-Verteilung ist also stark abhängig von der Stichprobengröße N. Das wird ausgedrückt in sog. Freiheitsgraden

Freiheitsgrade Anzahl der Werte, die in der finalen Berechnung einer Statistik frei variieren können.

Voraussetzungen für den t-Test 1. 2. 3. 4.

Mindestens intervallskalierte Daten Normverteilte Grundgesamtheiten (graphische Prüfung Schiefe/Kurtosis; Anpassungstests) Varianzhomogenität der Stichproben (F-Test, Levene-Test) Bei abhängigen Gruppen – positive Korrelation der Messwerte

Besonderheiten: • Robust gegenüber Verletzungen der Voraussetzungen 2 und 3 • Problematisch, wenn heterogne Varianzen + unterschiedliche Stichprobenumfänge

Prüfgröße t

Unterschiedliche t-Tests

One-Sample Test Einfacher t-Test (One-Sample t-Test): • Stimmt der Mittelwert mit dem Mittelwert in der Population überein? Df = n – 1 Zweistichproben t-Test (Two-Sample t-Test): • Vergleich mit kritischem t-Wert in Tabelle • Unterscheiden sich die Mittelwerte zweier • Ablehnung H0 wenn |t|>= ta; N-1(zweis.) Populationen signifikant voneinander? 1 2 Two-Sample Test Df = n +n - 2

• •

Vergleich mit kritischem Wert in Tabelle Ablehnung H0 wenn |t| >= ta; N-2 (zweis.)

Zum Lesen der Tabelle benötigt man: • Freiheitsgrade • Konfidenzintervall

Das Konfidenzintervall

t-Verteilungstabelle

Ein Konfidenzintervall ist ein Wertebereich, bei dem wir darauf vertrauen können, dass er den wahren Wert in der Population mit einer gewissen Wahrscheinlichkeit (der Vertrauenswahrscheinlichkeit) beinhaltet. Konfidenzintervall – obere Grenze = M + t x SE Verteilungsform nähert sich bei größer werdender Konfidenzintervall – untere Grenze = M – t x SE Stichprobe immer mehr der Normalverteilungskurve an.

Signifikanztest

Beispiel • • •

N = 1000 Personen M = 42 SD bzw. SE = 11.1

Berechnung des 95% Konfidenzintervalls

Testet zwei widersprüchliche Hpothesen gegeneinenander: • Alternativhypothese Es gibt auch in der Grundgesamtheit einen Effekt (Unterschied oder Zusammenhang) • Nullhypothese Es gibt in der Grundgesamtheit keinen Effekt Die Nullhypothese geht davon aus, dass es in der Population keinen Effekt (Zusammenhang, Unterschied) gibt.

Mit 95% Wahrscheinlichkeit liegt der Wahre Mittelwert Die Alternativhypothese unterstellt einen solchen Effekt. der Population zwischen 41,31 und 42,69.

Alpha-Fehler

Vorgehen • • • •

Festlegung der Irrtumswahrscheinlichkeit (Kritischer Wert) Berechnung der Prüfgröße (p-Wert) Begutachtung ob p-Wert über oder unter kritischem Wert liegt Entscheidung ob H0 abgelehnt wird (und wir davon ausgehen, dass H1 zutrifft)

• • •

Der Alpha-Fehler legt das Niveau der Irrtumswahrscheinlichkeit (Signifikanzniveau) fest Mit dem Festlegen des Konfindenzintervalls legt man automatisch den Alpha-Fehler fest D.H. wenn ich eine Hypothese mit 95% Konfidenzintervall teste, dann ist der AlphaFehler: 100-95= 5%

P-Wert

p-Wert und Signifikanz

Der p-Wert ist die Wahrscheinlichkeit dafür, dass in einer Das Ergebnis eines Signifikanztests ist dann signifikant, Stichprobe der gefundene oder ein noch größerer Effekt wenn p < Alpha. auftritt, wenn die Nullhypothese Gültigkeit besitzt.

Berechnung des p-Werts

Alpha-/Beta-Fehler

Abhängig von der Verteilung der zu interessierenden Alpha-Fehler: Variable (abhängige Variable). Annahme der Alternativhypothese, obwohl Nullhypothese gilt. Standardnormalverteilung • Um zu prüfen, ob ein Wert signifkant vom Beta-Fehler: Annahme der Nullhypothese, obwohl Alternativhypothese Durchschnitt abweicht gilt. t-Verteilung • z.B. um zu prüfen, ob Mittelwerte sich unterscheiden

Einseitiger- vs. Zweiseitiger Test

Signifikanztest – Einflüsse

Von Fragestellung abhängig muss entschieden werden, ob ein Effekt auf einer Seiter der Verteilung erwartet, oder ob Einflussgrößen auf den Signifikanztest keine Vermutung zur Richtung vorliegen • Populationseffekt: je größer, desto eher signifkikante Ergebnisse Zweiseitiger Test • Stichprobengröße: je größer, desto eher • Verwendet man, wenn keine Hypothese über die signifikants Ergebnis Richtung des Effekts hat • Alpha-Niveau: je größer, umso leichter • Beispiel: Ist ein Training mit der Konkurrenz signifikantes Ergebnis (T1) motivierender oder weniger motivierend als ein Training ohne Konkurrenz (T2)? Kritische Betrachtung Bei sehr großen Stichproben werden auch kleine Effekte Wir können uns auf beiden Seiten irren, d.h. signifkant (Signifikanz darf nicht mit Wichtigkeit Irrtumswahrscheinlichkeit (Alpha) von 5% wird oben und verwechselt werden). Beispiel: Zusammenhang unten aufgeteilt Körpergröße und Intelligenz Deshalb sollten mit Signifikanztests auch Informationen übermittelt werden, die Aussagen über die Größe des Effekts erlauben (Konfidenzintervalle, Effektgrößen)

Bivariate Statistik Korrelation Statistische Datenanalyse

Korrelation •

Ausmaß eines linearen Zusammenhans zwischen zwei Variablen (bivariater Zusammenhang)

Unterschiedshypothesen: Unterscheidet sich die Lage (meist Mittelwerte) zweier Warum linear? Gruppen voneinander? Eine Korrelation kann nicht jeden Zusammenhang beschreiben, sondern nur Zusammenhänge, die sich Zusammenhangshypothesen Gibt es einen Zusammenhang (z.B. Korrelation) zwischen sinnvoll durch eine Gerade beschreiben lassen (d.h. linearen Zusammenhänge). zwei Va...


Similar Free PDFs