Statistik-zusammenfassung PDF

Title Statistik-zusammenfassung
Course Statistische Grundlagen
Institution Universität Potsdam
Pages 15
File Size 583.4 KB
File Type PDF
Total Downloads 60
Total Views 237

Summary

Warning: TT: undefined function: 32 Warning: TT: undefined function: 32 Warning: TT: undefined function: 3 Deskriptiv- und InferenzstatistikDeskriptive Statistik= explorative Statistik umfasst statistische Methoden zur Beschreibung von Daten in Form von Kennwerten, Tabellen und Grafiken (Darstellung...


Description

Deskriptiv- und Inferenzstatistik Deskriptive Statistik = explorative Statistik -

umfasst statistische Methoden zur Beschreibung von Daten in Form von Kennwerten, Tabellen und Grafiken (Darstellung von Daten) Verfahren zur Berechnung von Lage-und Streuungsmaßen, Korrelationen und Regressionen Um die Daten darzustellen gibt es im Wesentlichen drei Methoden o Tabellen  Nachteil: Struktur der Daten schwer erfassbar o Diagramm/Graphik  Vorteil: übersichtliche Darstellung  Nachteil: Zusammenfassung der Daten  Informationsverlust o Paramenter (Kennzahlen, Maßzahlen)  Nachteil: stake Zusammenfassung  Bsp.: Mittelwert, Streuung, Standardabweichung, Korrelationskoeffizienten

Aggregation = Anhäufung Zusammenfassung mehrerer Einzelgrößen hinsichtlich eines gleichartigen Merkmals, um Zusammenhänge zu gewinnen, z.B. Zusammenfassung der Nachfrage der einzelnen Haushalte zur Gesamtnachfrage des betreffenden Marktes

Inferenzstatistik = analytische Statistik, inferenzielle Statistik, induktive Statistik, schließende Statistik -

trifft Wahrscheinlichkeitsaussagen über Populationswerte Daten aus einer Stichprobe vorliegen  anhand dieser Aussagen über Population treffen Übertragung von Befunden aus Stichproben (Zufallsstichproben) auf zugehörige Grundgesamtheiten Frage die sich daraus ergibt: Was würde passieren, wenn ich den "wahren Effekt" schon kenne, und dann das relevante "Zufallsexperiment" unendlich oft wiederhole? Die Antwort auf die Frage ist, ich erhalte eine Stichprobenverteilung Diese Stichprobenverteilung ist die Grundlage für die Verfahren der Inferenzstatistik: Signifikanztests und Konfidenzintervalle

Die Inferenzstatistik ermöglicht, im Unterschied zur deskriptiven Statistik, die Überprüfung von Hypothesen. Für den sinnvollen Einsatz der Inferenzstatistik ist es erforderlich, dass vor Untersuchungsbeginn eine theoretisch gut begründete Hypothese formuliert wurde.

Phasen empirischer Forschung 1. 2. 3. 4. 5.

Erkundungsphase Theoretische Phase Planungsphase Untersuchungsphase Auswertungsphase – statistische Verarbeitung der Daten - Objektivität? Reliabilität? Genügen Daten testtheoretischen Anforderungen?  Aufbereitung der Daten - Mit der Anwendung eines inferenzstatistischen Verfahrens bzw. eines „Signifikanztests“ wird eine Entscheidung über die zu prüfende Forschungshypothese herbeigeführt. Hierzu stellt man eine sog. Nullhypothese auf, welche in Konkurrenz zu der Forschungshypothese steht. Man wählt ein sog. Signifikanzniveau α, für welches typischerweise ein kleiner Wert wie 0,05 gewählt wird. Für dieses gegebene Signifikanzniveau wird unter der Annahme der Gültigkeit der Nullhypothese ein Wertebereich für das Stichprobenergebnis festlegt, welcher „ungewöhnliche“ Stichprobenergebnisse umfasst. Dieser Wertebereich wird „Ablehnungsbereich“ genannt. Je kleiner das Signifikanzniveau gewählt wird, desto ungewöhnlicher müssen die Stichprobenergebnisse sein, um in den Ablehnungsbereich zu fallen. Fällt ein Stichprobenergebnis in den Ablehnungsbereich, kann dies zwei Gründe haben: 1. Ein unwahrscheinliches Ereignis ist eingetreten. Obwohl der Ablehnungsbereich – der Bereich der ungewöhnlichen Stichprobenergebnisse – unter der Annahme der Nullhypothese festgelegt wurde, wird ein ungewöhnliches Ergebnis von der Nullhypothese nicht gänzlich ausgeschlossen. 2. Die Nullhypothese, die in Konkurrenz zur Forschungshypothese steht, ist falsch.

6. Entscheidungsphase - „Nicht signifikant“ bedeutet also nicht, dass die Forschungshypothese falsch ist; „nicht signifikant“ heißt lediglich, dass die Untersuchung nicht geeignet war, die Nullhypothese zu entkräften. -  Untersuchung auf Fehler, die zu „nicht signifikant“ schließen lasse -  ggf. Widerholungsuntersuchung - Kein Untersuchungsfehler  Theorie muss verändert werden - Falsifikation = Nachweis der Ungültigkeit einer Theorie, Hypothese - Bei einem signifikanten Ergebnis riskieren wir mit der Annahme der untersuchten Hypothese eine Fehlentscheidung, deren Wahrscheinlichkeit nicht größer als 5% (1%) ist  ziemlich sicher - absolute Richtigkeit der Theorie damit jedoch nicht erwiesen  dafür müssten unendlich viele aus der Theorie abgeleitete Einzelhypothesen durch Untersuchungen verifiziert werden  nicht realisierbar  absolute Richtigkeit nicht nachweisbar Skalenniveaus -

-

Allgemein: nur Eigenschaften des Untersuchungsgegenstandes messbar, nicht das Ganze human- bzw. sozialwissenschaftliche Forschung: Eigenschaften des Menschen - einfach messbar: Größe, Gewicht, Blutdruck oder Reaktionsgeschwindigkeit - schwieriger: quantitative Erfassung komplexer Eigenschaften wie z.B. Antriebsverhalten, Intelligenz, soziale Einstellungen oder Belastbarkeit. Charakteristik Messvorgang = einem Objekt wird bezüglich der Ausprägung einer Eigenschaft eine Zahl zugeordnet Aber: Erforderlich sind eindeutige Regeln, nach denen diese Zuordnung erfolgt

-

-

Stufen des Messens: die sog. „Skalenniveaus“ Eine Skala, auf der einer Person oder einem Objekt eine Zahl zugeordnet wird, kann unterschiedliche mathematische Attribute (3) besitzen: - 1. Quantitative Ausprägung - 2. Konstante Abstände zwischen aufeinanderfolgenden Skalenwerten - 3. Aboluter Nullpunkt 4 Skalenniveaus lassen sich entsprechend dieser Attribute unterscheiden - Die sog. „Nominalskala“ besitzt keines der drei Attribute. - Die „Ordinalskala“ besitzt nur das erste Attribut. - Die „Intervallskala“ besitzt die ersten beiden Attribute - Die „Verhältnisskala“ besitzt alle drei Attribute.

Nominalskala -

-

= niedrigste Stufe des Messens Skalenwerte in keiner Weise mit quantitativen Ausprägungen der Objekteigenschaften verbunden  gleichzusetzen mit dem Kategorisieren von Objekten Beschränkt sich auf Auszählung (wie viele Objekte aus A eine bestimmte Merkmalsausprägung aufweisen)  für verschiedene Merkmalsausprägungen eine Häufigkeitsverteilung Bsp.: Nationalität, Religionszugehörigkeit, Familienstand einer Person Lässt Vgl. zu, ob gleiche Eigenschaften vorliegen

Eine Nominalskala ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass Objekte mit gleichen Merkmalsausprägungen gleiche Zahlen und Objekte mit verschiedenen Merkmalsausprägungen verschiedene Zahlenerhalten. Ordinalskala -

= eine höhere Stufe als Nominalskala Unterschiede erkennbar (höher, größer, schneller…)  Ränge/Rangordnung Ordinalskalen weisen den Objekten Zahlen zu, die mit der quantitativen Ausprägung der Objekte in Beziehung stehen Abstände zw. den numerischen Skalenwerten sind allerdings bis auf ihr Vorzeichen willkürlich und spiegeln nicht die Abstände zwischen den Objekten wider Bsp.: militärische Ränge, Hochschulrankings, Schulabschlüsse… Nur ablesen, welche Person eine höhere Merkmalsausprägung besitzt, oder ob zwei Personen eine gleich große Ausprägung besitzen Jede ordnungserhaltende Transformation der Skalenwerte ist zulässig.

Eine Ordinalskala ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass von jeweils zwei Objekten das Objekt mit der größeren Merkmalsausprägung die größere Zahl erhält.

Intervallskala -

-

Höhere Messstufe als Ordinalskala Abstand zweier aufeinander folgender Skalenwerte einer Intervallskala ist sinnvoll interpretierbar, da er konstant ist, also nicht von Skalenwert zu Skalenwert variiert Bsp.: Temperaturskalen, welche Temperatur in °C oder °F ausdrücken; Skalenwerte psychometrischer Tests Skalenwerte einer Intervallskala nicht eindeutig festgelegt, da es verschiedene gleichwertige Skalen gibt, doch ist bei einer Intervallskala die Menge der zulässigen Transformationen der Skalenwerte im Vergleich zur Ordinalskala erheblich kleiner Kein absoluter Nullpunkt (somit keine Verhältnisse möglich, da doppelt so hohe °C Temperaturen nicht doppelt so großen °F Temperaturen entsprechen) Transformationen sind zulässig (unterschiedliche Nullpunkte) Abstände erkennbar

Eine Intervallskala ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass die Rangordnung der Zahlendifferenzen zwischen je zwei Objekten der Rangordnung der Merkmalsunterschiede zwischen je zwei Objekten entspricht. -

Mit Intervallskalendatenkönnen sinnvoll Differenzen, Summen oder auch Mittelwerte berechnet werden.

Verhältnisskala -

Höchste Stufe des Messens Bsp.: Länge, Gewicht, Reaktionszeiten, Alter Besitzt absoluten Nullpunkt (= völlige Abwesenheit einer Eigenschaft)  negative Werte sind unzulässig  Aussagen über Größenverhältnisse möglich  Ähnlichkeitstransformationen (Umrechnungen, z.B. Zoll in cm)  alle mathematischen Operationen und statistischen Verfahren, die für Intervallskalen gültig, auch für Verhältnisskalen gültig

Eine Verhältnisskala ordnet den Objekten eines empirischen Relativs Zahlen zu, die so geartet sind, dass das Verhältnis zweier Zahlen dem Verhältnis der Merkmalsausprägungen der jeweiligen Objekte entspricht.

 Metrische Merkmale: auf Intervall-, Verhältnisskala gemessen  Kategoriale (nichtmetrische) Merkmale: auf Norminal- bzw. Ordinalniveau gemessen

Statistische Kennwerte Arithmetisches Mittel – Modalwert – Medianwert – Varianz – Standardabweichung – Interquartilbereich – Perzentil – z-Wert Stichprobe von n Untersuchungseinheiten

Maße der zentralen Tendenz 1. Mittelwert / arithmetisches Mittel - Besondere Sensitivität (ändert sich nur 1 Wert, so ändert sich auch der Mittelwert - Aber: Ausreißer/Extremwerte wirken negativ - Summe der Abweichungen vom arithmetischen Mittel ∑ (xi− ¯x) ist immer null 2. Median Md - definiert als der Wert, der größer als 50% der Werte der Stichprobe ist - kennzeichnet auf einfache Weise die Mitte der Stichprobenwerte - für gerade n: Median als Mittel beider mittigen Werte (Regel, könnte aber jeder xbeliebige Wert zw. beiden mittigen Werten sein, z.B. 5 und 7  5,1; 6; 6,7…) - Bsp.: 2,5,6,8,9  6 2,3,4,6,7,7  5 - nur wenig von Ausreißern beeinflusst (Robustheit gegenüber Extremwerten) 3. Modalwert/Modus Mo - derjenige Messwert, der am häufigsten vorkommt - doppeln sich keine Werte, ist der Mo nicht definiert - bimodale Verteilung, wenn 2 Werte gleich oft, aber nicht nebeneinander 4. geometrisches Mittel - beim Mitteln von subjektiven Empfindungsstärken - GM= n √x1⋅x2⋅x3⋯xn - Wurzel aus den Produkten der einzelnen Werte 5. Harmonisches Mittel - Bei Indexzahlen km/h, Preis pro Liter… Maße der Variabilität (Informieren über Unterschiedlichkeit der Werte) 1. Varianz var - Voraussetzung: metrisches Merkmal - Definition: Die Varianz einer Stichprobe des Umfangs n ist definiert als die Summe der quadrierten Abweichungen (Quersumme) aller Messwerte vom arithmetischen Mittel, dividiert durch n−1. - Grund für das Quadrieren: negative Vorzeichen eliminieren bei den Werten der Abweichungen vom Mittelwert (quadrierte Abweichungen) - n-1  Freiheitsgrade der Varianz - durch das Quadrieren: Varianz hat nicht selbe Einheit wie Messwerte -  Standardabweichung (leitet sich direkt aus var ab und hat gleiche Einheit wie Messwerte) 2. Standardabweichung - Wurzel der Varianz - „repräsentative“ Abweichung vom Zentrum der Verteilung

3. AD-Streuung - 2. Variante, um Vorzeichen zu eliminieren: Betrag - (Betrag von Summe der (Differenzen von Messwerten und Mittelwert) ) durch Anzahl 4. Variationsbreite - Differenz von größten und kleinsten Wert - Sehr sensitiv gegenüber Ausreißern 5. Interquartilbereich - eingeschränkte Streubereiche, bei denen ein gewisser Prozentsatz der größten und kleinsten Beobachtungen nicht berücksichtigt wird - ausgehend vom Median: unterer Angelpunkt – Median der unter Median liegenden Messwerte; oberer Angelpunkt – Median der über dem Median liegenden Messwerte - oberer Angelpunkt minus unterem Angelpunkt = IQR (Interquartilbereich) Stichprobenperzentile -

Perzentil - bringt relative Position eines Messwertes innerhalb der Stichprobe zum Ausdruck bezieht sich immer auf einen vorgegebenen Prozentsatz Definition – Stichprobenperzentil: Das Perzentil einer Stichprobe xp ist der Messwert, unter dem p-Prozent der Werte in der Stichprobe liegen. X50% entspricht dem Median Lineare Interpolation, um jegliche Perzentile herauszufinden (im Diagramm die gegebenen Werte linear (durch Gerade) Punkt für Punkt verbinden  Ablesen)

Normalverteilung -

Dichtefunktion hat glockenförmigen Verlauf unimodal und symmetrisch Verteilung nähert sich asymptotisch der Abszisse an, berührt diese aber an keiner Stelle Normalverteilte Variablen deshalb nicht nach oben oder unten beschränkt Zw. den zu den Wendepunkten gehörenden x-Werten befindet sich ca. 2/3 der Gesamtfläche

Standardnormalverteilung -

Erwartungswert von 0 und Streuung von 1 Durch z-Transformation kann jede Normalverteilung in die Standardnormalverteilung überführt werden  eine Normalverteilung wird somit standardisiert

Bedeutung der Normalverteilung -

Viele human- und sozialwissenschaftliche Merkmale verteilen sich annähernd normal Verteilungsmodell für statistische Kennwerte In der statistischen Fehlertheorie - „Unter der Annahme, dass die Anzahl der zufällig wirksamen Fehlerfaktoren sehr groß ist, sind die Fehlerkomponenten bei vielen Wiederholungsmessungen normalverteil.“ - Fehler können positiv oder negativ sein  gleichen sich bei vielen Messungen aus - Erwartungswert der Normalverteilung der Fehlerkomponenten kann deshalb der Wert 0 angenommen werden  Grundlegend für Inferenzstatistik

Testverteilungen -

Um eine Entscheidung für oder gegen eine Hypothese zu begründen Hypothesentests (Chi-Quadrat  Chi-Quadrat-Verteilung, t-Test  t-Verteilung, FVerteilung) Nicht für probabilistische Beschreibung von Merkmalen (Körpergröße, IQ, Reaktionszeit) verwendet

Chi-Quadrat-Verteilung -

Abhängig von Freiheitsgraden df Anzahl df bestimmt Verteilungsform Tabellen zum Ablesen benötigt

t-Verteilung -

Symmetrisch, eingipflig, Erwartungswert = 0 Im Vgl. zur Standardnormalverteilung jedoch schmalgipfliger Schmalgipfligkeit nimmt mit zunehmender Anzahl an Freiheitsgraden jedoch ab  Ähnlichkeit zur Standardnormalverteilung zu

Stichproben und Grundgesamtheit Grundgesamtheit = alle potenziell untersuchbaren Einheiten/Elemente, die ein gemeinsames Merkmal/Merkmalskombination aufweisen -

Bsp: Population aller Deutschen, Grundgesamtheit der Bewohner einer Stadt, Leser einer Zeitung, linkshändige SuS…

Stichprobe = Teilmenge aller Untersuchungsobjekte, die untersuchungsrelevanten Eigenschaften der Grundgesamtheit möglichst genau abbilden soll -

„Miniaturbild“ der Grundgesamtheit Möglichst genaue Repräsentativität

Stichprobenarten 1) Einfache Zufallsstichprobe (von besonderer Bedeutung für Inferenzstatistik) - Eine aus n Objekten bestehende Teilmenge, welche ohne Zurücklegen aus der Grundgesamtheit ausgewählt wird, heißt einfache Zufallsstichprobe, falls alle gleich großen und auf gleiche Weise selektierten Teilmengen, gleich wahrscheinlich sind. - Einfach meint, dass jedes Objekt der Grundgesamtheit gleiche WK besitzt ausgewählt zu werden 2) Klumpenstichprobe - Vorgruppierte Teilmengen (ökonomischer) - Aber! Es müssen mehrere Klumpen sein - Bsp.: Schulklasse, Station im KH, Arbeitsgruppe im Betrieb… - Eine Klumpenstichprobe besteht aus allen Untersuchungsobjekten, die sich in mehreren, zufällig ausgewählten Klumpen befinden. 3) Geschichtete Stichprobe - Schichtungsmerkmale können sein: Geschlecht, Alter, Einkommen, Familiengröße, Stadt- oder Landbevölkerung…) - Repräsentativität in Bezug auf zu untersuchende Merkmale

Hypothesen testen Überprüfung von Eigenschaften einer Population durch Stichproben Zunächst eine Behauptung über Eigenschaft einer Pop aufstellen = Hypothese - Alternativhypothese H1: - a) gerichtet: es besteht ein positiver/negativer Zusammenhang/Unterschied - b) ungerichtet: es besteht ein Zusammenhang/Unterschied - Nullhypothese H0: - Behauptet, dass der in H1 postulierte Unterschied/Zusammenhang nicht vorhanden ist  Die Nullhypothese stellt in der Inferenzstatistik die Basis dar, von der aus entschieden wird, ob die Alternativhypothese akzeptiert werden kann oder nicht.  Kann Realität nicht mit H0 erklärt werden  Richtigkeit von H0 o H0 zugunsten H1 verworfen - Festlegung einer Grenze (kritischer Wert), die den Übergang zw. Werten der Prüfgröße markiert, die als mit der H0 „noch vereinbar“ betrachtet werden können - Grenze mit Hilfe Signifikanzniveaus festgelegt -

Ein statistischer Test ist eine Regel, die es erlaubt, für jedes Stichprobenergebnis eine Entscheidung zw. H0 und H1 zu treffen.

Fehlerarten Ein Fehler 1. Art wird begangen, wenn eine richtige Nullhypothese zugunsten der Alternativhypothese abgelehnt wird. Ein Fehler 2. Art wird begangen, wenn eine falsche Nullhypothese beibehalten wird. -

F 1. Art: fälschliche Entscheidung für H1, gegen H0 (obwohl H0 gilt), zugunsten H1 - Alpha-Fehler F 2. Art: fälschliche Entscheidung für H0, gegen H1 (obwohl H1 gilt), zugunsten H0 - Beta-Fehler

Signifikanzniveau -

H0 erst dann verworfen, wenn Untersuchungsergebnis sich nur schlecht mit ihr vereinbaren lässt Stichprobenergebnis über- oder unterschreitet gewisse Grenze Kontrolle des Fehlers 1. Art durch Festlegung Signifikanzniveaus erreicht

Das Signifikanzniveau α bezeichnet die vom Forscher festgelegte Wahrscheinlichkeit, mit welcher die Ablehnung der Nullhypothese im Rahmen eines Signifikanztests zu einem Fehler 1. Art führt. -

i.d.R. α = 0.05 oder α = 0.01, 5% oder 1% Auftreten Fehlers 1. Art kann dadurch begrenzt werden

Z-Test -

-

-

Überprüfung von Hypothesen Ein Ergebnis ist signifikant, wenn die kritischen Werte über-, unterschritten werden und dadurch die H0 verworfen wird Einseitiger vs. zweiseitiger Test - Gerichtete Alternativhypothese  einseitiger Test (5%)  Alpha = 0.05  krit. Wert = 1,65  z > 1,65  Ablehnung H0 - Ungerichtete H1  zweiseitiger Test (2 x 2,5%)  Alpha = 0.05  krit. Werte z2,5% = -1,96 und z97,5% = 1,96  Z < -1,96 oder z > 1,96  Ho verwerfen  unterschiedliche Ablehnungsbereiche Alpha = Ablehnungsbereich der Nullhypothese - Kritischer Weit bei alpha = 0.01  2,33 Eine H1 muss vor der Durchführung einer Untersuchung aufgestellt werden. Eine Modifikation der Hypothese angesichts der gefundenen Daten und eine gleichzeitige Überprüfung der modifizierten H1 an denselben Daten ist unzulässig. Ein nicht-signifikantes Ergebnis ist kein Beleg dafür, dass die Nullhypothese richtig ist.

p-Wert -

„beobachtbares Signifikanzniveau“ Entspricht dem kleinsten Wert von alpha, für den das Testergebnis gerade noch signifikant

p-Wert. Unter der Annahme der Gültigkeit der Nullhypothese entspricht der p-Wert der Wahrscheinlichkeit der beobachteten oder einer extremeren Prüfgröße, welche mit der in der Alternativhypothese spezifizierten Richtung des Effekts übereinstimmt. -

Evidenz für die Vereinbarkeit des beobachteten Stichprobenergebnisses mit der Nullhypothese P-Werte ergeben sich aus Tabellen unter zu Hilfenahme der z-Werte Ist der p-Wert kleiner als alpha  signifikantes Testergebnis

Prüfung der Signifikanz a) Mittels Vergleich von berechneten z-Werten mit kritischen z-Werten b) Mittels Vergleich der p-Werte mit Signifikanzniveau

Signifikanzniveau -

Minimierung nicht sinnvoll (z.B. alpha = 0,000001) Verringerung von Vorteil, wenn H0 gilt  Verringerung Fehler 1.Art Verringerung von Nachteil, wenn H1 gilt  erhöht WK eines Fehlers 2. Art

z-Test  Standardabweichung bekannt t-Test  Standardabweichung unbekannt

t-Test  Mittelwerte vergleichen 1) Für abhängige Stichproben / 1-Stichproben t-Test 2) Für unabhängige Stichproben - Z.B. Männer und Frauen, Stichproben aus 2 unterschiedlichen/voneinander unabhängigen Gruppen - Beobachtungen in der einen StPr stehen in keiner Beziehung zu den Beobachtungen in der anderen StPr 3) Für Beobachtungspaare / für abhängige/verbundene Stichp...


Similar Free PDFs