Title | Erwartungswert Varianz Kovarianz Korrelation Regressionsparameter |
---|---|
Course | Einführung in die Statistik |
Institution | Julius-Maximilians-Universität Würzburg |
Pages | 5 |
File Size | 570.6 KB |
File Type | |
Total Downloads | 28 |
Total Views | 132 |
Zusammenfassung...
Erwartungswert, Varianz, Kovarianz und Korrelation Erwartungswert -
entspricht dem „wahren Mittelwert“ (nicht der Mittelwert einer Stichprobe, sondern für eine gesamte Population/unendlich viele Versuche) à theoretische Analogon zum Stichprobenmittelwert die Werte der betrachteten Zufallsvariablen (ZV) müssen Zahlen sein
Erwartungswert bei einer diskreten Zufallsvariablen -
X ist eine diskrete, reell-wertige ZV mit einer endlichen Anzahl von Werten x1, …, xn P(X=xi) ist die Wahrscheinlichkeit, dass X den Wert xi annimmt Erwartungswert E(X) ist definiert durch:
-
bei dichotomen ZV mit den möglichen Werten 0 und 1 gilt: E(X) = P(X=1) à dies gilt also auch für Indikatorvariablen Achtung: Erwartungswert ≠ erwarteter Wert oder Wert, der am häufigsten vorkommt !! Erwartungswert existiert für diskrete und kontinuierliche Variablen o diskret: E(X) errechnet sich durch o. g. Summe o kontinuierlich: E(X) entspricht dem Integral bezüglich des Maßes P E(X) ist die Zahl, die MSE (mean square error à Funktion der kleinsten Quadrate/ Abweichungen) minimiert wenn zwei Zufallsvariablen X und Y unabhängig sind, gilt: E(X • Y) = E(X) • E(Y)
-
Transformationssatz -
g(X) ist eine reell-wertige Abbildung/Funktion der ZV X
à man braucht also die Funktionswerte von g(xi), z. B. Joe = 1 und Ann = 0, wobei Joe und Ann der ZV X entsprechen und die Werte 0 und 1 die entsprechende Abbildung der Personenvariable sind, sowie ihre jeweiligen Auftretenswahrscheinlichkeiten, um E(g(X)) zu berechnen -
Für eine diskrete, bivariate ZV (X,Y) mit der Funktion/Abbildung g(X,Y) gilt
Rechenregeln (1) (2) (3) (4)
Beispiel: Erwartungswert bei einer binomialverteilten ZV -
à Indikatorvariable von Ai bei der Binomialverteilung gilt: o P(Ai) = p für alle i = 1, …, n à jedes Ereignis hat die gleiche Wahrscheinlichkeit o die Ereignisse A1, …, An sing unabhängig
Bedingter Erwartungswert
Rechenregeln für den bedingten Erwartungswert
Varianz -
-
theoretischen Analogon zur Stichprobenvarianz o es gehen die WAHREN Wahrscheinlichkeiten an (nicht relative Häufigkeiten) entspricht dem Erwartungswert für die Summe der quadrierten Abweichungen à Differenz zwischen den Werten von X und E(X) wird quadriert und mit den jeweiligen Auftretenswahrscheinlichkeiten multipliziert (Summe): à Varianz ist damit auch ein Erwartungswert daraus ergibt sich auch die Standardabweichung (positive Quadratwurzel der Varianz):
Rechenregeln (1) (2) (3) (4) (5)
Für n = 2 ergibt sich daraus:
Beispiele: - Wenn a1 = a2 = 1, dann ergibt sich aus Regel (5): Var(X+Y) = Var(X) + Var(Y) + 2 Cov(X,Y) -
Var(X-Y) = 12 • Var(X) +(-1)2 • Var(Y) + 2 • 1 • (-1) • Cov(X,Y) = Var(X) - Var(Y) - 2 • Cov(X,Y)
-
Wenn Cov(X,Y) = 0: Var(X-Y) = Var(X) + Var(Y)
-
Indikatorvariable: Var(IA) = E(IA2) - E(IA)2 = P(A) • (1 – P(A))
Beispiel: Varianz einer binomialverteilten ZV
à Es gilt: Cov(IAi,IAj) = 0, weil IAj= 0 = E(IAj)
Kovarianz -
auch ein Erwartungswert
-
nicht normiert wenn X und Y stochastisch unabhängig sind, dann gilt Cov(X,Y) = 0 (allerdings nicht umgekehrt à wenn zwei Variablen nicht kovariieren, können sie immer noch stochastisch abhängig sein)
Rechenregeln (1) (2) (3) (4) (5) Für n = m = 2 ergibt sich daraus:
Beispiel: Cov(X, a+b•X) = Cov(X, b•X) = b • Cov(X,X) = b • Var(X)
(3) (4) à denn die Kovarianz einer Variablen mit sich selbst = Varianz der ZV
Korrelation -
ist die Kovarianz der ZV X und Y durch das Produkt der Streuungen:
-
wenn beide Standardabweichungen > 0: Korrelation = Erwartungswert des Produktes der z-standardisierten Abweichungsvariablen
-
Korrelation ist invariant unter linearen Transformationen einer oder beider ZV:
-
wenn X und Y stochastisch unabhängig sind, dann gilt Corr(X,Y) = 0 (allerdings nicht umgekehrt)
Die lineare Quasi-Regression -
X und Y sind numerische ZV eines Wahrscheinlichkeitsraumes mit endlichen zweiten Momenten Var(X) > 0 Funktion f (Abbildung der reellen Zahlen in reelle Zahlen) ist folgendermaßen definiert:
-
das Paar (a0,a1) minimiert die Funktion der kleinsten Quadrate (MSE = mean square error)
à nichts anderes als die Summe der kleinsten Quadrate (Abweichungen der wahren Werte vom geschätzten Wert zum Quadrat) Wiederholung „Lineare Regression“ (1. Semester): § Residuum = Abweichung der Messwerte von der Regressionsgeraden, also von den vorhergesagten Werten § Summe aller Residuen = 0 § Summe alle quadrierten Residuen à minimal § Regressionsgleichung: f(x) = b0 + bx • x § Regressionsmodell: f(x) = b0 + bx • x + ei , wobei (Kriterium der kleinsten Quadrate) à Wenn das Kriterium der kleinsten Quadrate erfüllt ist (MSE minimal), heißt die Funktion f lineare Quasi-Regression von Y auf X:
Die lineare Quasi-Regression (Qlin) beschreibt diejenige Art der Abhängigkeit der Variablen Y von X, die durch ihre Kovarianz und ihre Korrelation quantifiziert wird, d. h. - Qlin beschreibt die Abhängigkeit zwischen den ZV X und Y - die Kovarianz und die Korrelation geben das Maß dieser Abhängigkeit an (Kenngröße für die Stärke des Zusammenhanges)
Drei Eigenschaften der Qlin Theorem – Voraussetzungen: - X und Y sind zwei reellwertige ZV - E(X2), E(Y2) > 0 und Var(X) > 0 - f(X) = α0 + α1 X - ε := Y – f(X) à Residuen Es gilt:...