Erwartungswert Varianz Kovarianz Korrelation Regressionsparameter PDF

Title Erwartungswert Varianz Kovarianz Korrelation Regressionsparameter
Course Einführung in die Statistik
Institution Julius-Maximilians-Universität Würzburg
Pages 5
File Size 570.6 KB
File Type PDF
Total Downloads 28
Total Views 132

Summary

Zusammenfassung...


Description

Erwartungswert, Varianz, Kovarianz und Korrelation Erwartungswert -

entspricht dem „wahren Mittelwert“ (nicht der Mittelwert einer Stichprobe, sondern für eine gesamte Population/unendlich viele Versuche) à theoretische Analogon zum Stichprobenmittelwert die Werte der betrachteten Zufallsvariablen (ZV) müssen Zahlen sein

Erwartungswert bei einer diskreten Zufallsvariablen -

X ist eine diskrete, reell-wertige ZV mit einer endlichen Anzahl von Werten x1, …, xn P(X=xi) ist die Wahrscheinlichkeit, dass X den Wert xi annimmt Erwartungswert E(X) ist definiert durch:

-

bei dichotomen ZV mit den möglichen Werten 0 und 1 gilt: E(X) = P(X=1) à dies gilt also auch für Indikatorvariablen Achtung: Erwartungswert ≠ erwarteter Wert oder Wert, der am häufigsten vorkommt !! Erwartungswert existiert für diskrete und kontinuierliche Variablen o diskret: E(X) errechnet sich durch o. g. Summe o kontinuierlich: E(X) entspricht dem Integral bezüglich des Maßes P E(X) ist die Zahl, die MSE (mean square error à Funktion der kleinsten Quadrate/ Abweichungen) minimiert wenn zwei Zufallsvariablen X und Y unabhängig sind, gilt: E(X • Y) = E(X) • E(Y)

-

Transformationssatz -

g(X) ist eine reell-wertige Abbildung/Funktion der ZV X

à man braucht also die Funktionswerte von g(xi), z. B. Joe = 1 und Ann = 0, wobei Joe und Ann der ZV X entsprechen und die Werte 0 und 1 die entsprechende Abbildung der Personenvariable sind, sowie ihre jeweiligen Auftretenswahrscheinlichkeiten, um E(g(X)) zu berechnen -

Für eine diskrete, bivariate ZV (X,Y) mit der Funktion/Abbildung g(X,Y) gilt

Rechenregeln (1) (2) (3) (4)

Beispiel: Erwartungswert bei einer binomialverteilten ZV -

à Indikatorvariable von Ai bei der Binomialverteilung gilt: o P(Ai) = p für alle i = 1, …, n à jedes Ereignis hat die gleiche Wahrscheinlichkeit o die Ereignisse A1, …, An sing unabhängig

Bedingter Erwartungswert

Rechenregeln für den bedingten Erwartungswert

Varianz -

-

theoretischen Analogon zur Stichprobenvarianz o es gehen die WAHREN Wahrscheinlichkeiten an (nicht relative Häufigkeiten) entspricht dem Erwartungswert für die Summe der quadrierten Abweichungen à Differenz zwischen den Werten von X und E(X) wird quadriert und mit den jeweiligen Auftretenswahrscheinlichkeiten multipliziert (Summe): à Varianz ist damit auch ein Erwartungswert daraus ergibt sich auch die Standardabweichung (positive Quadratwurzel der Varianz):

Rechenregeln (1) (2) (3) (4) (5)

Für n = 2 ergibt sich daraus:

Beispiele: - Wenn a1 = a2 = 1, dann ergibt sich aus Regel (5): Var(X+Y) = Var(X) + Var(Y) + 2 Cov(X,Y) -

Var(X-Y) = 12 • Var(X) +(-1)2 • Var(Y) + 2 • 1 • (-1) • Cov(X,Y) = Var(X) - Var(Y) - 2 • Cov(X,Y)

-

Wenn Cov(X,Y) = 0: Var(X-Y) = Var(X) + Var(Y)

-

Indikatorvariable: Var(IA) = E(IA2) - E(IA)2 = P(A) • (1 – P(A))

Beispiel: Varianz einer binomialverteilten ZV

à Es gilt: Cov(IAi,IAj) = 0, weil IAj= 0 = E(IAj)

Kovarianz -

auch ein Erwartungswert

-

nicht normiert wenn X und Y stochastisch unabhängig sind, dann gilt Cov(X,Y) = 0 (allerdings nicht umgekehrt à wenn zwei Variablen nicht kovariieren, können sie immer noch stochastisch abhängig sein)

Rechenregeln (1) (2) (3) (4) (5) Für n = m = 2 ergibt sich daraus:

Beispiel: Cov(X, a+b•X) = Cov(X, b•X) = b • Cov(X,X) = b • Var(X)

(3) (4) à denn die Kovarianz einer Variablen mit sich selbst = Varianz der ZV

Korrelation -

ist die Kovarianz der ZV X und Y durch das Produkt der Streuungen:

-

wenn beide Standardabweichungen > 0: Korrelation = Erwartungswert des Produktes der z-standardisierten Abweichungsvariablen

-

Korrelation ist invariant unter linearen Transformationen einer oder beider ZV:

-

wenn X und Y stochastisch unabhängig sind, dann gilt Corr(X,Y) = 0 (allerdings nicht umgekehrt)

Die lineare Quasi-Regression -

X und Y sind numerische ZV eines Wahrscheinlichkeitsraumes mit endlichen zweiten Momenten Var(X) > 0 Funktion f (Abbildung der reellen Zahlen in reelle Zahlen) ist folgendermaßen definiert:

-

das Paar (a0,a1) minimiert die Funktion der kleinsten Quadrate (MSE = mean square error)

à nichts anderes als die Summe der kleinsten Quadrate (Abweichungen der wahren Werte vom geschätzten Wert zum Quadrat) Wiederholung „Lineare Regression“ (1. Semester): § Residuum = Abweichung der Messwerte von der Regressionsgeraden, also von den vorhergesagten Werten § Summe aller Residuen = 0 § Summe alle quadrierten Residuen à minimal § Regressionsgleichung: f(x) = b0 + bx • x § Regressionsmodell: f(x) = b0 + bx • x + ei , wobei (Kriterium der kleinsten Quadrate) à Wenn das Kriterium der kleinsten Quadrate erfüllt ist (MSE minimal), heißt die Funktion f lineare Quasi-Regression von Y auf X:

Die lineare Quasi-Regression (Qlin) beschreibt diejenige Art der Abhängigkeit der Variablen Y von X, die durch ihre Kovarianz und ihre Korrelation quantifiziert wird, d. h. - Qlin beschreibt die Abhängigkeit zwischen den ZV X und Y - die Kovarianz und die Korrelation geben das Maß dieser Abhängigkeit an (Kenngröße für die Stärke des Zusammenhanges)

Drei Eigenschaften der Qlin Theorem – Voraussetzungen: - X und Y sind zwei reellwertige ZV - E(X2), E(Y2) > 0 und Var(X) > 0 - f(X) = α0 + α1 X - ε := Y – f(X) à Residuen Es gilt:...


Similar Free PDFs