Samenvatting econometrie (Autosaved) PDF

Title Samenvatting econometrie (Autosaved)
Course Econometrie
Institution Universiteit Gent
Pages 23
File Size 461.8 KB
File Type PDF
Total Downloads 27
Total Views 154

Summary

Download Samenvatting econometrie (Autosaved) PDF


Description

Econometrie Deel 1: Regressieanalyse met 2 variabelen: Hoofdstuk 2: Basisconcepten  Populatie-regressiecurve: = de locus van de voorwaardelijke verwachtingen van de afhankelijke variabele voor de vaste waarden van de onafhankelijke variabele  In principe is de populatie  groot: voor elke waarde van X hebben we een  aantal waarden voor Y  Mathematische specificatie: E(YXi) = f(Xi) o Lineaire PRF: E(YXi) = 1 + 2Xi  Steunt op de veronderstelling van lineariteit in de parameters (niet-lineariteit in de variabelen is toegestaan)  Is slechts gemiddeld genomen correct: De afwijking van de individuele Y i van hun voorwaardelijke verwachting kan worden voorgesteld als: i = Yi - E(YXi) o Met i de stochastische storingsterm  Yi = E(YXi) + i = 1 + 2Xi + i o E(YXi): systematische/ deterministische component (veroorzaakt door Xi) o i: niet-systematische of kanscomponent  is een bundeling van alle variabelen/ factoren die Y beïnvloeden maar die niet in het model werden opgenomen 

Steekproef-regressiefunctie: = een benadering van de PRF o.b.v. een steekproef uit de populatie Yi = ^  Specificatie: ^ ß1 + ^ ß 2 Xi ^ o Y i is een schatter voor E(YXi) ^ o ß 1 is een schatter voor 1 ^ o ß 2 is een schatter voor 2  Deze schatters zijn stochastisch: variabel over herhaalde steekproeven



Doel van regressieanalyse = benader de parameters van de PRF (Yi = 1 + 2Xi + i) door de SRF ( ^ Yi = ^ ß1 + ^ ß 2 Xi + ^μi ) en zorg ervoor dat ^ ß 1 en ^ ß 2 ‘zo goed mogelijk’ 1 en 2 benaderen ook al kennen we de PRF niet  Gebruik schatter (methode der kleinste kwadraten)  Hoe goed de schatter presteert als benadering wordt ingevuld via de statistische eigenschappen van deze schatter

Hoofdstuk 3: Schatten van de SRF  Kleinste-kwadraten methode: n

2 1. Minimaliseer de afstand tussen ^ Y i en Yi: min∑ μ^ i ^ ß1 , ^ ß2 i=1

2. Dit levert de KK/ OLS schatter voor ^ ß 1 en ^ ß 2 op 

Numerieke eigenschappen van de KK schatter: 1. De steekproef-regressielijn gaat door de steekproefgemiddelden van Y en X

^ = gemiddelde van Yi 2. Het gemiddelde van Y i 3. De geschatte storingstermen ^μi zijn gemiddeld 0 4. De geschatte storingstermen ^μi zijn niet gecorreleerd met X i  cov(Xi, ^μi ) = 0 5. De geschatte storingstermen ^μi zijn niet gecorreleerd met ^ Y i  cov( ^ Yi , ^μi ) = 0  Gelden onafhankelijk van de manier waarop de data gegenereerd werden (onafhankelijk van de veronderstellingen aangaande de populatie) ^μi  De numerieke eigenschappen van de geschatte storingstermen weerspiegelen niet de eigenschappen van de populatiestoringstermen i maar zijn louter het gevolg van het toepassen van de KK methode 

De Gauss-Markov veronderstellingen aangaande de populatie (m.b.t. Xi en i) 1. Lineariteit in de parameters 2. a: De X-waarden zijn vast over herhaalde steekproeven (fixed regressor model) o Xi is een deterministische variabele, geen stochastische of kansvariabele o Hier is in de praktijk zelden aan voldaan vandaar: b: De X-waarden wijzigen over herhaalde steekproeven(stochastic regressor model) o Xi is een stochastische of kansvariabele! 3. De (conditionele) verwachtingswaarde van de storingstermen i is gelijk aan 0: E(iXi) = 0  De variabelen/ factoren die niet expliciet in het model werden opgenomen (en dus gevat worden door de storingstermen) hebben geen systematische invloedt op Y  Geen specificatiefout in het gekozen model: er werden geen relevante variabelen weggelaten, de functionele vorm is juist, …  Impliceert dat Xi en i niet gecorreleerd zijn: cov(Xi, i) = 0 heeft niks te maken met de numerieke eigenschap die ALTIJD geldt: 1 ^μ =0 n∑ i 4. De variantie van de storingstermen i is constant (homoscedasticiteit):

Xi μi| ¿ ¿ σ 2 var ¿ Variantie van Yi rond de PRF is constant over alternatieve waarden van X i Xi 2 Schending: heteroscedasticiteit: μi| ¿¿ σ i var ¿ 5. Er is geen onderlinge correlatie tussen de storingstermen (geen autocorrelatie) X i, X j μi , μ j|¿¿0 , voor i≠ j cov ¿ De storingsterm μi bevat geen informatie aangaande de storingsterm μ j : geen systematisch patroon in de storingstermen Schending: autocorrelatie

6. 7. 8.  

 

 

= enkel relevant voor tijdreeksgegevens en panel data Het aantal observaties n is groter dan het aantal te schatten parameters Er is variatie in de X-waarden Er is geen perfecte multicollineariteit Indien aan deze veronderstellingen voldaan is spreekt men van het klassiek lineair regressiemodel (KLRM) Schending van 1 van deze veronderstellingen impliceert dat de parameters niet geïdentificeerd zijn (niet geschat kunnen worden wegens onvoldoende informatie in de data) Deze veronderstellingen hebben betrekking op de PRF en NIET op de SRF De KK schatter zorgt er wel voor dat de SRF een aantal ( numerieke) eigenschappen heeft die overeenkomen met deze veronderstellingen: o ^ μ´ i = 0 cov ( X i , ^ μ i)=0 o  impliceert echter niet dat de GM veronderstelling E( iXi) = 0 juist is!! De KK methode gebruikt deze veronderstelling als identificerende restricties Geven ons een basiskader waarbinnen we de statistische eigenschappen van de KK schatter kunnen afleiden (stelling van GM) Afwijkingen van deze veronderstellingen kunnen bestudeerd worden



Statistische eigenschappen van de KK schatter:  Vertellen ons hoe goed de schatter presteert als benadering  Als aan alle GM veronderstellingen (KLRM) is voldaan, dan is de KK schatter Best Linear Unbiased Estimator (BLUE) onafhankelijk van de steekproefomvang n! o Een schatter is lineair indien deze een lineaire functie is van een kansvariabele Yi o Een schatter is zuiver (unbiased) indien zijn verwachtingswaarde E( β^) overeenstemt met de werkelijke populatiewaarde ß o Een schatter is efficiënt (beste schatter) indien een schatter binnen de klasse van de zuivere schatters de laagste variantie heeft  er is geen alternatieve schattingsmethode die ons een lagere variantie gaat opleveren (betekent niet dat de variantie laag is)  precisie: hoe groot is de variantie (efficiënt wil niet zeggen dat uw variantie laag is)  (Statistische) o Eigenschappen van de KK schatter worden bepaald door het al dan niet opgaan van de veronderstellingen in het KNLRM



Precisie van de KK schatter: variabiliteit van ^ ß 1 en ^ ß 2 over herhaalde steekproeven ß 1 en ^ ß 2 variëren over herhaalde steekproeven: berekening  Mate waarin ^ van de variantie of standaardfout  Consistentie: wanneer n → ∞ tendeert de variantie van de KK schatters naar 0   = de standaardfout van de regressie: stelt de conditionele standaardafwijking voor van Y rond de steekproef-regressielijn



Determinatiecoëfficiënt r2:  Meet hoe goed de geschatte regressielijn aansluit bij de steekproefgegevens door na te gaan in welke mate de variantie in Yi wordt verklaard door variantie in Xi  O ≤ r 2 ≤1  Maatstaf voor de goodness of fit MAAR: A high R 2 is not evidence in favour of the model and a low R2 is not evidence against it  Een lage R 2 zegt wel dat het model arm is: er zijn veel weggelaten verklarende factoren, wat mogelijk op een specificatiefout wijst

Hoofdstuk 4: De normaliteitshypothese  We zijn geïnteresseerd in ß1 en ß2, maar die zullen we nooit kennen. We kunnen echter wel veronderstellingen maken en dan nagaan of de bekomen schattingsresultaten hiermee consistent zijn: testen van hypothesen (hiervoor hebben we naast de schatters en hun variantie ook de vorm van de dichtheidsverdeling van de schatters nodig  Dichtheidsverdeling van de KK schatter ^ ß 2 wordt bepaald door de ^ dichtheidsverdeling van i aangezien: β 2= β 2+ ∑ k i μ i  Het klassiek normale lineaire regressiemodel (KNLRM) veronderstelt dat de storingstermen normaal verdeeld zijn: μi|X i ∼ N  Theoretisch: Centrale Limiet Stelling: aantal factoren in μi → ∞  Pragmatisch: Aangezien een lineaire functie van normaal verdeelde variabelen ook normaal verdeeld is impliceert dit dat ^ ß1 , ^ ß2 ∼ N  We kunnen het econometrisch model schrijven als: 2  Yi = 1 + 2Xi + i met μi|X i ∼ N ID(0,σ ) o NID: Normally and Independently (geen autocorrelatie) Distributed o Bevat de belangrijkste GM veronderstellingen o Daarnaast veronderstellen we dat Xi deterministisch is o GM veronderstellingen 6-8 zijn ‘regularity conditions’: zonder deze kunnen we de KK schatters zelfs niet berekenen  Onder de eigenschappen van het KNLRM geldt dat:  ^ ß 1 en ^ ß 2 zijn zuiver, efficiënt en normaal verdeeld: BUE o Efficiëntie nu in de volledige klasse van zuivere schatters (lineair en nietlineair) 2 zuiver en 2 verdeeld  ^ σ 2  ^ ß 1 en ^ ß 2 onafhankelijk van ^ σ verdeeld  Y i N ( β 1 +β 2 X i , σ 2 ) Hoofdstuk 5: Intervalschattingen en hypothesetesten  Hoe groot is de onzekerheid van de puntschattingen?  Eerste indicatie: variantie  Verdere analyse: intervalschattingen o Voeg aan de puntschatting ^ß een foutenmarge toe zodanig dat het geconstrueerde interval met een bepaalde waarschijnlijkheid de populatieparameter bevat Pr ( ^ß−δ ≤ β ≤ ^ß+ δ ) =1−α ( met 020 en het SN op 5% wordt vastgelegd, dan kan de H 0: ß2=0 verworpen worden indien |t| > 2  Deze t-test wordt standaard door de meeste programma’s berekend o 2 fouten bij de keuze over het al dan niet verwerpen van de H0:  Fout van type I: verwerpen van een juiste H0 =   Fout van type II: het niet verwerpen van een foute H0 = ß  Het is niet mogelijk om beide fouten gezamenlijk te minimaliseren o Exacte significantieniveau van een test: p-waarde  = het laagste SN waarop de H0 verworpen kan worden/ een test significant is  = de exacte kans om een fout van type I te maken  verwerp de H0 als de p-waarde <  Analyse van de variantie: ANOVA:  F-test voor H0: ß2=0 o ß2=0: volledige variantie in Y wordt veroorzaakt door de variantie in  (ESS=0) o ß20: een deel van de variantie in Y wordt veroorzaakt door de variantie in X (ESS>0) o nut F-test: meervoudige regressie-analyse! o Voor df=1: √F=t

Hoofdstuk 6: Enkele uitbreidingen  Interpretatie van de regressiecoëfficiënten:  ß1: intercept o = niveau van Yi wanneer Xi = 0 o staat uitgedrukt in de meeteenheid van Yi  ß2: helling ∆Y i ∆ Y i=β 2 ∆ X i o  β 2= ∆ Xi o Een toename in Xi met 1 eenheid zorgt gemiddeld genomen voor een wijziging in Yi met ß2 eenheden  Schaal -en meeteenheden:  KK schatter is afhankelijk van de schaal waarin de variabelen staan uitgedrukt  Alternatieve functionele vorm:  Het lineair in logs model: o Veronderstel het volgende exponentieel model: β μ Y i=β 1 X i e o Na een logaritmische transformatie van de variabelen bekomen we: ln Y i=ln β 1 + β 2 ln X i+ μ i o Na vervanging ln β 1 door , ln Y i door Yi* en ln X i door Xi*: 2

i

¿



¿

Y i =α+ β2 X i + μ i Dit model kan geschat worden met KK want het is lineair in de parameters Indien aan de veronderstellingen van het KNLRM voldaan is, dan zijn de KK schatters ^α en ^ β 2 BUE voor α en β 2 β Interpretatie: meet de elasticiteit van Yi voor wijzigingen in Xi 2  Semi-log modellen: o Log-lin model: ln Y i=β 1 + β 2 X i + μi ¿  Na vervanging: Y i = β1 + β 2 X i+ μ i  Interpretatie: voor een absolute wijziging in Xi meet β 2 de ¿ ∆ Y i ∆ lnY i ∆ Y i /Y i ≈ = β = relatieve wijziging in Yi: 2 ∆ Xi ∆ Xi ∆ Xi o Lin-log model: Y i=β 1 + β 2 ln X i + μi ¿  Na vervanging: Y i=β 1 + β 2 X i + μ i  Interpretatie: de absolute wijziging in Yi wordt gemeten door  β 2 voor een relatieve wijziging in Xi  β 2 /100 voor een procentuele wijziging in Xi 1 o Reciprocal models: Y i=β 1 + β 2 +μ i Xi β  is de asymptotische waarde voor Yi wanneer Xi → ∞ 1 β 2 meet …  Hoe kiezen tussen alternatieve functionele vormen?  Ideaal: theoretische achtergrond  Op basis van de data  Tentatief: o Grafiek Yi t.o.v. X i o Verklaringskracht van het model: r2  Pas op! Modellen met verschillende afhankelijke variabele kunnen niet vergeleken worden o.b.v. r 2!! (bv Yi en lnYi)  Meer formeel: o Nagaan veronderstellingen KNLRM o Indien de storingsterm voldoet aan deze veronderstellingen is de specificatie adequaat

Deel 2: Meervoudige regressieanalyse: Hoofdstuk 7: Schatten van de SRF  PRC is de locus van de voorwaardelijke verwachtingen van Y i voor de vaste waarde van X2i en X3i: E ( Y i| X 2 i , X 3 i ) =β 1+ β2 X 2 i + β 3 X 3i β 2 en β 3 zijn de partiële regressiecoëfficiënten:   β 2 meet de verandering in E ( Y i| X 2 i , X 3 i ) voor ∆ X 2 i=1 en ∆ X 3 i =0  de directe of netto impact van X 2 i op Yi: X2 i , X3 i Y i |¿ ¿ ∂E¿ β 2=¿

β 3 meet de verandering in E ( Y i| X 2 i , X 3 i ) voor ∆ X 3 i =1 en ∆ X 2 i=0  de directe of netto impact van X 3 i op Yi: X2 i , X3 i Y i |¿ ¿ ∂E¿ β 3=¿ Zelfs als we enkel de directe impact (ß2) van X2i willen kennen moeten we X3i als controlevariabele opnemen  Wanneer we het volgende model schatten: Y i=α 1 + α 2 X 2 i +ϵ i α 2 (meestal!) een vertekende en inconsistente schatter voor is de KK schatter ^ ß2 o ß2 meet enkel de directe impact van X2i op Yi (i.e. X3i vast) o 2 meet zowel de directe als de indirecte impact (i.e. via correlatie met X3i) van X2i op Yi (i.e. X3i mag wijzigen onder invloed van de wijziging in X2i) Hoe kunnen we bij het bepalen van de netto impact van 1 variabele de impact van andere variabelen uitschakelen, i.e. deze andere variabele constant houden?  Via orthogonale projectie: Bepaling van de netto impact van X2i op Yi: Y i=β 1 + β 2 X 2 i + β 3 X 3 i+ μ i o Aangezien X 3 i (mogelijks) zowel Yi als X2i beïnvloedt moeten we eerst de invloed van X3i uit Yi en X3i verwijderen: 1. Invloed van X3i uit Yi verwijderen: Yi regresseren op X3i a.d.h.v. KK methode en uit deze hulpregressie de storingsterm te onthouden 2. Invloed van X3i uit X2i verwijderen: X2i regresseren op X3i a.d.h.v. KK methode en uit deze hulpregressie de storingsterm te onthouden 3. De partiële regressiecoëfficiënt wordt bekomen door de storingsterm uit (1) te regresseren op de storingsterm uit (2): μ1 i=a1 ^ ^ μ2 i+μ^ 3i μ3 i een schatter voor μi in met a1 een schatter voor ß2 en ^ de oorspronkelijke vergelijking Kleinste-kwadratenmethode:  Bovenstaande stappenbenadering is omslachtig  De parameters uit de SRF kunnen ook bekomen worden a.d.h.v. het KK criterium: 2 min ∑ ^μ i 







^ ß 1 ,^ ß2 , ^ ß3





^ o ß1 , ^ ß 2 en ^ ß 3 zijn dus geïdentificeerd 2 o + schatter voor de variantie van ^ ß1 , ^ ß 2 en ^ ß 3 en een schatter voor  Numerieke eigenschappen van de KK schatter ´Y =^ ´ 2+ ^ β 1 +^ β2 X β 3 X´ 3 1. ´^ ´ 2. Y =Y 3. ∑ ^μi = ^μ´ =0 4. ∑ ^μi X 2 i=∑ ^μi X 3 i=0 5. ∑ ^μi ^Y i=0 ´ X 2 i− X ¿ Variabele standaardiseren: X 2 i= se ( X 2i ) ^  β 1 wordt automatisch 0







 Standaardafwijkingen worden exact hetzelfde  Doel: variabelen uitdrukken in eenzelfde schaal (in standaarafwijking)  Maakt het mogelijk de impact van de verschillende variabelen te vergelijken Statistische eigenschappen van de KK schatter 2  KNLRM: Y i=β 1 + β 2 X 2 i + β 3 X 3 i+ μ i met μi NID(0, σ )  Met bijkomende veronderstellingen: o X2i en X3i zijn deterministisch (vast) o Het aantal observaties n is groter dan het aantal te schatten parameters k o Er is variantie in X2i en X3i o Er is geen perfecte multicollineariteit: |cor ( X 2 i , X 3 i )|=|r 23|≠ 1 Betekent dat er een exacte lineaire relatie bestaat tussen de verklarende variabelen (bv perfecte lineaire relatie tussen X2 en X3) Impliceert dat de parameters niet geïdentificeerd zijn (niet geschat kunnen worden) In de praktijk is er meestal een bepaalde graad van multicollineariteit: −1< r 23 < 1  Onder deze veronderstellingen zijn ^ β1 , ^ β 2 en ^ β 3 BUE en normaal verdeeld Andere functionele vorm: Polynomial regression models  Bv kostencurve heeft een U-vormig verloop  Stochastische specificatie: Y i=β 1 + β 2 X i + β 3 X2i + μi  Algemeen: een polynoom van de k-de orde: k 2 Y i=β 0 + β 1 X i+ β 2 X i +…+ β k X i + μi  Is KK methode is toepasbaar? o Specificatie is lineair in de parameters o Geen perfecte multicollineariteit: de relatie tussen X en X2 is niet lineair JA Meervoudige determinatiecoëfficiënt R2  Meet hoe goed de geschatte regressielijn past bij de steekproefgegevens door na te gaan in welke mate de variatie in Yi wordt verklaard door variatie in X2i en X3i  Vaststelling: R2 neemt automatisch toe met het aantal verklarende variabelen in het model o De R2-maatstaf kan niet gebruikt worden om modellen met een verschillend aantal verklarende variabelen te vergelijken o Aangepaste determinatiecoëfficiënt (adj R2) corrigeert voor het aantal verklarende variabelen (k) o of a.d.h.v. een F-test (later)

Hoofdstuk 8: Normaliteitshypothese en hypothesetesten  Hypothesetesten op individuele coëfficiënten:  t-test: meet de significantie van een individuele coëfficiënt op Yi  Hypothesetesten op meerdere coëfficiënten  F-test: o Gezamenlijke impact van alle coëfficiënten significant? Verklaart/ voegt uw model wel iets toe m.b.t. Y? H0: ß2= ß3 = 0 H1: ß2  ß3  0 (niet alle coëfficiënten zijn tegelijk 0)

Kan getest worden a.d.h.v. de analyse van de variantie (ANOVA) Verwerp H0 wanneer: F-statistiek > kritische waarde is ook een individuele significantietest voor de R2 2 R =0 → F=0 R2=1 → F = ∞ o Significantie van de marginale bijdrage aan de R2 van een variabele of een groep van variabelen Methode = sequentiële regressie: 1. Schat beperkt model en voeg dan variabelen toe 2. Is de toename in de verklaringskracht (ESS) significant? 3. Formule F-test! 4. Let op: volgorde waarin variabelen worden toegevoegd kan de resultaten beïnvloeden Voeg variabelen toe indien de ´R2 toeneemt  ´R2 stijgt als t-waarde van een nieuwe variabele >1 Significantietest gaat na of toename in R2 statistisch significant is o Testen van lineaire restricties Restrictie opleggen: Restricted model (H0) Vergelijk het model met en zonder restricties: is de daling in ESS, bij de overgang van UR-model naar R-model, significant? Formule o.b.v. ESS en R 2 enkel bruikbaar wanneer de afhankelijke variabele dezelfde is in beide modellen (R en UR) Berekeningswijze o.b.v. RSS altijd bruikbaar o Testen van de stabiliteit van de coëfficiënten Chow test: 1. Schat de verschillende modellen en bereken RSS1, RSS2, RSS3 2. Bereken RSSUR= RSS1+RSS2 en RSSR=RSS3 3. Bereken de F-statistiek  veronderstelt homoscedasticiteit!  Breekpunt moet gekend zijn Hoofdstuk 9: Regressie met dummy variabelen:  Kwalitatieve variabelen kunnen zonder probleem als verklarende variabelen in een regressie worden opgenomen  schatting o.b.v. OLS geen probleem  Indien een kwalitatieve variabele als te verklaren variabele wordt opgenomen zijn alternatieve schattingsmethoden aangewezen Deel 3: Afwijkingen van de veronderstellingen van het KNLRM: Inleiding:  Xi is een stochastische variabele:  Uit de veronderstelling dat Xi een deterministische variabele is volgt onmiddellijk zuiverheid van de KK schatter  2 gevallen: ∀i, j o Xi en j zijn onafhankelijk (strikte exogeniteit): E ( μi |X 1 , X 2 ,… , X n ) =0  KK schatter is nog steeds zuiver  KK schattter is nog steeds efficiënt

 







Schatter van de variantie is conditioneel op Xi KK schatter is niet normaal verdeeld (gewichten zijn stochastisch!) Asymptotische theorie: KK schatter tendeert naar de normale verdeling indien n → ∞ Normale verdeling wordt als benadering gebruikt in kleine (d.i. eindige) steekproeven  is dus slechts bij benadering correct, waarbij de benadering beter wordt naarmate de steekproef groter wordt o Xi en i zijn onafhankelijk ∀i (zwakke exogeniteit): E ( μi |X i ) =0  Vertraagde onafhankelijke variabele!  KK schatter is nu ook vertekend (niet zuiver)  Maar wel consistent: plim ^β 2= β 2 Als de steekproefomvang → ∞ dan ^β 2 → β2 consistentie is een eigenschap van 1 steekproef zuiverheid is een eigenschap over herhaalde steekproeven  en asymptotisch efficiënt en asymptotisch normaal verdeeld  KK blijft slechts bij benadering juist in kleine steekproeven i is niet normaal verdeeld  KK schatter is nog steeds BLUE echter niet langer BUE  KK schatter niet normaal verdeeld  Asymptotische theorie: KK s...


Similar Free PDFs