Économétrie appliquée à la finance PDF

Title Économétrie appliquée à la finance
Course Econometrie Des Données Transversales
Institution Université d'Angers
Pages 24
File Size 1.3 MB
File Type PDF
Total Downloads 107
Total Views 132

Summary

Quelques notes d'économétrie du cours dispensé au second semestre de licence 3 du parcours économie de la faculté. ...


Description

E c e modèle de régression multiple o (rappels) n o othèses de base m é tr ie ε Y et X ariables, Y et de nombreuses X

posée non aléatoire, si la variable devient aléatoire, cela veut dire t à supposer que les valeurs sont décidées par l’expérimentateur que X prend au moins deux valeurs distinctes. aie quelques soient les circonstances. ne théorie de l’erreur, on s’intéresse aux résidus. Ce qui est variance des résidus, c’est donc l’hypothèse H2. n) vérifient les trois conditions suivantes :

1) L’espérance mathématique est toujours égale à zéro. 2) L’espérance mathématique d’Epsilon carré doit être strictement positive avec sigma constante et indépendante. 3) L’espérance du produit Epsilon n x Epsilon m = 0, ! La covariance entre les résidus doit être nulle ! Il n’y a pas d’autocorrélation des résidus. On dit alors que les résidus sont centrés (1), homoscédastiques (2) et non corrélés (3). De tels que résidus sont qualifiés de « Bruit Blanc ». Lorsque l’on parle de bruit blanc, on dit qu’un résidu est stationnaire.

Remarque : Si la variance des résidus n’est pas constante, on dit que les résidus sont hétéroscédastiques (CF. Chapitre 4). H3) Les résidus obéissent à une loi normale I.E.

On a démontré que les résidus suivent une loi normale de paramètre 0 pour la moyenne, et de l’écart type (que sigma et non sigma carré) On dit aussi que les résidus sont IID (indépendants et identiquement distribués). Dans le cas multiple on ajoute les hypothèses suivantes :

X est ici une matrice, ou un vecteur. Le N c’est la taille d’échantillonnage que l’on peut aussi remplacer par T. k c’est le nombre de variables exogènes. La constante est comprise dans le k. Lorsque une matrice est de rang k ( X = k ), cela veut dire que le déterminant est différent de 0, et donc on peut inverser la matrice. Si le déterminant est égal à 0, on a une multi colinéarité, et on ne peut pas inverser les matrices. Cette dernière hypothèse garantie la non-colinéarité des observations.

Section 2 – Présentation du modèle multiple 1. Les variables Nous pouvons représenter le modèle de régression multiple en écrivant une série de N équations (Si N représente le nombre d’observations et k le nombre de variables exogènes) :

Ces équations sont mises sur Excel. Par défaut la constante sera égale à 1. Les X sont en majuscules, et le y est en minuscule. La formulation matricielle correspondante du modèle est donnée par :

Résidu : Epsilon en minuscule Ici, on a réintégré la constante. Le bêta, c’est la constante, et les autres variables sont à gauche.

Vecteur (matrice) de y et X. Il faut toujours une constante. Pourquoi ? Elle représente tout ce que nous ne savons pas exprimer. Est-ce que cette constante doit être significative (différente de 0) ou pas ? Elle ne doit pas être significative (dans le principe), si elle est significative, cela veut dire qu’on a oublié quelque chose. Ex : on a trouvé toutes les variables qui expliquent la consommation. Si elle est différente de 0, alors il y a des éléments manquants.

Lorsque l’on a une équation de prix, il n’y a cependant pas de constante. Pourquoi ? Car un prix c’est les coûts de production x un coefficient, donc il n’y a pas d’autres éléments qui rentrent en compte.

Section 3 : les formules des moindres carrés ordinaires (OLS) 1. Estimation du vecteur Bêta Moindre c’est pour minimiser, et ordinaire c’est pour la formule de base. Il existe des millions de méthodes d’estimation. Soit le modèle de départ (1.1) :

Notre objectif est de trouver un vecteur de paramètres résidus (RSS en anglais) suivante :

qui minimise la somme des carrés des

Première partie de l’équation est une régression linéaire simple (sommes des résidus), et deuxième partie régression linéaire multiple (produit des vecteurs).

Nous obtenons :

La matrice X’X est appelée matrice du produit-croisé. Celle-ci-dessus est la matrice du produit croisé des observations. Il existe aussi celle des résidus. Les deux nous donnent des observations très importantes. est indispensable, mais ce n’est pas le but en économétrie. Le but est la variance des résidus.

2. Estimation de la variance des résidus La variance des résidus est donnée par la formule :

T – K est appelé les degrés de libertés (DDL). Cela nous indique que l’on a calculé au préalable k estimations. Que nous pouvons transformer en :

NB : (1.5) peut aussi s’écrire :

La variance, c’est la mesure de la dispersion autour de la moyenne. Ici, la moyenne des résidus, par définition, est 0, on va essayer de représenter le graphique avec la dispersion autour de 0. Pour avoir on « bon modèle », il nous faut une variance faible, voire très faible, donc une dispersion faible autour de 0. La dispersion doit être faible, mais de quel ordre ? On ne peut pas répondre à cette question, mais on fera des tests.

3. Propriétés statistiques des estimateurs des OLS Ces propriétés sont résumées par le théorème des GAUSS-MARKOV :

Quel que soit la formule que l’on va utiliser, les OLS seront toujours de variances minimales. On résume cela par le terme BLUE (BEST LINEAR UNBIASED ESTIMATOR). Les trois caractéristiques principales d’un estimateur sont : l’absence de biais, la consistance et l’efficience. Un estimateur est consistant si sa limite en probabilité tend vers la vraie valeur du paramètre I.E. quand la taille de l’échantillon tend vers l’infini. L’estimateur c’est la méthode que l’on utilise. Concrètement nous avons :

C’est-à-dire que l’estimation est égale à la vraie valeur. Lorsque l’on fait une estimation, on suppose que la taille de l’échantillonnage est supérieure ou égale à 30.

Si la variance des estimateurs est donnée par :

Ici c’est la variance des estimateurs. Alors

On a là un autre estimateur.

Illustration

On renomme les années 1, 2, 3 etc … C’est un modèle keynésien.

Ecriture matricielle du tableau excel : Ici, pas de valeurs pour les résidus, car ce sont les valeurs que l’on doit trouver.

Avec

Variance of residuals : variance des résidus Std. Error of regression : écart type de la variance

Quand N>30, on compare le seuil critique de 1.95 t-statistic : 1.97 ça passe 7.24 aussi 1.67 non Donc les prix devraient être enlevés comme variables exogènes. Mais, proche du seuil 1.95, donc je la garde quand même. En série temporelle, on peut descendre jusqu’au seuil 1.30. En dessous, on enlève la variable. P-value : < 0.05 : significative Ex : prix : 0.118 > 0.05, donc significative Mais je la garde quand même car voir ci-dessus. Quand les prix augmentent, la consommation augmente. (voir colonne coefficient) La constante doit toujours être significative. La variance des résidus (variance residuals), je n’ai rien à dire. Qu’elle prenne la valeur 33 ou autre, c’est la même chose (sauf si elle est égale à 0).

Chapitre II – Les méthodes de prévisions Section 1 : Formules On a observé l’équation (1.1) :

En se donnant obligatoirement une matrice de variables exogènes supplémentaires : X0 (déterminé par nous-même), on veut connaître la valeur y correspondante. Cette dernière se note y* (une prévision). On la calcule de la manière suivante :

Pour rester dans le cadre standard des OLS on va supposer :

L’espérance mathématique des résidus initiaux et des résidus additionnels est égale à 0.

Le rang de X est toujours égal à k. Du modèle (1.1) on va pouvoir trouver OLS (ou prévision ponctuelle) :

On va avoir une différence entre le passe.

OLS, ce qui nous permettra de définir le prédicteur des

qui est connu, et le Y* pour lequel il faut attendre que le temps

Bien entendu, il va y avoir une différence entre la prévision et le prédicteur. Cette différence se nomme l’erreur de prévision :

C’est la différence entre Y* que l’on ne connait pas et

Y^* est une prévision ponctuelle. L’erreur de prévision est Z, comme le résidu, qui est égale à l’équation ci-dessus. Section 2 : propriétés du prédicteur Le prédicteur des OLS est :  1) Linéaire  2) Sans biais : (formule 2.4)  3) de Variance : (2.5) La valeur de l’erreur de prévision (Z), on ne peut pas la calculer, on peut calculer sa moyenne E(Z), ou sa variance Var(Z). Ito : matrice d’identité Section 3 : Intervalle de prévision Les hypothèses génériques des OLS nous fournissent la loi de Z : (2.6) NB : C’est une loi normale si l’échantillon est supérieur à 30, sinon c’est une loi de student. Ici Z suit donc une loi normale. (2.7) t alpha, au seuil 5%, est égale à 1.96 en valeur absolue, pour N > 30 Interprétation : Il y a 95% de chances pour que la vraie valeur (y*) de la prévision appartienne à cette intervalle de confiance. NB : Il ne faut pas que le 0 intervienne dans cet intervalle de confiance Ex : intervalle [-2 ;2], il vaudrait mieux changer de modèle, par exemple ]0 ;2] Section 4 : Tests sur la prévision Soit Yo donné (ici par exemple prenons 0.3), on veut tester : H0 … H1 … Supposons que Y* soit égale à 2. On fait des prévisions avec le modèle, et on voit si la valeur est la même ou différente.

C’est-à-dire : peut-on accepter Yo comme prévision ? Formons la statistique : (formule 2.8) Statistique de test : petit f : ce que l’on calcul Lorsque l’on divise deux Khi deux entre elles, cela nous donne le Fisher. Pourquoi le numérateur et dénominateur suivent une Khi deux ? Dès que dans une formule on a une variance, la variance des résidus, c’est automatiquement Khi deux. Si on a pas de Khi deux, cela peut être une normale ou une student. Quels sont les degrés de libertés ? Ce sont To et T-K. La procédure de test est toujours la suivante : (à encadrer en rouge) - si f > …. 1/T-K sont les degrés de libertés. La Khi deux à 0 degrés de liberté. La student et fisher ont respectivement 1 et 2 degrés de libertés. Section 5 : La fiabilité de la prévision On mesure la performance du modèle en comparant les données observées et les données prédites, un (principal) indicateur de performance est fourni par le RMSE (ROOT MEAN SQUARE ERROR) : (formule 2.9) (En valeurs absolues) C’est une variance. Y^et Y, on peut les remplacer par Epsilon. Puisque c’est une variance, le RMSE mesure la déviation de la variable prédite par rapport à son entier historique. Pour que cette déviation soit la plus faible possible, il faut que le RMSE soit le plus petit possible (compte tenu de l’ordre de grandeur de la variable). Nous pouvons aussi calculer le RMSPE (ROOT MEAN SQUARE PERCENT ERROR). (2.10) (En valeurs relatives) Ici c’est la variation relative qui nous intéresse. Etant donné que c’est une variance, elle va de 0 à l’infini. Comme A^ et B^, ce ne sont pas ces valeurs qui m’intéressent, mais le fait de tester ces prévisions. Toutefois, le coefficient d’inégalité de THEIL reste la meilleure mesure de la fiabilité : (2.11) Au dénominateur, on a la somme des Y observés au carré, + la somme des y^ au carré. Au numérateur, le RMSE. Il permet de juger si le modèle prédit bien les points de retournements : U e [0.1] Si U = O, il y a un ajustement parfait entre les deux séries. Si U = 1, alors la performance prédictive du modèle est mauvaise.

Si la valeur est égale à 0.5, que faisons-nous ? Si on a une équation de comportement fiable (consommation en fonction du revenu, autrement dit, que la théorie l’a bien prévue), si on trouve 0.5, alors c’est valable. Si on a une équation de comportement non fiable (ex : chômage qui n’est pas déterminé par une seule variable exogène), alors si U = 0.5, c’est bien aussi. On peut décomposer U en trois éléments en utilisant la décomposition suivante : Formule Somme 1/T … Cette somme ce décompose en un carré, la différence des écarts types, et Rhô : le coefficient de corrélation entre Ya et Y. On décompose U en 3 éléments : U^m : très important : Représente la part du biais. Il indique s’il existe un biais systématique entre les valeurs simulées et les valeurs actuelles. Une valeur proche de 1 indique un biais, il faut alors revoir le modèle. U^S : représente la part de la variance. Il indique la capacité du modèle à reproduire la variance des endogènes. Une valeur élevée indique que l’une des deux séries fluctue plus que l’autre. U^C : Représente la part de la covariance. Il indique les erreurs restantes c’est-à-dire les erreurs non systématiques, les erreurs sans conséquence. Pour un ajustement parfait, nous devons avoir : U^M = U^S = 0 U^C = 1 Avec : U^M = … U^S = … U^C = … (voir pyramide importance des tests) Cela veut dire que le T ratio peut ne pas être totalement significatif, car en bas de la pyramide, ce ne sont pas les tests les plus importants. Cette pyramide est valable pour la macro et la finance, mais pas valable pour la régression non linéaire (pas de r² ….), données de Panel, et etc … Illustration a) Prévision ponctuelle Tous les logiciels que nous allons utiliser sont atemporels et a-unité. (Nous n’avons pas à rentrer les dates et les unités). (voir cours …) b) Vâr (Z) : variance estimée de Z Vâr (Z) = 72.82

On ne peut pas commenter ce résultat  La variance estimé de Z est de 72.82. L’écart type est de 8.53 (racine carré de la variance). Là encore, on ne peut pas commenter. Ici, valeur 2.16 et non 1.96 car nombres de valeurs < 30. Les logiciels, par défaut, nous donne des valeurs au seuil de 5%. Ici, on est au seuil 1% IP 99% = ….

c) Si le modèle reproduit bien le passé, alors il y a de fortes chances pour que le modèle prédise bien le futur. RMSE : 5.18 Je ne sais pas quoi en dire, est-ce fort ou faible ? Par contre, RMSPE : 0.305 Soit 3.05% d’erreur. Ce qui est très correct. U=… U tend vers 0, donc il y a un ajustement parfait entre les deux séries. On cherche UM, US et UC. UM et US valent 0. UC = 0.997. Le modèle est totalement fiable.

Chapitre III – L’inférence statistique (TESTS) L’autre nom des tests, c’est l’inférence. Section 1 : Tests de combinaisons linéaires de Bêta Les tests se présentent sous la forme suivante : Ho : … H1 : … On choisit do, ou on nous l’impose. Donc le Bêta est connu, le 0 est connu et le D est connu mais il faut le mettre sous une certaine forme. On calcule la statistique suivante : (3.1) f = … Le petit f est une distance entre la réalité et l’estimation, le but est de minimiser cette distance. La procédure de test est : Si f > F(p, T-k)  H1 est acceptée Si f < F(p, T-k)  H0 est acceptée

Pour certaines applications, réecrivons (3.1) sous une autre forme. Nous avons alors : f=… (3.2) … RSS : Residuals Sum Squared (SUM OF SQUARED RESIDUALS) ou somme des carrés des résidus RSS * : RSS de la régression non contrainte RSS : RSS de la régression contrainte La procédure de test est identique : - si f > F(p, T-k)  H1 est acceptée - si f < F(p, T-k)  H0 est acceptée Application : la fonction Cobb-Douglas Tout ce qui est multiplicatif ou division, c’est linéaire, on le linéariser. Tout ce qui est – ou +, on ne peut pas le linéariser. Qt= … Linéarisons en prenant les logarithmes népériens : LnQt = ... En France, on a le log et le Ln. En anglais sur les logiciels, on n’a pas le Ln, il faut faire la touche Log. Faisons un changement de variables : Yt = … Nous allons tester si (a + b = 1). Formons la statistique : H0 … H1 … Je retranscris sous forme matricielle ou vectorielle le B, le grand D, et le do. Le p, c’est le nombre de tests, le nombre de combinaisons linéaires dans l’hypothèse. C’est-à-dire …. (3.3) Section 2 : Le test de CHOW (CHOW test 1960) Ce test permet de vérifier la stabilité des coefficients (un-certains-tous) d’un modèle à travers le temps (soit entre le temps : séries temporelles, soit entre des pays ou des personnes : coupes transversales), entre différentes périodes … Ce test a pour ambition de vérifier les changements structurels dans une économie. Pour cela, considérons par exemple, un modèle de régression à deux régimes : 1er régime … Qui va de 1 jusqu’à T* (T doit être > à 30) 2ème régime De T+1 jusqu’à T.

Si l’économie a changé de structure en T*, alors les coefficients auront une valeur différente avant T* et après T*. Le nombre de T* déterminé par qui ? Le logiciel ou l’économètre ? Pour le moment, on ne sait pas. Le test de Chow n’existe pas pour les données financières. Le test de Chow se fait en deux étapes : Etape 1 : L’estimation Nous devons estimer un modèle non contraint de la forme (cas à deux variables) : Y1 … Y2 … On applique ensuite la formule des OLS (1.3) : (B^1)… (B^2)… Le 1 correspond à la première période, le deux à la deuxième. B^1 … B^2… Nous obtenons des OLS appliqués sur deux équations séparées. On a de ce fait « emboîté » deux modèles en un seul. Cela ne modifie pas la valeur des paramètres. Seule la valeur de sigma² vont etre modifiée. Dans le cas classique, nous avions : (formule) Ici c’est dans le cas standard, un seul modèle. Y’ est la transposée. Ici la formule devient : (formule) La somme des carrés des résidus du modèle complet est égale à la somme des carrés du modèle 1 et du modèle 2 aux degrés de liberté près. Ici le 2 c’est le nombre de sous-périodes dans cette équation. Etape 2 : Les tests On veut tester : … H0 … H1 … C’est-à-dire, les coefficients ont-ils changé au cours du temps ? Bêta 1 est-il égal à Bêta 2 ? Ce test se présente sous une forme connue de la forme : H0 … H1 … La statistique de test (3.1) va alors s’écrire : (3.5) …

La procédure de test est : - si f > F (k, T-k)  H1 est acceptée - si f < F (K, T-k)  H0 est acceptée (3.5) peut aussi s’écrire sous la forme équivalente suivante : (3.6) … Le test de Chow est un test théorique. Avec : RSSinc : RSS de la régression non contrainte RSSc1 : RSS de la régression contrainte N°1 RSSc2 : RSS de la régression contrainte N°2 La suite du test de Chow s’appelle le test de la somme cumulée et la somme cumulée au carré. Section 3 : Le test du CUSUM et CUSUMSQ Le test CUSUM (à l’inverse du test de Chow) permet d’examiner la stabilité d’une régression sans connaître la date de la rupture (T*) mais il n’est pas aussi efficient qu’un test de Chow. Toutefois, il est très utilisé. Mise en œuvre du test : Cf. Brown-Durbin-Evans (1975) 1) Test H0 : Le vecteur Bêta reste inchangé sur toute la période H1 : Le vecteur Bêta est différent 2) Les calculs Etape 1 : Calcul des résidus récursifs On débute l’estimation avec k+2 premières observations, ensuite avec k+3 …. Jusqu’à k+N. On calcule à chaque fois les résidus avec la formule suivante : Wt … Etape 2 : calcul du cusum et cusumsq … Etape 3 : calcul d’intervalles de confiance … 3) La procédure : Si les coefficients sont stables au cours du temps alors les résidus récursifs doivent rester à l’intérieur des intervalles de confiance précédents. Exemple graphique … Ici rupture dès lors que la courbe rouge coupe la courbe verte & rose pour le deuxième. (les tracer) Puis observer les dates de ruptures sur l’axe des abscisses.

Le test de Chow minimise les dates de ruptures, par contre, les tests de Cusum et CUSUMSQ maximisent les dates de rupture. On prend donc les éléments identiques entre les deux graphes. Section 4 : le test de causalité de granger (1969) 4.1. Présentation du test Le test de granger est un test permettant d’indiquer le sens de la causalité entre deux variables uniquement (si on a 300 variables, on fait les possibilités 2 à 2). En d’autres termes, il permet de de définir les variables qui sont endogènes et les variables qui sont exogènes. Par exemple X granger cause Y veut dire que la variable X explique la variable Y. La variable X est de ce fait la variable exogène. On utilise de préférence ce test lorsque nous sommes en présence de la théorie dite de la « boite noire » . Les test se présente sous la forme H0 : Bj … L’hypothèse nulle signifie que X ne granger-cause pas Y. 4.2. construction du test 1ère etape : on estime le modèle contraint : Yt = … Yt : l’endogène Yt-i : La variable endogène retardée explicative, c’est donc une variable exogène, mais qui a des propriétés différentes de la matrice X Concrètement, le Yt dépend de ses retards, donc du passé Ex : le taux de chô...


Similar Free PDFs