Cours sur l’econometrie financiere
Cours sur l’économétriefinancière
Introductions
"S o if you do not accept the Gaussian distribution (i.e. if you have some ethics) AND do not "value" options in a axiomatized top-down fashion (i.e. only price them as some informed and temporary guess), then YOU ARE NOT USING THE BLACK SCHOLES FORMULA, but one of the modi cations of the one started by Bachelier (the latest contributer being Ed Thorp's). They did not ground their formula in the Gaussian."
Nassim Nicholas Taleb
Introduction de la deuxieme edition
Voici donc la deuxieme annee que j'enseigne ce cours, et de nombreuses choses ont change dans ma comprehension de la nance et de l'econometrie. Ces changements ont men a un remaniement complet du present polycopier et a l'apparition de TD associes a ce cours.
{ Un chap de rappels, reference.
{ Praise to Cochrane et Singleton. Ajout des GMM. { Chapitre sur les tests d'hypothese, peut etre
{ Chapitre sur les ARMA/GARCH : modelling the rst two moments + asymetrie. { Chapitre special GMM sur un modele d'equilibre tire du livre sur les GMM ou de
Cochrane.
{ ACP et multivarie.
{ Calibration d'un modele a vol stochastique ou d'un CIR par fonction caracteristique.
A ceci s'ajoute le memoire a rendre.
Introduction de la premiere edition
Ce cours s'inscrit dans le prolongement de l'U.V. MF 231 [Statistiques I : inference et estimation]. Il a pour but de presenter certains approfondissements autour des princi-paux themes de l'econometrie nanciere.
Il s'agit dans un premier temps de revenir sur le modele lineaire gaussien, dans sa ver-sion univariee et multivariee. On presentera quelques questions simples liees a l'inference statistique de ces modeles ainsi qu'a l'usage qui peut en ^etre fait : expliquer la dynam-qiue des series economiques/ nancieres et permettre la mise en oeuvre de previsions encadrees par des intervalles de con ance.
Il s'agit ensuite de presenter la base de la theorie des series temporelles : modele ARMA, GARCH et modeles a facteurs. La encore, la principale motivation sera l'inference ef-cace ainsi que la prevision.
La philosophie de ce cours se veut naturellement pratique : par la comprehension des modelisations et de l'inference, il s'agit de permettre la mise en oeuvre de ces modeles dans le cadre d'activites de marche sur la base de n'importe quel logiciel de program-mation. Une fois la programmation des procedures d'estimation comprise, il est relati-vement simple de mettre en place des estimations sous n'importe quel environnement. Il sera propose tout au long de ce cours des exemples de code R permettant de realiser les estimations proposees. R est certainement l'un des meilleurs logiciels de statistique disponibles sur le marche actuellement. Il s'agit d'un logiciel open-source : il est gra-tuitement telechargeable sur le site de ses developpeurs2. Le site fourni une series de manuels permettant une prise en main rapide et e cace du logiciel : il est conseill de se procurer Paradis (2005) ainsi Faraway (2002) sur le site (section manual puis contributed documentation).
Ces notes de cours s'appuient sur un certain nombre d'ouvrages de statistiques bien connus ainsi que sur d'autres notes de cours, qui seront citees a chaque fois. Nous y renvoyons un lecteur soucieux de depasser le niveau de cette introduction. La partie consacree au modele lineaire gaussien est grandement inspiree de Greene (2002). La par-tie consacree a l'etude des series temporelles est principalement inspiree de Cochrane (2005).
La lecture de ces notes de cours ce necessitent pas de connaissance mathematiques etendue : les seules connaissances necessaires sont des connaissances de base en algebre matricielle ainsi qu'en analyse (derivee et formule de Taylor pour la partie consacree a l'optimimsation). Quand des elements plus pousses sont necessaires, ils sont en general rappel avant utilisation. Dans cette mesure, ce cours tente de se su re a lui-m^eme et ne requiere pas de lectures annexes. A chaque fois que cela est necessaire, le lecteur soucieux d'approfondissements qui sont juges inutiles a ce niveau est renvoy a un certain nombre de references, citees en annexes. La plupart des references fournies sont par ailleurs des references gratuitement disponibles sur internet : un nombre croissant de profes-seurs/cherheurs proposent leurs notes de cours sur internet. Les liens sont generalement fournis sur la page web de mes enseignements (). Ces notes de cours ne sont bien entendu pas developpees integralement en cours : le chapitre 1 est notamment laisse de cote lors mes interventions. Il s'agit davantage de rappels que d'elements developpes en cours. Il en va de m^eme de certains passage du chapitre 2 : les eleves sont censes connaitre un certain nombre de resultats tires de l'econometrie basique (mco). Ces elements prennent la forme de rapides rappels en cours : il est necessaire de combler d'eventuelles lacunes par une lecture plus approfondies des pas-sages evoques.
En n, ces notes de cours sont certainement entachees d'inexactitudes ou d'erreurs.
Celles-ci sont entierement miennes : tout commentaires/signalement d'erreurs sont bien evidement les bienvenus. La qualite de ce polycopier ira croissante au l des ans : l'amelioration est naturellement un processus lent, lie aux reactions des eleves ainsi qu'a la croissance de mes propres connaissances en statistiques et en econometrie. J'espere ainsi que ces modestes notes de cours seront un jour su sament propres et documentees pour fournir in ne un manuel de base su sament rigoureux pour servir de base aux eleves de l'ESILV.
Chapitre 1 Rappels de mathematiques et probabilite
Cette premiere partie a pour but de revenir sur un certain nombre de concepts et techniques necessaires pour comprendre et implementer les di erentes methodes de l'econometrie de la nance. Il s'agit principalement de revenir sur un certain nombre de concepts de probabilites dans un premier temps (de nition d'une variable aleatoire, de ses moments et des distributions qu'il est possible de lui a ecter). Il sera ensuite question de revenir sur les concepts de convergence (presque sure, en probabilite et en loi), a n d'introduire la Loi des Grands Nombres (LGN hereafter) et le Theoreme Central Limite (TCL). En n, on nira par quelques elements de calculs matriciel.
Des variables aleatoires et des hommes
L'univers... et au dela
Soit = f!1; !2; :::; !ng un espace ni d'etats, representant les di erents etats possibles de la nature a un instant donne. On appelle cet espace l'univers des possibles. Cet es-pace est ni : il n'existe qu'un nombre limite d'etat atteignable par le cours du monde (du moins dans notre facon de le concevoir). Chaque evenement qu'il est possible de voir se realiser !i est appel evenement elementaire. Ces evenements elementaires sont incompatibles deux a deux. Tout sous-ensemble de est egalement appel evenement : il s'agit d'un evenement compose . On note par exemple A = f!2; !3; !10g, un sous ensemble d'evenement de . Il s'agit d'un evenement compose et A .
A chacun sa tribu
Parmi l'ensemble des sous-ensemble P( ), on s'interesse seulement a ceux qui sont dotes d'une certaine structure.
De nition 1.1.1 (Notion de tribu). On dit qu'une partie A de P( ) est une tribu si et seulement si elle veri e les trois proprietes suivantes :
2. Pour toute partie A de A, A 2 A.
3. Pour toute famille denombrable (Ai)i2I de A alors [i2I Ai est aussi un element de A.
…
Les exemples les plus courants de sigma-algebre sont :
{ A = f ; g est la tribu grossiere.
{ A = f ; A; A; g ou A est une partie de , est la tribu de Bernouilli.
{ A = P( ) est la tribu complete ou triviale. Globalement, deux types de tribu peuvent nous interesser :
{ A la tribu engendree la famille des singletons f!g de . Cette tribu est utile lors de la determination d'une loi de probabilite.
{ La tribu complete P( ).
Dans le cas ou est ni ou in ni denombrable (ce qui sera toujours le cas dans ce qui suit), alors ces deux tribus sont identiques.
De nition 1.1.2 (Espace probabilisable). Le couple ( ; A) est appel espace probabi-lisable. Dans le cas ou est ni denombrable, A = P( ).
Probabilites...
Maintenant que l'on a de ni la structure de l'univers dans lequel se deroule l'experience aleatoire qui nous interesse, reste a donner une forme au hasard. C'est ce qu'on appelle probabiliser l'espace probabilisable. Il s'agit simplement de de nir la probabilite qu'un evenement A 2 A survienne.
De nition 1.1.3 (Probabilite). P est une probabilite de nie sur l'espace probabilisable ( ; A) si et seulement si P est une application de A vers R qui veri e les proprietes suivantes :
- P (A) 1; 8A 2 A.
P ( ) = 1 (Axiome de normalisation).
Pour toute famille nie (Ai)i n d'evenements de A, deux a deux incompatibles, on a :
P | Ai = P (Ai) |
i=1 | i=1 |
(Axiome de simple additivite).
Pour toute famille denombrable (Ai)i2N d'evenements de A, deux a deux incom-patibles, on a :
P | Ai = P (Ai) |
i=1 | i=1 |
(Axiome de -additivite).
Le nombre reel du second membre est la somme de la serie de terme general P (Ai). Dans la mesure ou les termes de cette serie sont positifs et que la probabilite de l'union de n Ai est majoree par 1, cette serie est toujours convergente.
De nition 1.1.4. L'espace ( ; A; P ) est appel espace probabilise.
Ajoutons les deux de nitions suivantes :
De nition 1.1.5. On sait que P ( ) = 1, mais on peut trouver des evenements A 6= et tels que P (A) = 1. On dit que ces evenements sont quasi-certains ou presque s^urs. On sait que P ( ) = 0, mais on peut trouver des evenements A 6= et tels que P (A) = 0. On dit que ces evenements sont quasi-impossibles ou negligeables.
De nition 1.1.6. Deux distributions P et P 0 sont dites equivalentes si elles ont les m^emes negligeables.
De nition 1.1.7 (Espace probabilise). Le couple ( ; A; P ) est appel espace probabi-lise.
Notons nalement que la donnee d'une probabilite P sur un espace probabilisable est equivalent a la donnee d'une distribution de probabilite sur .
Variables aleatoires
Avec l'ensemble des elements precedents en t^ete, il est alors possible de tourner notre attention vers ce qui fera l'objet de ce cours : les variables aleatoires.
De nition 1.1.8. Toute application X telle que :
X : ! R
est appelee variable aleatoire, ou plus precisement variable aleatoire reelle.
Il est possible de generaliser le concept de variable aleatoire a celui de vecteur aleatoire : il s'agit d'une application quelconque de dans Rk. On de nit alors la distribution jointe du vecteur, au lieu de de nir la distribution d'une seule variable aleatoire. Notons que l'on note generalement X cette variable aleatoire et fx1; x2; :::; xng n realisations de cette variable aleatoire.
Les moments
Avant de s'interesser a la distribution d'une variable aleatoire, il existe d'autres quan-tites utiles a connaitre : les moments.
De nition 1.1.9. Le moment d'ordre k d'une variable aleatoire X est la quantite
E Xk = xkfx(x)dx
Le moment centr d'ordre k peut se calculer comme suit :
E (X E[X])k = (x E[x])k fx(x)dx
ou fx est la densit de probabilite de la variable aleatoire X. Cette densit est telle que :
P (i < X < i+) = Z | i+ | f(x)dx | (1.1) |
i |
On reviendra plus tard sur la de nition d'une densit . Le moment d'ordre 1 est l'esperance :
E [X] = xfx(x)dx (1.2)
Le moment centr d'ordre 2 est la variance :
V[X] = E (X E[X])2 = (x E[x])2fx(x)dx (1.3)
La variance mesure l'etalement de la distribution autour de l'esperance. En nance, c'est donc un indicateur de risque - risque de perdre autant que risque de gagner.
Le moment d'ordre 3 norme est la skewness ou coe cient d'asymetrie :
E (X E[X])3 | |||||
Sk[X] = | E [(X | E[X])2 | ]3=2 | (1.4) | |
Elle mesure l'asymetrie a gauche (negative) ou a droite (positive) d'une distribution. En n, le moment centr et norme d'ordre 4 est la kurtosis :
E (X | E[X])4 | ||||
Ku[X] = | E [(X | E[X])2 | ]4=2 | (1.5) | |
Elle mesure l'epaisseur des queues de distribution, et donc la possibilite de surve-nance d'evenements dits extr^emes. Ces quatre moments fournissent une information considerable sur la forme de la distribution d'une variable aleatoire. Il est egalement possible de calculer des moments entre variables aleatoires, ou d'un vecteur aleatoire.
La covariance est une mesure de dependance entre deux variables aleatoires. Soit deux variables aleatoires X et Y :
Cov(X; Y ) = (x E[x]) (y E[y]) f(x; y)dx; dy (1.6)
X(!) Y (!)
ou f(x; y) est la densit de la loi jointe de X et Y . Elle mesure la chance qu'on deux series d'evoluer de concert. Il est aise d'interpreter son signe, mais pas son amplitude. En normant la covariance par le produit des ecart-types de X et Y , on obtient une mesure dont il est aise d'interpreter la valeur : le coe cient de correlation. Il se calcule comme suit :
(X; Y ) = | Cov(X; Y ) | (1.7) | |
X Y |
(X; Y ) 2 [ 1; 1], ce qui rend son interpretation aisee.
Distribution, fonction de repartition et densit
Ces moments n'apportent cependant qu'une information partielle sur les distributions des variables aleatoires. Celles ci sont complement de nies par la distributions de proba-bilites. On ne revient pas ici sur les probabilites attachees a des univers ni (cas discret) : il ne sera ici question uniquement des univers in ni denombrables. Les distributions de variables aleatoires dans ce cadre sont approchees par la fonction de repartition et la densit des distributions.
De nition 1.1.10 (Fonction de repartition). Soit X une variable aleatoire de nie sur l'espace probabilise ( ; A; P ). La fonction de repartition notee F de cette variable aleatoire X est la fonction de R dans R de nie par :
8a 2 R; F (a) = P (X a)
Une fonction de repartition a les caracteristiques suivantes :
F est monotone croissante sur R.
F est une fonction continue a droite en tout point de R.
limx! 1 F (x) = 0 et limx!1 F (x) = 1
De nition 1.1.11. Une fonction f est une densit de probabilite si et seulement si elle possede les trois proprietes suivantes :
f est positive sur R.
f est continue sur R, sauf peut ^etre sur un ensemble ni de points D.
R11 f(x)dx = 1.
Notons qu'une densit n'est pas une probabilite : les conditions precedentes ne stipulent par exemple pas que f(x) 2 [0; 1], mais que f(x) est positive et que l'integrale sur l'univers est egale a 1. En revanche, la densit est liee a la distribution par la fonction de repartition, dans la mesure ou :
Z a
P (X a) = F (a) = f(x)dx;
ou f est une densit de X. En e et, tout autre fonction g de R dans R, qui coincide avec f sauf sur un ensemble ni de points de R est aussi une densit de probabilite de X.
On ne propose pas revue des principales distributions, dans la mesure ou il est aise de trouver ces informations sur Wikipedia.
Loi conditionnelle et lemme des esperances iterees
Un aspect particulierement important des distributions est la di erence entre une distir-bution non conditionnelle et conditionnelle. Tres classiquement, on presente rapidement le cas discret avant de passer au cas continu.
Supposons que l'on ait a aire a un groupe d'individu compose d'hommes et de femmes, de bons et de mauvais eleves. On peut s'interesser a la probabilite de tirer au hasard un bon eleve au sein de cette population, mais on peut aussi s'interesser au fait de tirer un bon eleve parmi les hommes. Il s'agit ici de la probabilite de tirer un bon eleve, sachant que l'on tire parmi les hommes. On parle dans ce cas de probabilite conditionnelle. On note :
P (X = ftirer un bon elevegjil s'agit d'un homme)
La regle de Bayes permet de faire le lien entre les probabilites conditionnelles et non conditionnelles :
De nition 1.1.12 (Probabilite conditionnelle). P (AjB) = P(A B) .
P (B)
De nition 1.1.13 (Regle de Bayes). P (AjB) = P(BjA)P(A)
P (B)
Dans le cas continu, il est possible d'obtenir une densit conditionnelle. Soit un couple de variables aleatoires (X; Y ) de nies sur un espace probabilise ( ; A; P ). Alors la densit de X sachant Y s'ecrit :
fX;Y fXjY =fY
A ceci s'ajoute une propriet importante : la loi des esperances iterees.
De nition 1.1.14 (Esperances iterees). Soit une variable aleatoire X sur un espace probabilise. Alors sont esperance peut ^etre calculee comme suit :
E[X] = EY [E[XjY ]] | (1.8) |
ou Y est une autre variable aleatoire par rapport a laquelle on conditionne.
Ceci vient du fait que :
E[X] = Z1 | xf(x)dx | (1.9) | |||
= Z1 | 1 | fX;Y (x; y)dydx | (1.10) | ||
1 | x Z | 1 | |||
= Z1 | 1 | fXjY (x)fY (y)dydx | (1.11) | ||
= Z1 | fY (y) Z1 | xfXjY (x)dxdy | (1.12) | ||
= EY [E[XjY ]] | (1.13) |
Ajoutons un petit theoreme tres utile : le theoreme de changement de variable.
Theoreme 1.1.1. Soit une variable aleatoire continue X, ayant fX (:) pour densit et soit le support de X suivant :
X = fxjfX (x) 0g | (1.14) |
Si h(:) est une fonction derivable et strictement monotone de domaine X et d'image U, alors U = h(X) a pour densit :
…
Fonction generatrice des moments et fonction caracteristique
Une autre facon de caracteriser les distributions est d'utiliser la fonction caracteristique et/ou la fonction generatrice des moments.
De nition 1.1.15. La fonction caracteristique d'une variable aleatoire X est la fonc-tion suivante :
(t) = E[eitX ] | (1.17) |
= E[cos(tX)] + iE[sin(tX)] | (1.18) |
Cette fonction est existe toujours. Elle caracterise entierement la distribution de X, ce qui en fait une contrepartie aux densites. Il sera ainsi possible de travailler a la fois en terme de densit ou de fonction caracteristique. De plus, il existe un lien entre ces deux fonctions :
Proposition 1.1.1. Soit X une variable aleatoire de densit fX (:). Alors :
1 | |
fX (x) = Z1 e itx (t)dt | (1.19) |
Notons ensuite que si X et Y sont deux variables aleatoires independantes, i.e. telles que fX;Y = fX fY , alors E[eit(Y+X)] = X (t) Y (t).
Exercice : determiner la fonction caracteristique d'une loi normale.
Il existe en n une version reelle de cette fonction caracteristique que l'on appelle fonc-tion generatrice des moments.
De nition 1.1.16. La fonction caracteristique d'une variable aleatoire X est la fonc-tion suivante :
(t) = E[etX ] | (1.20) |
On l'appelle fonction generatrice des moments du fait de la propriet suivante :
Proposition 1.1.2. Soit une variable aleatoire X de fonction generatrice des moments (t). Alors on a :
k (t) | ||||
E[Xk] = | @ | @tk | (1.21) | |
t=0 |
Exercice : determiner les deux premiers moments d'une loi normale a partir de la fonction generatrice des moments..
Le petit monde tres ferm des convergences
Cette section a pour but de presenter un certain nombre de rappels (appels ?) concer-nant les di erents types de convergence probabilistes. L'idee est ici de fournir les princi-pales intuitions necessaire a l'etablissement des di erentes versions de la loi des grands nombres ainsi que du theoreme central limite.
Convergence en probabilite et presque sure
De nition 1.2.1 (Convergence en probabilite). La variable aleatoire Xn converge en probabilite vers une constante c si
nlim P (jXn cj > ) = 0; 8 > 0: | (1.22) |
On note plimXn = c.
De nition 1.2.2 (Convergence presque sure). Soit (Xn)n1 une suite de variables aleatoires et X une v.a. de nies sur le m^eme espace probabilise ( ; A; P ). On dit que Xn converge presque surement vers X si l'ensemble des ! tels que Xn(!) converge vers X(!) a pour probabilite 1. On note :
p:s:
Xn ! X: (1.23)
La di erence entre ces deux convergences est que la convergence presque sure implique une convergence ! par !, sauf pour une poignee de ! qui sont negligeables. La conver-gence presque sure implique naturellement la convergence en probabilite (correspond au cas ou i = n).
La convergence en probabilite permet d'etablir di erentes versions de la loi faible des grands nombres.
Theoreme 1.2.1 (Loi faible des grands nombres de Khinchine). Si x1; x2; :::; xn est un echantillon aleatoire de n realisations i.i.d. issu d'une distribution de moyenne nie E[xi] = ; 8i, alors :
plim | xi = | (1.24) | ||
n |
i=1
Ce theoreme est particulierement important, dans la mesure ou il permet l'estimation des moments d'une distribution, pourvu que les conditions d'applicabilite du theoreme soient respectees. Une version plus forte de ce theoreme existe egalement, utilisant une convergence p.s. :
Theoreme 1.2.2 (Loi forte des grands nombres de Kolmogorov). Si x1; x2; :::; xn est un echantillon aleatoire de n realisations independantes tel que E[Xi] = i < 1 et
…
1.3. VOUS REPRENDREZ BIEN UN PETIT PEU DE CALCUL MATRICIEL ? 19
Convergence en distribution et TCL
De nition 1.2.4 (Convergence en distribution). On dit qu'une suite de variables aleatoires Xn converge en loi vers une variable aleatoire X, si la suite fFn(x)g converge en tout point x ou F est continue. On ecrit alors :
L | (1.27) |
Xn ! X |
Theoreme 1.2.3 (Theoreme central limite). Soit (Xi)i2N une suite de variables aleatoires independantes et identiquement distribuees, avec 8i; E[Xi] = m; V[Xi] = 2. On a alors :
1 | n | X | m | ! N(0; 1) | (1.28) | ||||
n | Pi | pn | |||||||
=1 | i | L | |||||||
Vous reprendrez bien un petit peu de calcul matri-ciel ?
Pour terminer cette section introductive, voici quelques rappels de calcul matriciel. On rappelle qu'une matrice M M(n p) est matrice telle que :
…
Une matrice carree est telle que n = p. Une matrice symetrique est une matrice carree telle que mi;j = mj;i; 8i 6= j.
Le rang (colonne) d'une matrice M(n p) est le nombre maximum de colonnes qui sont lineairement independantes les unes des autres. En notant r(A) le rang d'une matrice A qui soit une M(n p), il vient naturellement que :
r(A) min(n; p): | (1.30) |
Une matrice carre d'ordre n est non singuliere si son rang est egal a n (par exemple une matrice diagonale).
De nition 1.3.1 (Matrice inverse). Soit A une matrice carree d'ordre n. Son inverse, notee A 1 si elle existe, est la matrice de m^eme dimension telle que :
AA 1 = A 1A = I; | (1.31) |
ou I est la matrice identit .
Si la matrice A 1 existe, alors on dit que la matrice A est inversible. Cette matrice existe si et seulement si la matrice A est plein rang, autrement dit si la matrice A est non singuliere.
Dans ce qui suit, on suppose acquit les elements suivants : la somme de deux matrices, le produit de deux matrices, la trace d'une matrice ainsi que le determinant d'une ma-trice. On rappelle en revanche di erentes operations de di erenciation de matrices.
Table des matières
0.1 Introduction de la deuxième édition . . . . . . . . . . . . . . . . . . . . 7
0.2 Introduction de la première édition . . . . . . . . . . . . . . . . . . . . . 7
1 Rappels de mathématiques et probabilité 11
1.1 Des variables aléatoires et des hommes . . . . . . . . . . . . . . . . . . . 11
1.1.1 L’univers... et au dela . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2 A chacun sa tribu . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.3 Probabilités... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.1.4 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.5 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.1.6 Distribution, fonction de répartition et densité . . . . . . . . . . 15
1.1.7 Loi conditionnelle et lemme des espérances itérées . . . . . . . . 16
1.1.8 Fonction génératrice des moments et fonction caractéristique . . 17
1.2 Le petit monde tres fermé des convergences . . . . . . . . . . . . . . . . 18
1.2.1 Convergence en probabilité et presque sure . . . . . . . . . . . . 18
1.2.2 Convergence en distribution et TCL . . . . . . . . . . . . . . . . 19
1.3 Vous reprendrez bien un petit peu de calcul matriciel ? . . . . . . . . . . 19
2 Retour sur le modèle linéaire : cas univarié et multivarié 21
2.1 Le modèle de régression linéaire simple . . . . . . . . . . . . . . . . . . . 21
2.1.1 Les hypothèses du modèle linéaire simple . . . . . . . . . . . . . 22
2.1.2 Les moindres carrés . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.3 Analyse de la variance . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.4 Quelques tests liés aux MCO . . . . . . . . . . . . . . . . . . . . 27
2.1.4.1 Test de Fisher . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.4.2 Test de Student . . . . . . . . . . . . . . . . . . . . . . 28
2.1.4.3 Test de Durbin et Watson . . . . . . . . . . . . . . . . . 28
2.1.4.4 Les tests d’adéquation des résidus . . . . . . . . . . . . 29
2.2 Retour sur le maximum de vraisemblance . . . . . . . . . . . . . . . . . 30
2.2.1 Le principe du maximum de vraisemblance . . . . . . . . . . . . 31
2.2.2 Propriétés du maximum de vraisemblance . . . . . . . . . . . . . 33
2.2.3 EMV du modèle gaussien standard . . . . . . . . . . . . . . . . . 33
2.2.4 Les tests liés à la vraisemblance . . . . . . . . . . . . . . . . . . . 35
2.3 Prévision à partir du modèle linéraire multiple . . . . . . . . . . . . . . 36
2.4 Une calibration simple du CAPM . . . . . . . . . . . . . . . . . . . . . . 37
2.4.1 L’estimation de la relation du MEDAF par MCO . . . . . . . . . 37
2.4.2 Lien de l’estimateur MCO avec le beta financier . . . . . . . . . 38
2.4.3 Estimation de la SML . . . . . . . . . . . . . . . . . . . . . . . . 39
2.4.4 Calcul des alpha . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.4.5 Le R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.4.6 Code pour le CAPM . . . . . . . . . . . . . . . . . . . . . . . . . 40
3 Extensions du modèle de base 43
3.1 Modèle de régression non linéaire . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Les modèles à système d’équations . . . . . . . . . . . . . . . . . . . . . 46
3.2.1 Estimation par moindres carrés généralisés et quasi-généralisés . 47
3.2.2 MCO contre MCG et MCQG . . . . . . . . . . . . . . . . . . . . 49
3.2.3 Estimation de systèmes d’équation par maximum de vraisemblance 50
3.2.4 Retour sur l’estimation du MEDAF : implémentation des MCQG 50
4 Optimisation de fonctions à plusieurs variables par algorithme 55
4.1 Pour commencer... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2 Les méthodes du gradient . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.1 Quelques généralités pour commencer... . . . . . . . . . . . . . . 58
4.2.2 La méthode de la plus grande pente . . . . . . . . . . . . . . . . 59
4.2.3 La méthode de Newton-Raphson . . . . . . . . . . . . . . . . . . 60
4.2.4 Méthode du score et matrice BHHH . . . . . . . . . . . . . . . . 63
4.3 Estimations par algorithme aléatoire . . . . . . . . . . . . . . . . . . . . 64
4.3.1 Faire jouer le hasard . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.2 Moduler le hasard : Metropolis Hastings et le recuit simulé . . . 66
5 Introduction aux modèles de séries temporelles 69
5.1 Qu’est-ce qu’une série temporelle ? . . . . . . . . . . . . . . . . . . . . . 69
5.2 Les modèles ARMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2.1 Au commencement : le bruit blanc . . . . . . . . . . . . . . . . . 70
5.2.2 Les modèles ARMA de base . . . . . . . . . . . . . . . . . . . . . 71
5.2.3 L’opérateur retard . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.4 Manipulation les processus ARMA avec L . . . . . . . . . . . . . 72
5.2.5 AR(1) et MA(∞) par recursion . . . . . . . . . . . . . . . . . . . 73
5.2.6 AR(1) et MA(∞) avec L . . . . . . . . . . . . . . . . . . . . . . 73
5.2.7 Résumé des manipulations possibles de l’opérateur retard . . . . 73
5.2.8 La fonction d’autocorrélation . . . . . . . . . . . . . . . . . . . . 74
5.2.8.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.2.8.2 ACF des modèles MA(q) . . . . . . . . . . . . . . . . . 74
5.2.8.2.1 Bruit blanc . . . . . . . . . . . . . . . . . . . . 74
5.2.8.2.2 MA(1) . . . . . . . . . . . . . . . . . . . . . . 74
5.2.9 ACF des modèles AR(p) . . . . . . . . . . . . . . . . . . . . . . . 75
5.2.10 La fonction d’autocorrélation partielle . . . . . . . . . . . . . . . 76
5.2.11 Estimation et test des ACF et PACF . . . . . . . . . . . . . . . . 77
5.2.11.1 Fonction d’Autocorrélation . . . . . . . . . . . . . . . . 77
5.2.11.2 Fonction d’autocorrélation partielle . . . . . . . . . . . 79
5.2.12 Stationnarité des processus et théorème de Wold . . . . . . . . . 80
5.2.13 Estimation des processus ARMA . . . . . . . . . . . . . . . . . . 85
5.2.13.1 Estimation d’un AR(1) . . . . . . . . . . . . . . . . . . 85
5.2.13.2 Estimation d’un AR(p) . . . . . . . . . . . . . . . . . . 87
5.2.13.3 Estimation d’un MA(1) . . . . . . . . . . . . . . . . . . 88
TABLE DES MATIERES ` 5
5.2.13.4 Estimation d’un MA(q) . . . . . . . . . . . . . . . . . . 93
5.2.13.5 Estimation d’un ARMA(p,q) . . . . . . . . . . . . . . . 94
5.2.14 Critères de sélection de l’ordre des processus ARMA . . . . . . . 95
5.2.14.1 Tests sur les résidus . . . . . . . . . . . . . . . . . . . . 95
5.2.15 Tests sur les résidus ARMA . . . . . . . . . . . . . . . . . . . . . 97
5.2.15.1 Tests sur les résidus . . . . . . . . . . . . . . . . . . . . 98
5.2.16 La prévision à l’aide des modèles ARMA . . . . . . . . . . . . . 99
5.2.17 A vrai dire... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.2.18 Quelques applications de modèles ARMA . . . . . . . . . . . . . 102
5.2.18.1 Modélisation de l’inflation . . . . . . . . . . . . . . . . . 102
5.2.18.2 Modélisation du taux cible de la BCE . . . . . . . . . . 105
5.2.18.3 Modélisation de la volatilité implicite d’options sur DAX 107
5.3 Les modèles ARCH-GARCH . . . . . . . . . . . . . . . . . . . . . . . . 112
5.3.1 Présentation des faits stylisés en finance . . . . . . . . . . . . . . 112
5.3.2 Quelques mesures préliminaires de la variance . . . . . . . . . . . 113
5.3.2.1 La mesure high-low . . . . . . . . . . . . . . . . . . . . 113
5.3.2.2 Le carré des rendements comme mesure de variance . . 114
5.3.3 Présentation des modèles ARCH-GARCH . . . . . . . . . . . . . 116
5.3.3.1 Pour commencer... . . . . . . . . . . . . . . . . . . . . . 116
5.3.3.2 Introduction aux modèles ARCH-GARCH . . . . . . . 118
5.3.3.2.1 La cas d’un ARCH(1) . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.3.3.2.2 Les modèles ARCH(p) . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.3.3.2.3 Leptokurticité des processus ARCH(p) . . . . . . 121
5.3.3.2.4 Quid de l’asymétrie ? . . . 123
5.3.3.3 Les modèles GARCH . . . . . . . . . . . . . . . . . . . 123
5.3.3.3.1 Le cas d’un GARCH(1,1) . . . . 123
5.3.3.3.2 Les processus GARCH(p,q) . . . . . . 125
5.3.4 Inférence des modèles ARCH-GARCH . . . . . . . . . . . . . . . 125
5.3.4.1 Le cas d’un ARCH(1) . . . . . . . . . . . . . . . . . . . 125
5.3.4.2 Le cas d’un GARCH(1,1) . . . . . . . . . . . . . . . . . 128
5.3.5 Premières Applications . . . . . . . . . . . . . . . . . . . . . . . 129
5.3.5.1 Etude de la volatilité sous-jacente de l’indice DAX . . . 129
5.3.5.2 Formule de Black Scholes avec processus GARCH : version ad-hoc . . . . . . . .. 132
5.3.5.3 Prévision de la volatilité et ses usages . . . . . . . . . . 133
5.3.5.3.1 La VaR . . . 135
5.3.5.3.2 Calcul de la VaR à l’aide de modèles GARCH 137
5.3.5.3.2.1 VaR dans le cas univarié . . . . . . . 138
6 TABLE DES MATIERES `
5.3.5.3.2.2 VaR dans le cas bivarié : VaR par simulation . . . . . . . . . 141
5.3.6 Bestiaire des GARCH . . . . . . . . . . . . . . . . . . . . . . . . 144
5.3.6.1 GARCH-M . . . . . . . . . . . . . . . . . . . . . . . . . 145
5.3.6.2 GARCH intégrés . . . . . . . . . . . . . . . . . . . . . . 148
5.3.6.3 GARCH asymétriques . . . . . . . . . . . . . . . . . . . 152
5.3.6.4 Modèle GARCH de Heston . . . . . . . . . . . . . . . . 154
5.3.7 Modèles exponentiels . . . . . . . . . . . . . . . . . . . . . . . . . 156
5.3.7.1 Le modèle EGARCH . . . . . . . . . . . . . . . . . . . 156
5.3.7.2 Les modèles à volatilité stochastique . . . . . . . . . . . 157
6 Boite à outils statistiques 159
6.1 Méthodes non-paramétriques et application . . . . . . . . . . . . . . . . 159
6.1.1 Introduction aux méthodes non paramétriques . . . . . . . . . . 159
6.1.2 Estimateurs à noyau . . . . . . . . . . . . . . . . . . . . . . . . . 160
6.2 Analyse des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
6.2.1 Analyse en composante principales . . . . . . . . . . . . . . . . . 162
6.2.2 Applications : les facteurs de la courbe des taux . . . . . . . . . 166
Bibliographie 171