Documente Academic
Documente Profesional
Documente Cultură
fr
Introduction à l’Econométrie
M. Seyte
2014-2015
Frish (1933) : « C’est l’unification de la théorie économique, des mathématiques et des statistiques ».
En Angleterre se met en place l’arithmétique politique anglaise. Elle repose sur l’utilisation de
techniques statistiques pour les registres paroissiaux de mariages, décès, baptêmes. On fait des
tables de mortalité, et on calcule des espérances de vie.
http://eco.um1.free.fr
Remarque : Les anglais étaient plutôt dans des méthodes quantitatives, et les allemands des
méthodes littéraires.
King : Il est à l’origine de la première formalisation mathématique d’une loi de demande à partir de
données empiriques.
2. Au 19ièm siècle :
La genèse de l’économétrie se fait au milieu du 19° siècle avec Cournot et Walras. C’est le
développement de l’économie mathématique. On constate l’apport de la statistique mathématique
anglais avec l’analyse mathématique de la régression et de la corrélation.
Pearson : Il établit les liens entre le coefficient de corrélation multiple et le coefficient de corrélation
simple.
Lenoir (1913) : Le premier à expliquer et estimer les lois d’offre et de demande. Son approche essai
de lier l’économie mathématique, la statistique descriptive et la statistique mathématique.
Cela débute avec l’analyse du marché du travail de l’américain Moore qui s’intéresse aux problèmes
de détermination des salaires, des fonctions de demande, et des cycles.
Sa conception autorise l’appréhension des liens entre la théorie et les données. Sa conception
permet d’estimer, de tester les modèles et leurs hypothèses mathématiques.
Il tend à prouver que les mathématiques, la statistique, peuvent servir de révélateur empirique et
autoriser une interprétation concrète des phénomènes économiques.
Les conjoncturistes américains jouent un rôle essentiel dans la détection statistique des cycles. Il faut
observer, analyser et systématiser les phénomènes de crise, de prospérité, et de dépression. C’est
Juglar, Kitchin, Kondratieff.
http://eco.um1.free.fr
Aux Etats Unis, création en 1920 du NBER (National Bureau of Economic Research). Il est l’un des
principaux pôles voués à la recherche économique empirique aux Etats Unis.
Au début du 20ièm siècle, ce sont les économistes, hommes d’affaire et ingénieurs qui contribuent
progressivement à l’imbrication de l’économie, des mathématiques et de la statistique, pour donner
naissance à l’économétrie. C’est en Europe et aux Etats Unis que va éclore l’économétrie en tant que
discipline.
A la fin du 20ièm siècle, l’économétrie devient un centre d’intérêt en Europe sous l’impulsion de
Tinbergen et de Frish.
Frish se rend aux Etat Unis et y rencontre Roos, et leurs points de vue convergents vite sur la
nécessité de rapprocher l’économie, les mathématiques et la statistique. Ils sont à l’origine de la
création de la société d’économétrie le 29 décembre 1930 qui officialise l’économétrie en tant que
discipline.
Le premier président de cette société est Irving Fisher, et le premier colloque de cette société se tient
en 1931 à Lausanne.
Durant la même période, Cowles dirige une société spécialisée dans les conseils financiers et en
prévision boursières dans le Colorado. Après 1929, il a conclu que les prévisionnistes naviguent dans
le flou, et il rentre en contact avec la société d’économétrie, pour proposer 2 projets :
Frish accepte, d’où la création d’un organisme de recherche appelé : « Cowles Commission ». Cet
organisme crée la revue « econometrica » avec Frish comme rédacteur en chef. Le premier numéro
sort en janvier 1933.
Dans les années 30, la Cowles Commission étudie directement les phénomènes et combine des
mesures statistiques directes, d’économétrie, et des études formalisées de l’économétrie. Puis la
cowles commission va prendre de nouvelles orientations :
Avant 1930, la théorie des probabilités était quasiment inutilisée, et Haavelmo propose de donner
une dimension stochastique à l’analyse. Son apport : L’introduction des probabilités en économétrie.
Il essai de combiner :
Il a ouvert la voie à l’économétrie moderne, ses travaux marquent le début d’une nouvelle ère de
l’économétrie. La méthode du maximum de vraisemblance devient une méthode d’estimation et
d’inférence.
On arrive à l’âge d’or de la modélisation macroéconomique dans les années 1960. Son essor est
rendu possible grâce à Keynes et à sa théorie générale de l’emploi, de l’intérêt et de la monnaie.
Apparait à ce moment-là la comptabilité nationale dans les pays industrialisés.
Parallèlement à la probabilisation des modèles, la Cowles Commission préconise une approche plus
descriptive. La Cowles Commission en tant que telle disparait, et devient la Cowles Fondation, et est
transférée à l’université de Yale.
On introduit des mécanismes (variables retardées) dynamiques dans les modèles économétriques.
Cela permet de faire la distinction entre les effets de court terme et de long terme. On appelle ces
modèles des modèles à retards échelonnés (Koyck).
Se développent des méthodes sur les séries temporelles et en particulier les méthodes de prévision à
court terme (Box). Il propose d’utiliser des processus univariés pour réaliser des prévisions.
C’est avec le premier choc pétrolier que l’économétrie connait une nouvelle étape dans son
développement. Pourquoi ? Parce qu’il y a une rupture qui se produit et qui est lié au fait qu’il y a un
décalage entre les prévisions macro-économétriques et la réalité. Cela veut dire qu’il y a une remise
en cause de la modélisation macro-économétrique. En fait, il y a l’apparition de nouveaux modèles
qui introduisent les chocs, c’est une reformulation de tous ces modèles macro-économétriques avec
la construction de ce qu’on appelle des modèles VAR (vecteurs auto-régressifs) sous l’impulsion de
Sims. Et donc dans ces modèles, on introduit des ondes de choc (crises etc…), d’évènements
exceptionnels.
Ce sont des modèles ou il y a plusieurs équations, et où les variables qui expliquent peuvent devenir
la variable expliquée.
Le concept de causalité devient un concept clé à partir des années 80. Il y a deux types de causalité,
la causalité au sens de Sims, et la causalité au sens de Granger. La différence entre les deux c’est
qu’un tiens compte des valeurs passées sur une longue période, et l’autre sur les valeurs passées
mais sur une plus courte période.
La causalité : Quand on dit qu’une série cause une autre série, ça veut dire qu’un série a une ou des
incidences sur une autre. Les prix ont une incidence sur la demande…
A la même période apparaissent des tests de Racine Unitaire (Dickey Fuller) : Ca permet de voir si
une série est stationnaire ou non.
On développe aussi à cette époque les modèles ARMA (Auto régressif des moyennes)
Ces deux sont des processus auto régressifs, mais pas sur la même variable. Une régresse la variable
certaine, et l’autre régresse une variable aléatoire.
Modèles sur variable qualitative (modèles logit – probit). La variable expliquée est qualitative.
http://eco.um1.free.fr
Donc pourquoi on dit économétrie plurielle ? Parce qu’elle comprend de multiples branches a très
fort contenu (économétrie des séries temporelles, des variables quantitatives, des panels…).
Livres intéressants :
Johnston-Dinardo : « économétrie ».
Bourbonnais : « Econométrie » Dunod
Labrousse « Introduction à l’économétrie » Dunod (plus simple)
Greene « econometrie » (en anglais) De Boeck
Ce qui est important dans ce cours c’est de faire les applications, les exercices.
Un modèle c’est une représentation simplifiée mais la plus exhaustive d’une entité économique
donnée. Un modèle économétrique sous sa forme la plus courante est représenté comme un
système d’équation, le plus souvent linéaire, et ces équations relient deux types de variables :
C’est la théorie économique qui postule la forme et le contenu de l’équation, mais ça peut aussi être
l’observation empirique.
Dans ce cours on aura qu’une équation avec une seule variable exogène et une seule variable
endogène. La variable expliquée on la notera Y, et la variable explicative X.
Mais il faut savoir que toutes les formes non linéaire se ramènent à la forme linéaire par simple
transformation logarithmique. On appelle ça : transformation par anamorphose. Cela veut dire un
modèle non linéaire devient un modèle linéaire. C’est la raison pour laquelle on va étudier le modèle
linéaire simple, que l’on notera :
Y = α + βX
𝑌0
Fonction logistique : Yt = 1+ 𝛽𝑋 𝑡
X
http://eco.um1.free.fr
Il faut savoir que si on l’écrit de cette façon, on a ce qu’on appelle une relation exacte, or, en
économie, il est rare qu’on ait ce type de relation. Les relations exactes on les a surtout en
comptabilité nationale. Pour contourner ce problème, on introduit dans le deuxième membre de
l’équation un terme que l’on appelle alea pour « erreur ». Cet élément aléatoire va permettre de
synthétiser l’ensemble des influences sur Y que X ne peut expliquer.
Ce troisième terme est noté différemment selon les types de modèles. Il existe 3 types de modèles :
Les modèles de série chronologique (série temporelle) : Cela suit une évolution au cours du
temps. A ce moment la, les variables sont indexées en fonction du temps :
Yt = α + βXt + Ԑt (Ԑt = alea) et t varie de 1 jusqu’à n
Il faut bien retenir que cet alea permet de synthétiser l’ensemble des influences sur Y que X ne peut
expliquer à lui seul.
Cet alea rassemble un nombre important mais indépendant de fluctuations sans qu’aucune n’ai à elle
seule une importance par rapport aux autres, de telle sorte que cette variable puisse être assimilée à
une variable aléatoire obéissant à une certaine loi de probabilité.
On suppose que la variable X (qui est la variable explicative) est une variable contrôlée. Ça veut dire
qu’elle est indépendante de l’alea.
Donc dans notre modèle on a deux inconnues (α et β), et on va chercher comment les identifier.
Yt = α + βXt + Ԑt
http://eco.um1.free.fr
Il faut savoir que les valeurs calculées de 𝑌̂t ne coïncident pas avec Yt. L’écart entre les deux s’appelle
le résidu, et se note :
et = Yt – 𝑌̂t
Le problème statistique à résoudre c’est le calcul des paramètres α et β, connaissant les valeurs de Y
et Xt. Il existe 2 méthodes permettant le calcul de α et β :
Ces deux méthodes impliquent qu’un certain nombre d’hypothèses soient vérifiées avant l’utilisation
de l’une des deux.
Hypothèses :