Documente Academic
Documente Profesional
Documente Cultură
• BILAN/ESSAI
du développement*
Abhijit V. Banerjee
Esther Duflo**
*
Cet article est une traduction de l’article « The Experimental Approach in Development
Economics », Annual Review of Economics, volume 1, numéro 1, p. 151-178, 2009.
La traduction a été révisée par Hélène Giacobino et Esther Duflo.
Nous remercions Guido Imbens pour les nombreuses conversations très utiles que nous
avons eues ensemble, et James J. Heckman pour les commentaires détaillés qu’il a fait
à la lecture de la première version de cet article.
**
Department of Economics and Abdul Latif Jameel Poverty Action Lab, Massachusetts
Institute of Technology, Cambridge, Massachusetts. Email : banerjee@mit.edu,
eduflo@mit.edu
1. Introduction
1. L’approche inverse, c’est-à-dire celle qui consiste à passer d’une intervention à la fois au
programme complet peut également être adaptée dès lors que vos antécédents montrent
que certaines combinaisons vont fonctionner, alors que l’alternative est meilleure si, d’une
manière générale, vous êtes sceptique.
Ils ont travaillé avec Sendhil Mullainathan afin d’identifier des moyens per-
mettant de motiver les enseignants. Une idée a consisté à fournir un carnet
à tous les enfants en leur demandant d’y inscrire tous les jours ce qu’ils
avaient fait à l’école. Les jours où l’enseignant – ou l’élève – était absent, la
page restait blanche ou la date était barrée. Les parents devaient regarder ce
carnet une fois par semaine. Les chercheurs espéraient ainsi pouvoir aider
les parents à prendre la mesure de l’absentéisme des enseignants et des
enfants. Cependant, cette approche a échoué : les parents avaient au départ
une si piètre opinion de l’école que la mise en place du carnet a eu plutôt
tendance à les persuader que quelque chose de bien s’y passait, quelque
soit le nombre de jours d’absence. Les parents des écoles « avec carnet »
avaient donc une meilleure opinion de l’école que les parents des écoles
« sans carnet », et aucun impact n’a été constaté sur l’assiduité des ensei-
gnants. Pour autant, les carnets ont été très appréciés par les élèves et par
les professeurs et le fait de les utiliser a poussé les enseignants à travailler
plus. Les résultats aux examens se sont améliorés dans les écoles « avec
carnet ». Il apparaît donc que si les carnets ont échoué en tant qu’outil
permettant d’améliorer l’assiduité des enseignants, ils se sont révélés utiles
en tant qu’outil pédagogique. Dans la mesure où cette hypothèse n’avait pas
été envisagée dans le protocole expérimental de départ, il est possible que
ces résultats ne soient qu’un accident statistique. C’est la raison pour la-
quelle Seva Mandir va désormais mettre des appareils photo en place dans
toutes ses écoles (après plusieurs années, ils continuent à avoir un impact
important sur l’assiduité et sur les résultats aux examens), tout en menant
de nouvelles expérimentations avec des carnets afin de voir si les résultats
pédagogiques persistent.
Une conséquence importante de ce processus a été la prise de conscience
croissante, au sein de la communauté scientifique, du fait que l’un des
éléments les plus importants de l’approche expérimentale est sans doute de
pouvoir faire varier les paramètres d’un traitement d’une manière aidant à
répondre à des questions conceptuelles (et pertinentes d’un point de vue
politique) auxquelles il n’était pas possible de répondre de manière fiable
par d’autres moyens2. Berry [2008] présente une illustration intéressante.
Les incitations basées sur l’assiduité et sur les résultats sont très répandues,
mais on ne sait pas clairement si ces incitations doivent cibler les enfants
(comme dans les programmes évalués par Angrist et al. [2008] et par An-
grist et Lavy [2009]) ou les parents (comme dans Kremer et al. [2007]). Si les
parents étaient capables de motiver les enfants, ce choix n’aurait pas d’im-
portance, mais dans le cas contraire, il est possible qu’il soit très important.
C’est pour répondre à cette question que Berry a conçu un programme dans
les bidonvilles de Delhi, où les élèves ou leurs parents recevaient des inci-
2. Cette souplesse n’est bien entendu pas sans limites. Les problèmes éthiques (supervi-
sés par les Conseils Internes des Universités) et la contrainte de travailler avec une organi-
sation de terrain impose une limite aux questions que vous pouvez poser, par rapport à ce
qu’il est possible de faire avec une expérimentation en laboratoire. Tout ne peut pas être
testé et tout le monde n’accepte pas d’être un cobaye. Cependant, le caractère très réaliste
du cadre est un avantage énorme. Il convient de noter que les coûts moindres des pro-
grammes et que le fait de travailler avec des partenaires ONG permet d’étendre la palette
d’expérimentations réalisables dans le domaine du développement, par comparaison à ce
qui a été réalisable aux États-Unis.
tations (des jouets pour les enfants ou de petites sommes d’argent pour les
parents) selon les progrès de l’enfant en lecture. Les résultats suggèrent que
pour les enfants initialement très en retard, les récompenses dirigées vers
eux sont plus efficaces, alors que c’est l’inverse chez les enfants initialement
à l’aise à l’école. Sans expérience, répondre à cette question aurait été
impossible.
Ainsi, les expérimentations sont-elles en train d’apparaître comme un outil
puissant pour tester des théories. Bien que les théories à vérifier soient
différentes, la motivation qui ressort des articles récents en économie du
développement est la même que celle qui sous-tendait la première généra-
tion d’expérimentations aux États-Unis, conçues pour identifier des para-
mètres précis (par exemple, le revenu et l’effet de substitution dans des
expérimentations d’impôts négatif (« negative income tax »), le risque moral
dans l’expérimentation sur l’Assurance Santé – « Rand Health Insurance Ex-
periment » –, etc.). Les interventions sont conçues et évaluées non seule-
ment pour montrer l’effet moyen du traitement d’une politique spécifique
d’un programme, mais également pour permettre l’identification de para-
mètres économiques précis. A titre d’exemple, prenons l’étude réalisée par
Karlan et Zinman [2005] en collaboration avec un institut de crédit en Afri-
que du Sud. Cet institut consent des prêts de faibles montants à des taux
d’intérêt élevés à des emprunteurs présentant un niveau de risque élevé.
L’expérimentation a été conçue pour tester les poids relatifs de la charge de
remboursement ex post (y compris l’aléa moral) et de l’anti-sélection ex ante
par rapport aux défauts de remboursement. Par l’intermédiaire d’un premier
courrier, des emprunteurs potentiels, présentant le même niveau de risque
observable, se sont vu proposer de manière aléatoire soit un taux d’intérêt
élevé, soit un taux d’intérêt bas. Ensuite, ces emprunteurs potentiels déci-
daient ou non d’emprunter au taux qui leur était proposé. Parmi ceux ayant
sollicité un prêt au taux le plus élevé, la moitié s’est vue proposer – de
manière aléatoire – un taux d’intérêt plus bas que le taux d’appel ; l’autre
moitié a poursuivi au taux initialement proposé. Les emprunteurs ne sa-
vaient pas ex ante que le taux contractuel pourrait être différent du taux
d’appel. Les chercheurs ont ensuite comparé les comportements des
emprunteurs de ces trois groupes. La comparaison entre ceux ayant ré-
pondu à l’offre à taux d’intérêt bas et ceux ayant répondu à l’offre à taux
d’intérêt élevé parmi ceux qui, au final, paie un taux d’intérêt faible, permet
d’identifier l’effet d’anti-sélection. En comparant ceux s’étant vu initialement
proposer des taux élevés mais ayant obtenu des taux contractuels différents,
on identifie l’effet du poids du remboursement.
L’étude a mis en évidence le fait que les femmes présentent un risque lié
à l’anti-sélection mais que les hommes présentent un risque lié à l’aléa
moral. Cette différence inattendue a posé un problème aux auteurs de l’ar-
ticle (s’agissait-il d’un hasard statistique ou d’un phénomène réel ?), mais la
contribution méthodologique n’a pas été remise en question. L’idée de dé-
part consistant à faire varier les taux d’intérêt ex post et ex ante afin d’iden-
tifier effet de sélection et effet de traitement a depuis été reproduite dans
plusieurs études. Ashraf et al. [2007] et Cohen et Dupas [2007] l’ont utilisée
pour comprendre la relation entre le prix payé pour un bien utile à la santé
et son utilisation. L’augmentation du prix pourrait avoir un effet sur l’usage,
REP 119 (5) septembre-octobre 2009
Abhijit V. Banerjee, Esther Duflo ———————————————————————————————————— 699
en raison d’un effet de sélection (ceux qui achètent plus cher sont plus
intéressés) ou à cause d’une illusion psychologique : un bien payé plus cher
vaut plus cher (le « psychological sunk cost effect »). Pour différencier ces
effets, les chercheurs ont affecté de manière aléatoire le prix proposé ainsi
que le prix effectivement payé. L’effet qu’a le prix proposé sur le maintien du
prix réel à un niveau fixe permet d’identifier l’effet de sélection, alors que la
variation du prix réel (en maintenant le prix proposé fixe) permet de mettre
en lumière l’effet psychologique du prix. Ashraf et al. [2007] l’ont étudié
dans le cas d’un produit de purification de l’eau, et Cohen et Dupas [2007] se
sont penchés sur le cas des moustiquaires. Ni l’une ni l’autre de ces études
n’a mis en évidence un effet psychologique du prix. La variation expérimen-
tale était essentielle ici, et pas uniquement afin d’éviter les biais : en dehors
d’une expérience, nous n’observons tout simplement pas de personnes
confrontées à des prix d’appel différents et des prix réels identiques. Ce type
d’expérimentations nous rappelle les motivations des premières expérimen-
tations sociales (comme par exemple l’expérimentation de l’impôt sur le
revenu négatif) qui cherchaient à obtenir des variations distinctes des reve-
nus et des salaires afin d’estimer le revenu et de mettre en lumière des effets
de substitution qui ne pouvaient être obtenus à partir de données non expé-
rimentales (Heckman [1992]).
Les expériences qui étudient les produits de « self control », qui aident les
consommateurs à se contrôler eux-mêmes, sont d’autres exemples de pro-
jets motivés par la théorie économique. Ainsi, Ashraf et al. [2006] ont tra-
vaillé aux Philippines, avec une institution de micro-finance, pour proposer à
leurs clients un produit d’épargne qui les engagent à conserver leurs éco-
nomies sur un compte bloqué pour une certaine durée ou jusqu’à un certain
montant, sans aucun avantage en termes de taux d’intérêt. Gine et al. [2008]
ont travaillé avec la même organisation et ont invité des fumeurs souhaitant
arrêter de fumer à passer un contrat avec eux-mêmes : ils déposaient de
l’argent sur un compte spécial et ils perdaient cet argent si, au bout de
plusieurs semaines, leur test d’urine se révélait positif à la nicotine. Dans les
deux cas, les protocoles ont été conçus par des économistes en vue de
résoudre des problèmes de la vie réelle, mais ils s’accompagnaient égale-
ment d’une forte motivation théorique. Comme il s’agissait d’idées nou-
velles émises par des chercheurs, l’utilisation de l’évaluation par assignation
aléatoire allait de soi pour tester si ces produits étaient potentiellement
utiles pour les consommateurs avant de les introduire à grande échelle.
Les exemples que nous venons d’évoquer portent sur des comportements
individuels, mais les expérimentations peuvent aussi permettre de com-
prendre la manière dont fonctionnent les institutions. C’est ce qu’ont fait
Bertrand et al. [2009] : ces chercheurs ont mis sur pied une expérimentation
pour comprendre la structure de la corruption dans le processus d’obtention
du permis de conduire à Delhi. Ils ont recruté des personnes qui souhai-
taient passer le permis de conduire et les ont réparties en trois groupes :
dans le premier groupe, les gens recevaient un bonus s’ils obtenaient leur
permis de conduire rapidement, dans le second groupe, des leçons de
conduite gratuites ont été offertes, le troisième groupe constituait le groupe
de comparaison. Les chercheurs ont constaté que les personnes du groupe
« bonus » obtenaient leur permis de conduire plus rapidement que ceux qui
REP 119 (5) septembre-octobre 2009
700 ———————— L’approche expérimentale en économie du développement
étaient dans le groupe « leçons gratuites ». Ils ont également découvert que
les personnes du groupe « bonus » étaient plus susceptibles de payer un
agent pour obtenir leur permis (agent qui, semble-t-il, paye à son tour un
fonctionnaire). Ils ont également découvert qu’il y avait peu de chances que
les candidats ayant payé un agent aient réellement passé l’examen de
conduite avant d’obtenir leur permis. Bien que les personnes du groupe
« bonus » obtenant leur permis rapidement ne conduisent pas systémati-
quement moins bien que les personnes du groupe de comparaison (ce qui
serait un test décisif démontrant que la corruption se traduit par une attri-
bution inefficace des permis de conduire), cette expérimentation fournit des
éléments qui suggèrent que dans ce cas, la corruption fait plus que « grais-
ser les rouages » du système.
La créativité des chercheurs a également été aiguillonnée par la prise de
conscience que l’expérimentation est une option facilement accessible. En
principe, il n’existe pas de lien automatique entre la collecte attentive et
innovante de données microéconomiques et la méthode expérimentale. Et
de fait, il existe une longue tradition en économie du développement consis-
tant à collecter des données de façon spécifique pour tester des théories. La
quantité et la qualité des données microéconomiques collectées en écono-
mie du développement ont explosé au cours des dernières décennies, et pas
uniquement dans le contexte des expérimentations. Néanmoins, la méthode
expérimentale encourage le développement de méthodes de collection de
données originales : contrairement aux grandes bases de données tradition-
nelles, les échantillons sont faibles (les coûts restent donc limités), et les
questions posées sont très spécifiques. Dans de nombreuses études expé-
rimentales, une grande partie des personnes censées être affectées par le
programme le sont réellement. Cela permet de travailler sur des échantillons
de taille réduite, avec des questionnaires spécifiques. Il devient donc fai-
sable de dépenser plus d’argent par variable et par observation que dans
des grandes enquêtes polyvalentes auprès des ménages ou des entreprises.
A l’inverse, les données non expérimentales doivent souvent compter avec
des variations (changement de politique, variations induites par le marché,
variations naturelles, bouleversements au niveau de l’offre, etc.) qui affec-
tent des populations importantes, nécessitant donc l’utilisation de bases de
données très importantes, et qui, bien souvent, ne sont pas collectées dans
un but spécifique. Il est par conséquent plus difficile d’ajuster la mesure à
une question donnée. Même lorsqu’il est possible de mener ex post un
exercice sophistiqué de collecte de données, en ciblant spécifiquement une
question donnée, il est généralement impossible de le faire pour une en-
quête de « baseline ». Ceci empêche donc l’utilisation d’une stratégie de
type différence-en-différence, qui est souvent essentielle pour les données
non expérimentales.
Une étude menée par Olken [2007] illustre le type de données qu’il est
possible de collecter dans un contexte expérimental. L’objectif était de déter-
miner si des audits ou des contrôles menés par les communautés étaient
efficaces pour réduire la corruption dans des projets décentralisés de
construction. Il était donc nécessaire d’obtenir une mesure fiable des ni-
veaux de corruption. Olken, se focalisant sur la construction des routes, a
fait faire par des ingénieurs des sondages dans les chaussées construites
REP 119 (5) septembre-octobre 2009
Abhijit V. Banerjee, Esther Duflo ———————————————————————————————————— 701
celui que Miguel et Kremer [2004] ont trouvé au Kenya [2004]. Bleakley
[2007] trouve des résultats similaires dans son étude du déparasitage au
Sud des États Unis au début du vingtième siècle. Le programme
PROGRESA/Opportunidades a été répliqué sous différents noms et avec
quelques variantes dans de nombreux pays. Dans plusieurs d’entre eux, il a
été accompagné d’évaluations aléatoires (en Colombie, au Nicaragua, en
Equateur et au Honduras ; des opérations sont en cours au Maroc) (Pour
plus d’informations sur l’évaluation du programme PROGRESA d’origine et
sur ses duplications, lire Fizbein et Schady [2009]). Les résultats, analysés
par différentes équipes de chercheurs dans plusieurs pays sont remarqua-
blement similaires d’un pays à l’autre.
D’autres résultats sont au contraire différents d’un contexte à l’autre. Une
campagne d’information et de mobilisation des Conseils de parents d’élèves
a eu un impact positif sur les résultats d’apprentissage au Kenya, mais non
en Inde (Banerjee et al. [2008] ; Duflo et al. [2008a]). Une intervention simi-
laire ayant pour objectif de redynamiser les Comités de gestion des centres
de santé en Ouganda a également eu un impact très important sur des
paramètres sur lesquels il est habituellement difficile d’influer, tels que la
mortalité infantile (Bjorkman et Svensson [2007]).
Outre les duplications pures, des expérimentations similaires menées
dans des contextes différents sont autant de moyens permettant d’accumu-
ler des connaissances. L’analyse faite par Holla et Kremer [2008] de 16 éva-
luations aléatoires portant sur l’élasticité des prix dans les domaines de la
santé et de l’éducation en est un bon exemple. Nous reviendrons plus loin
de manière détaillée sur ces résultats mais le point clé ici est que ces expé-
rimentations recouvrent une large palette de biens de santé et de biens
d’éducation dans plusieurs pays. Un point commun important est la très
forte élasticité de la demande pour ces biens selon leur prix, en particulier
lorsque le prix se situe près de zéro (à la fois dans le sens positif et dans le
sens négatif). Bien qu’il ne s’agisse pas de duplication au sens strict, ces
études révèlent toutes le même phénomène fondamental.
Certains craignent que le système universitaire encourage peu la réplica-
tion des expérimentations : les revues seraient moins susceptibles de pu-
blier les résultats de la cinquième évaluation sur un même sujet, et les
agences internationales seraient réticentes à les financer. L’utilisation géné-
ralisée de l’expérimentation en économie est très récente et il est donc
difficile d’estimer la gravité de ce problème. Mais compte tenu, par exemple,
du nombre de publications sur les bénéfices de l’éducation, nous ne som-
mes pas trop pessimistes : il semble que les revues n’ont pas de problèmes
particuliers à publier plusieurs études sur le même sujet. La bonne nouvelle
est que plusieurs initiatives de duplication systématique sont en cours. Par
exemple, un programme de transfert d’actifs et de formation ciblant les
ultra-pauvres, qui avait été initialement conçu au Bangladesh par l’ONG
BRAC (programme décrit en détail ci-après), est actuellement en cours
d’évaluation au Honduras, au Pérou, dans les états du Karnataka et du Ben-
gale Occidental, au Bangladesh et au Pakistan. Dans chaque pays, on trouve
une équipe de recherche distincte et un partenaire de terrain différent. Des
études sur la sensibilité au taux d’intérêt, dupliquant l’expérimentation de
Karlan et Zinman [2008], sont actuellement en cours au Ghana et au Pérou
REP 119 (5) septembre-octobre 2009
Abhijit V. Banerjee, Esther Duflo ———————————————————————————————————— 705
(en deux lieux distincts, avec deux partenaires différents). Des évaluations
d’impact du microcrédit sont menées simultanément au Maroc, en Inde, aux
Philippines et au Mexique. Une formation commerciale est en cours d’éva-
luation au Pérou, en République Dominicaine, en Inde et au Mexique. Plu-
sieurs programmes visant à encourager l’épargne sont en train d’être éva-
lués au Pérou, aux Philippines, au Ghana et en Ouganda. Ainsi, il semble
que les agences internationales ont un intérêt suffisant pour ces expérimen-
tations pour accepter de les financer et qu’il y a suffisamment de chercheurs
qui aient envie de les mener. Par exemple, les nombreuses expérimen-
tations en cours concernant les populations ultra-pauvres sont toutes finan-
cées par la Fondation Ford, dans une volonté explicite de mieux comprendre
le programme en l’évaluant dans plusieurs endroits différents. C’est l’ONG
Innovations for Poverty Action (ONG fondée par Dean Karlan), qui est à
l’origine de nombre de ces duplications et qui reçoit les financements, mais
les équipes de recherche et les partenaires de terrain sont différents dans
chaque pays. Les différentes équipes de recherche se concertent sur les
stratégies d’évaluation et sur les instruments afin de s’assurer que des résul-
tats différents représenteront bien des différences au niveau des contextes
plutôt que des différences au niveau des stratégies d’évaluation.
Toutes ces études sont en cours et leurs résultats nous permettront d’en
apprendre beaucoup plus sur les conditions dans lesquelles les programmes
sont dépendants du contexte. Des tests systématiques seront nécessaires
afin de voir si les résultats diffèrent d’un site à l’autre. Les enseignements de
la recherche sur les effets des traitements hétérogènes, dont nous allons
parler ci-dessous, peuvent être utiles : premièrement, les variables indica-
trices de site peuvent être traitées comme des variables de contrôle dans le
cadre d’une régression et des tests non paramétriques de l’hétérogénéité
peuvent être réalisés (voir, par exemple, Crump et al. [2009]). Si hétérogé-
néité il y a, alors un test plus puissant consisterait à voir si l’hétérogénéité
persiste après que l’on a pris en compte l’hétérogénéité des variables de
contrôle. Une autre manière de procéder consiste à mener un test pour voir
si l’effet de traitement conditionné aux variables de contrôle est égal pour
toutes les variables indicatrices de site (Heckman et al. [2010]).
En principe, si nous étions prêts à mener suffisamment d’expérimenta-
tions, dans des lieux suffisamment variés, nous pourrions apprendre tout ce
que nous souhaiterions savoir sur la distribution des effets d’un traitement
d’un site à un autre, en prenant en compte n’importe quel ensemble de
variables de contrôle. Cela n’est pas le cas des études non expérimentales.
Bien qu’il soit possible d’identifier une quasi-expérimentation particulière
qui permettrait d’identifier l’effet d’un programme dans un contexte précis, il
est très improbable qu’une telle quasi-expérimentation puisse être répliquée
dans autant de contextes différents qu’on le souhaiterait. Dans les cas des
études non expérimentales, on doit supposer que les hypothèses d’identifi-
cation sont valides dans toutes les études pour pouvoir les comparer. Si
plusieurs études non expérimentales donnent des résultats différents, une
explication possible est que l’une d’entre-elles – ou plusieurs – est (sont)
biaisée(s) (ce principe sous-tend les tests de validité des variables instru-
mentales basés sur la « sur-identification » (« overidentification tests »).
L’idée a été proposée – voir par exemple Rodrik [2008] – que la dépen-
dance environnementale pose moins de problèmes pour les études non
expérimentales car celles-ci couvrent des domaines beaucoup plus larges,
ce qui permet de les généraliser plus facilement3. Il y aurait donc un choix à
faire entre les études par assignation aléatoire dont la validité interne est
forte, et les études non expérimentales dont la validité externe est plus
grande. Pourtant, cela n’est pas nécessairement vrai. Une partie du pro-
blème est de savoir ce que l’on veut dire par effet généralisable : cela signi-
fie que si l’on mène la même action dans un lieu différent, on obtiendra le
même résultat. Mais de quelle action et de quel résultat parlons-nous ? Dans
le cadre d’études transversales dans lesquelles on compare, par exemple,
différents types d’investissements, il faut croire au fait que l’action a été la
même et que l’on a mesuré les résultats de la même façon et il faut faire
confiance au jugement de ceux qui ont construit l’ensemble des données et
rassemblé un certain nombre de programmes dans une catégorie générale.
Par exemple, la catégorie « Investissements dans l’éducation » peut signifier
beaucoup de choses différentes. La conclusion généralisable de l’étude est
donc, au mieux, l’impact de la moyenne de l’ensemble des choses que l’on
a regroupées lorsqu’on a construit les données agrégées, ce qui ne veut pas
forcément dire grand chose.
Un problème plus subtil se pose lorsque l’on évalue des programmes bien
définis. Le fait que pour l’évaluation du programme on utilise les données
d’une large zone géographique ne signifie pas nécessairement que l’estima-
tion de l’effet du programme obtenu sera la moyenne des effets du pro-
gramme sur tous les types de personnes vivant dans cette zone importante
(ou sur toutes les personnes qui sont les participants probables du pro-
gramme). Pour estimer l’effet d’un programme en l’absence d’expérience,
on tente de contrôler chaque différence observable entre les personnes
bénéficiant du programme et celles qui ne le sont pas ; par exemple, par un
appariement statistique (« matching »). Mais dans l’échantillon apparié, il
n’y a pas de garantie qu’on trouve un « match » dans le groupe non traité
pour toutes les observations du groupe traité. Il existe plusieurs méthodes
qui permettent de gérer cette absence de chevauchement entre la distribu-
tion des participants et des non participants (Heckman et al. [1997, 1998] ;
Rubin [2006] ; Imbens et Woolridge [2008]) mais, dans tous les cas, l’évalua-
tion sera entièrement motivée par les sous-groupes de la population où,
même après l’appariement, il reste à la fois suffisamment de participants et
de non participants, et ces sous-groupes pourraient ne pas être représenta-
tifs de la population dans son ensemble. Nous pouvons comparer les carac-
téristiques observables de la population sur laquelle on a estimé l’effet du
traitement à celles de la population dans son ensemble, mais nous n’avons
aucun moyen de savoir comment ces personnes diffèrent du reste de la
population, pour ce qui est des caractéristiques non observables. Imbens et
Woolbridge [2008] concluent ainsi que « ce qui caractérise potentiellement
3. On notera que les expérimentations par assignation aléatoire ne sont pas toutes à petite
échelle. Par exemple, les programmes de représentation obligatoire dont nous parlons ici
ont été mis en œuvre à l’échelle nationale en Inde. Alors que Duflo et Chattopdhyay [2004]
recherchaient au départ deux États (très différents), Topalova et Duflo [2004] ont étendu
l’analyse à tous les grands états de l’Inde.
pour nous rassurer totalement sur l’absence de ce problème. Cela dit, notre
expérience suggère que, dans le contexte des pays en développement, ce
problème tend à disparaître car les évaluations aléatoires sont de mieux en
mieux acceptées, et les partenaires se multiplient. La situation va continuer
de s’améliorer si les évaluations aléatoires sont recommandées par les
donateurs dans la mesure où les partenaires se diversifieront encore davan-
tage.
C’est déjà ce qui est en train de se passer. De nombreux chercheurs et
acteurs de terrain de la Banque Mondiale travaillent notamment avec les
gouvernements de pays en développement en vue de lancer un ambitieux
programme d’évaluation5. Par exemple, l’Initiative Africa Impact Evaluation
soutient (financièrement et techniquement) plusieurs gouvernements afri-
cains pour la mise en place, en Afrique, d’évaluations aléatoires sur diffé-
rents sujets. A l’heure actuelle, 67 évaluations aléatoires sont en cours dans
le cadre de ce programme et couvrent 5 thèmes : l’éducation, la lutte contre
le paludisme, la lutte contre le sida, la gouvernance et les transports. AGE-
MAD est une évaluation récente menée dans ce cadre : il s’agit d’une initia-
tive visant à réformer l’école à Madagascar (Banque Mondiale [2008]). Ce
projet démontre la volonté et la capacité d’un Ministère de l’Education à
mettre en œuvre une évaluation aléatoire dès lors qu’il reçoit le soutien et
les encouragements nécessaires de la part d’une grande agence de finance-
ment.
A notre avis, le fait que les partenaires qui mènent des évaluations aléa-
toires se distinguent par leur volonté et leur capacité à suivre un protocole
constitue un problème plus délicat que l’adhésion à la randomisation. En
effet, il est possible que ces caractéristiques n’existent plus lorsque les pro-
jets seront développés à une plus grande échelle. Il est important d’avoir
conscience de ces limites lorsque l’on interprète les résultats. Jusqu’à pré-
sent, insuffisamment d’efforts ont été consacrés à réaliser des évaluations
« à moyenne échelle » de programmes qui avaient bien fonctionné à petite
échelle ; c’est pourtant là que ces problèmes de mise en œuvre apparaî-
traient de manière évidente.
Cela dit, cette difficulté n’est pas non plus totalement absente des études
non expérimentales, en particulier dans les pays en développement. Les
programmes ne peuvent pas tous être évalués de manière convaincante. On
a souvent besoin de bases de données importantes (notamment si l’on veut
améliorer la validité externe en étudiant un programme national). Dans cer-
tains cas, les données sont collectées spécifiquement pour l’évaluation, sou-
vent avec l’aide du Bureau National des Statistiques du pays concerné. Dans
ce cas, il faut que le pays accepte l’évaluation d’une politique à grande
échelle, ce qui est politiquement plus sensible que lorsqu’il s’agit de pro-
grammes pilotes, beaucoup moins visibles ; ainsi, les pays peuvent sélec-
tionner les programmes à évaluer de manière stratégique. Dans certains cas,
il est possible d’utiliser des enquêtes régulières, à grande échelle (comme le
National Sample Survey en Inde, l’enquête SUSENAS en Indonésie, etc.).
Mais de tels dispositifs n’existent pas dans tous les pays en développement,
bien que des bases de données telles que les Enquêtes de Santé et Démo-
graphiques (« Demographic and Health Surveys ») qui sont disponibles dans
la plupart des pays aient certainement amélioré les choses. Ainsi, ni les pays
ni les programmes qui peuvent être évalués avec des données non expéri-
mentales ne sont choisis au hasard. La difficulté de généraliser les résultats
d’une étude donnée est donc toujours potentiellement présente, quelle que
soit les approches employées.
gramme Bandhan, les villageois qui sont trop pauvres pour pouvoir accéder
au réseau de la micro-finance sont identifiés grâce à une évaluation partici-
pative de leurs ressources ainsi que par d’autres enquêtes de suivi, puis on
leur offre un actif (en général, deux vaches, quelques chèvres, ou d’autres
actifs productifs) d’une valeur comprise entre $25 et $100, et ce sans aucune
obligation légale (si ce n’est qu’on leur demande de prendre soin de ce qui
leur a été donné et qu’on leur indique qu’il y aura un suivi). On leur verse
également une indemnité hebdomadaire et on leur assure une formation. Le
but est de voir si le fait d’avoir accès à des actifs entraîne une amélioration
à long terme de leurs conditions de vie (ou si ces personnes vont tout
simplement vendre les biens et en épuiser rapidement les produits). Le
protocole de l’évaluation a été conçu en considérant que toute personne à
qui un actif serait offert l’accepterait, or il en a été tout autrement. Une part
importante des clients (18 %) a refusé la proposition : certains se méfiaient
car ils pensaient que l’on essayait de les convertir au christianisme ; d’autres
pensaient qu’il s’agissait d’une ruse pour les endetter – et qu’en fin de
compte, on leur demanderait de rembourser –. D’autres encore ne doutaient
pas des motivations de Bandhan mais se sentaient incapables de s’en sortir
et de prendre correctement soin de ce qui leur était donné, ils ne voulaient
pas se trouver mal à l’aise dans le village en cas de perte du bien.
Un problème connexe est celui posé par ce que l’on appelle couramment
les effets d’équilibre général (bien que ce terme puisse créer une confusion ;
nous préférons donc parler d’effets d’équilibre car le concept d’équilibre
général est essentiellement un concept multimarché). Les effets d’un pro-
gramme identifiés dans le cadre d’une petite étude peuvent être différents
des effets du programme s’il était généralisé au niveau national (Heckman et
al. [1999] ; Abbring et Heckman [2007]). Prenons par exemple ce qui se
passerait si l’on essayait de généraliser un programme qui indique – dans le
cadre d’une expérimentation à petite échelle – que des fillettes désavanta-
gées ayant reçues des bourses leur permettant d’aller dans des écoles pri-
vées sont mieux formées et perçoivent des revenus plus élevés. Si le pro-
gramme était généralisé au niveau national, deux choses pourraient se
produire : les écoles privées pourraient être surchargées, et les bénéfices de
l’éducation pourraient baisser en raison d’une augmentation de l’offre. Ces
deux effets conduiraient à des résultats plus faibles que dans l’expérience
localisée.
Le problème des effets d’équilibre n’a pas de solution totalement satisfai-
sante. Fort heureusement, il se présente rarement. Par exemple, si nous
souhaitons déterminer quelle est la meilleure stratégie pour favoriser la
vaccination (distribution fiable des vaccins ou distribution fiable des vaccins
accompagnée d’un petit cadeau pour que la mère se souvienne de faire le
rappel du vaccin à temps) (comme dans Banerjee et al. [2008b]), la méthode
REP 119 (5) septembre-octobre 2009
Abhijit V. Banerjee, Esther Duflo ———————————————————————————————————— 713
les effets d’un programme de bourse pour l’école privée grâce à une double
assignation aléatoire : ils ont assigné de manière aléatoire les villages dans
lesquels les bourses ont été distribuées, ainsi que les personnes qui ont reçu
les bourses au sein d’un même village. En comparant les estimations qu’ils
vont obtenir à partir de ces deux traitements, ils espèrent être en mesure de
déduire l’importance de l’effet d’équilibre. Cette approche ne traite que d’un
niveau d’équilibre (sur le marché de l’éducation, pas sur celui du travail)
mais il s’agit là d’un début important.
Une autre alternative consiste à combiner les résultats de différentes expé-
rimentations en utilisant une expérimentation (ou éventuellement une quasi-
expérimentation) pour estimer l’élasticité de la demande de compétences,
une autre pour estimer l’offre d’enseignement de qualité et une troisième
pour estimer dans quelle mesure la distribution de bourses pour l’école
privée contribuent à l’acquisition de compétences. Ce type de travail néces-
site une approche plus structurelle, toutefois il a la capacité de combler
l’écart entre les mondes macro et micro. Il répond aux critiques selon les-
quelles les expérimentations peuvent permettre d’obtenir la bonne réponse
à des questions mineures sans pour autant parvenir à traiter des « grandes »
questions d’intérêt (comme on peut le lire dans certains des commentaires
portant par exemple sur l’article de Banerjee dans la Boston Review ; ces
commentaires sont présentés dans Banerjee [2007]). L’expérimentation peut
nous aider à estimer les paramètres économiques (tels que la rentabilité du
capital pour les petites entreprises, l’élasticité de l’emploi, les avantages
individuels de l’éducation, etc.), paramètres qui peuvent ensuite être utilisés
de manière combinée avec des modèles d’équilibre microfondés (Heckman
et al. [1999] ont développé et exposé cette méthode pour une politique
d’enseignement). Il existe en économie du développement une littérature de
plus en plus importante, avec notamment des gens comme Robert Town-
send et ses collaborateurs, qui tente d’intégrer les microestimations dans
l’étalonnage des modèles de croissance avec contraintes de crédit6. Il est
clair qu’il reste encore beaucoup à faire dans ce domaine.
6. Nous discutons de cette littérature dans Banerjee et Duflo [2005]. Pour une réponse plus
détaillée à l’argument selon lequel les chercheurs devraient ne plus faire de microestima-
tions car la seule chose qui compte c’est la croissance et que l’utilisation de données agré-
gées est la seule manière d’estimer les moteurs de croissance, on peut se référer à Banerjee
[2008].
plus à l’effet sur les plus pauvres, ou sur les plus riches. D’un point de vue
intellectuel, restreindre l’analyse à une comparaison naïve des moyennes
n’a pas grand sens.
Malheureusement, l’effet moyen d’un traitement (ou l’effet moyen du trai-
tement dans un sous-échantillon déterminé par des variables observables)
est la seule statistique conventionnelle de la distribution que l’on puisse
obtenir à partir d’une expérimentation aléatoire, sans hypothèses supplé-
mentaires (Heckman [1992]). Bien entendu, nous pouvons toujours compa-
rer la totalité de la distribution des résultats obtenus pour un traitement à
celle des résultats obtenus pour l’échantillon témoin : il existe des tests de
comparaison des distributions ainsi que les dominances stochastiques (voir
Abadie [2002]). Par exemple, Banerjee et al. [2007] ont montré que la distri-
bution des résultats aux examens parmi les élèves des écoles qui bénéfi-
cient d’un balsakhi (ou tuteur) fait apparaître une dominance stochastique
de premier ordre dans le groupe traitement (par rapport au groupe témoin)
et que la majorité des gains sont obtenus chez les enfants initialement en
situation d’échec scolaire. Cette découverte est importante car, dans les
classes du programme, les enfants en situation d’échec scolaire étaient ex-
traits de la salle de classe et se voyaient proposer un soutien scolaire, alors
que ceux qui étaient en tête de classe restaient dans la classe. Ainsi, on
s’attend à obtenir des effets différents sur les deux groupes et il serait
difficile de justifier le programme s’il n’aidait que les meilleurs élèves. Duflo
et al. [2007] ont également étudié comment le programme de motivation
des enseignants grâce à l’appareil photo, dont nous avons parlé plus haut, a
un effet sur la totalité de la distribution des absences parmi les professeurs
et ils ont trouvé une dominance stochastique de premier ordre. Cependant,
le fait de comparer ces distributions ne fournit pas d’information sur la
distribution des effets du traitement en tant que tel (car les différences de
quantiles d’une distribution ne sont pas le quantile de la différence).
Dans leur excellent examen de la littérature économique récente traitant
de l’évaluation des programmes (y compris des détails techniques qui sont
derrière une grande partie de la matière traitée ici), Imbens et Woolridge
[2008] avancent l’opinion que la distribution des variables d’intérêt dans le
groupe traitement et dans le groupe témoin (que l’on peut toujours connaî-
tre) est tout ce que nous avons besoin de savoir sur le programme : toute
fonction de bien-être sociale est définie en fonction de la distribution des
variables d’intérêt, pas en fonction de la distribution des effets du traite-
ment. On pourrait ne pas être d’accord avec ce point de vue. Une personne
en charge de la planification peut s’intéresser au pourcentage de personnes
qui vont bénéficier d’un traitement, pourcentage qui n’est pas identifié par
des expérimentations (ou par n’importe quelle autre méthode d’évaluation)
sans hypothèses supplémentaires. Pour bien comprendre toute l’étendue du
problème, prenons l’exemple suivant : nous avons une population de trois
personnes dont nous connaissons les valeurs des « potential outcomes »
(ou, la valeur de la variable d’intérêt dans les deux états possibles, traité ou
contrôlé), avec et sans traitement. Sans traitement, le potential outcome de
Monsieur A est de 1, celui de Monsieur B est de 2 et celui de Monsieur C est
de 3. Avec traitement, le potential outcome de Monsieur A est de 2, celui de
Monsieur B est de 3 et celui de Monsieur C est de -4. Que devons-nous
REP 119 (5) septembre-octobre 2009
716 ———————— L’approche expérimentale en économie du développement
notre connaissance, ces outils n’ont pas été utilisés dans la recherche en
économie du développement. Nous avons donc devant nous des pistes de
travail très riches.
Les expérimentations peuvent être et ont été utiles pour tester les théories
(cf. Banerjee [2005] et Duflo et al. [2006] pour un exposé plus exhaustif de
ces questions). Comme l’identification des résultats expérimentaux de base
ne dépend pas de la théorie, il est possible de tester la théorie de manière
irréfutable (c’est-à-dire que l’on peut disposer d’un test qui ne va pas dépen-
dre également d’autres théories). Ainsi, les résultats expérimentaux nous
ont amené à repenser certains éléments de base de la théorie de la de-
mande.
Plusieurs études par assignation aléatoire portant sur la demande en pro-
duits de santé préventive, sont parvenues à la conclusion que l’élasticité de
la demande au prix est énorme. Au Kenya, Kremer et Miguel [2007] mon-
trent que le fait d’augmenter le prix des médicaments antiparasites de 0 à
30 cents par enfant réduit la fraction d’enfants prenant le médicament de
75 % à 19 %. Toujours au Kenya, Cohen et Dupas [2007] ont découvert que le
fait d’augmenter le prix des moustiquaires imprégnées d’insecticide de 0 à
60 cents réduit de 60 % le nombre de ceux qui achètent les moustiquaires.
En Zambie, le fait d’augmenter le prix d’un désinfectant de l’eau de 9 à
24 cents a réduit de 30 % la part des personnes acceptant l’offre (Ashraf et
al. [2007]). On retrouve des réponses importantes similaires à celles-ci dans
le cas des petites subventions : en Inde, Banerjee et al. [2008b] ont constaté
qu’en offrant aux mères un kilo de lentilles (d’une valeur d’environ 60 cents)
à chaque vaccination et une série de bols lorsque le programme de vacci-
nation était terminé, on augmentait de 20 % la probabilité que l’enfant re-
çoive l’ensemble des vaccins nécessaires. Plus remarquable encore : au Ma-
lawi, une récompense de 10 cents a eu pour conséquence que 20 % de
personnes supplémentaires sont allées chercher les résultats de leur test de
dépistage du sida (Thornton [2007]).
Après avoir passé en revue tous ces résultats (ainsi que plusieurs articles
sur l’éducation qui aboutissent tous à des conclusions similaires), Holla et
Kremer [2008] concluent que ces élasticités de la demande ne peuvent pro-
venir du modèle standard de demande de santé. Par exemple, on peut
imaginer que des agents économiques rationnels et conventionnels pour-
raient décider soit de faire un test de dépistage du sida (sachant que le fait
de connaître leur statut va leur permettre de prolonger leur vie et celle des
REP 119 (5) septembre-octobre 2009
720 ———————— L’approche expérimentale en économie du développement
autres) soit de ne pas le faire (le test peut être très stressant et source de
honte). Ce qui est plus difficile à comprendre c’est qu’autant d’entre eux
changent d’avis à cause de 10 cents alors qu’il s’agit de quelque chose qui
risque fort de bouleverser totalement leur vie.
Kremer et Holla [2008] avancent l’hypothèse qu’un tel schéma de de-
mande correspond à un modèle dans lequel les gens désirent vraiment le
produit mais en remettent toujours l’acquisition à plus tard : il est tentant de
retarder le moment où il faut payer le prix dans la mesure où les bénéfices
se situent dans le futur. Cependant, si les gens veulent vraiment acheter des
moustiquaires, ou s’ils veulent connaître les résultats de leur test, mais
reculent sans arrêt la décision de le faire, alors ils doivent être extrêmement
naïfs, compte tenu des bénéfices potentiels en termes de vie sauvée que
représentent ces deux actions. Or, en termes de produits financiers, les
résultats (expérimentaux) tendent à montrer que les gens ne sont pas naïfs.
Ashraf et al. [2006] montrent ainsi que ceux qui ont des préférences hyper-
boliques sont prêts à adopter des dispositifs d’engagement afin de bloquer
leur épargne, ce qui indique un niveau élevé de conscience de soi. Duflo et
al. [2008c] montrent que les fermiers kenyans qui déclarent ne pas avoir
suffisamment d’argent pour acheter des engrais au moment des semailles,
sont prêts à bloquer de l’argent au moment de la récolte, pour acheter les
engrais qui seront utilisés plusieurs mois plus tard. Ainsi, lorsqu’on leur
donne ex ante (avant la récolte) le choix du moment auquel les engrais
étaient proposés aux fermiers, près de la moitié des fermiers demandent
que les vendeurs passent les voir immédiatement après la récolte plutôt
qu’au moment où ils ont besoin des engrais, car ils savent qu’ils auront
l’argent nécessaire à ce moment-là. Leur demande de livraison immédiate
tend à prouver que les fermiers se contrôlent suffisamment pour garder
l’engrais sans le revendre.
Il arrive que les expérimentations donnent des résultats qui sont encore
plus troublants par rapport à la théorie existante (pour une analyse plus
détaillée, voir Duflo [2007]). Bertrand et al. [2009] donnent un exemple frap-
pant qui ne cadre avec aucune théorie économique existante : ils montrent
que des modifications apparemment mineures (comme la présence d’une
photographie sur une publicité) ont autant d’effet sur les éventuels emprun-
teurs que des changements importants du taux d’intérêt.
Dans toutes ces recherches, les expériences de terrain jouent le rôle tradi-
tionnellement joué par les expériences de laboratoire, mais avec plus de
crédibilité. L’objectif est de disposer de meilleures théories, mais est-ce que
la théorie peut nous aider à concevoir de meilleures expériences et à mieux
interpréter les résultats afin d’élaborer de meilleures politiques ? Une direc-
tion possible consiste à utiliser les résultats expérimentaux pour évaluer les
modèles structurels. La théorie peut aussi jouer un rôle plus basique mais
tout aussi important : nous avons besoin d’un cadre qui nous permette
d’interpréter des résultats isolés. Par exemple, pouvons-nous aller au-delà
de la simple observation du fait que différentes ressources introduites dans
les écoles ont des productivités différentes ? Ou est-ce que chaque résultat
expérimental constitue un résultat sui generis ? Pour atteindre cet objectif, il
est peu probable que l’on ait besoin d’une théorie très compliquée. La théo-
rie doit nous permettre de réduire la dimensionnalité sur la base d’un en-
REP 119 (5) septembre-octobre 2009
Abhijit V. Banerjee, Esther Duflo ———————————————————————————————————— 721
4. Conclusion
Nous sommes donc totalement d’accord avec le principal point soulevé
par Heckman [1992] : pour être intéressantes, les expérimentations doivent
être ambitieuses et éclairées par la théorie. C’est aussi dans ce cas qu’elles
seront le plus susceptibles d’être utiles aux décideurs politiques. Nous
croyons fermement que les connaissances des économistes peuvent et doi-
vent guider les décideurs dans l’élaboration des politiques (voir également
Banerjee [2002]). Les économistes sont parfois bien placés pour proposer ou
identifier des programmes politiques susceptibles de réellement changer les
choses. Sans doute plus important encore, ils sont parfois en excellente
position pour faire naître le processus de découverte de politiques, en jouant
sur les deux tableaux : celui de la théorie et celui de la recherche expérimen-
tale. Ce processus « d’expérimentation créative », dans le cadre duquel les
décideurs politiques et les chercheurs travaillent ensemble pour réfléchir
différemment et tirer les enseignements des réussites et des échecs est sans
aucun doute la contribution la plus précieuse des récentes études expéri-
mentales.
Références bibliographiques
ABADIE A. [2002], « Bootstrap tests for distributional treatment effects in instrumen-
tal variables models », Journal of the American Statistical Association, 97(457),
p. 284-292.
ABBRING J.H, HECKMAN J. J. [2007], « Econometrics evaluation of social programs
part III : distributional treatment effects, dynamic treatment effects, dynamic dis-
crete choice and general equilibrium policy evaluation », in : J.J. Heckman and
E.E. Leamers (Eds.), Handbook of Econometrics, Volume 6B, Chapter 72, Amster-
dam : Elsevier, p. 5145-5303.
ABDUL LATIF JAMEEL POVERTY ACTION LAB (ALJ-PAL) [2005], Fighting Poverty :
What Works ?, Fall, Issue 1, Cambridge, MA : MIT.
ACEMOGLU D., ANGRIST J. [2001], « How large are human-capital externalities ?
Evidence from compulsory schooling laws », in : B.S. Bernanke and K. Rogoff
(Eds.), NBER Macroeconomics Annual 2000, Volume 15, Cambridge, MA : MIT
Press, p. 9-74.
ANGRIST J., BETTINGER E., BLOOM E., KREMER M., KING E. [2002], « Vouchers for
private schooling in Colombia : evidence from randomized natural experi-
ments », American Economic Review, 92(5), p. 1535-1558.
ANGRIST J., BETTINGER E., KREMER M. [2006], « Long-term educational conse-
quences of secondary school vouchers : evidence from administrative records in
Colombia », American Economic Review, 96(3), p. 847-862.
ANGRIST J., LANG D., OREOPOULOS P. [2009], « Incentives and services for college
achievement : evidence from a randomized trial », American Economic Journal :
Applied Economics, 1(1), p. 136-163.
ANGRIST J., LAVY V. [2009], « The effect of high school matriculation awards :
evidence from group-level randomized trials », American Economic Review, in
press (see also NBER Working Papers 9389).
ASHRAF N., BERRY J., SHAPIRO J. M. [2007], « Can higher prices stimulate product
use ? Evidence from a field experiment in Zambia », NBER Working Papers 13247.
ASHRAF N., KARLAN D., YIN W. [2006], « Tying Odysseus to the mast : evidence
from a commitment savings product in the Philippines », Quarterly Journal of
Economics, 121(2), p. 635-672.
ATTANASIO O., BARR A., CAMILLO J., GENICOT G., MEGHIR C. [2008a], « Group
formation and risk pooling in a field experiment »,. Mimeogr., Georgetown Uni-
versity.
ATTANASIO O., KUGLER A., MEGHIR C. [2008b], « Training disadvantaged youth in
Latin America : evidence from a randomized trial », ISF Working Papers (EWP
08/01), Institute for Fiscal Studies, London.
ATTANASIO O., MEGHIR C., SANTIAGO A. [2001], « Education choices in Mexico :
using a structural model and a randomized experiment to evaluate », Progresa.
Mimeogr., University College London.
BANAJI M. [2001], « Implicit attitudes can be measured », in : H.L. Roediger III, J.S.
Nairne, I. Neath and A. Surprenant (Eds.), The Nature of Remembering : Essays in
Honor of Robert G. Crowder, Washington DC : American Psychological Associa-
tion, p. 117-150.
BANERJEE A. [2002], « The uses of economic theory : against a purely positive
interpretation of theoretical results », Working Papers 007, Department of Econo-
mics, MIT.
BANERJEE A. [2005], « New development economics and the challenge to theory »,
Economic and Political Weekly, 40(40), p. 4340-4344.
BANERJEE A. [2007], Making Aid Work, Cambridge, MA : MIT Press.
BANERJEE A. [2008], « Big answers for big questions : the presumption of growth
policy », Mimeogr., Department of Economics, MIT.
BANERJEE A., BANERJI R., DUFLO E., GLENNERSTER R., KHEMANI S. [2009], « Pit-
falls of participatory programs : evidence from a randomized evaluation in edu-
cation in India », NBER Working Papers 14311, Forthcoming in American Econo-
mic Journal : Economic Policy.
BANERJEE A., COLE S., DUFLO E., LINDEN L. [2007] « Remedying education : evi-
dence from two randomized experiments in India », Quarterly Journal of Econo-
mics, 122(3), p. 1235-1264.
BANERJEE A., DUFLO E. [2005], « Growth theory through the lens of development
economics », in : S. Durlauf and P. Aghion (Eds.), Handbook of Economic Growth,
Volume 1A, Amsterdam : Elsevier, p. 473-552.
BANERJEE A., DUFLO E., GLENNERSTER R., KOTHARI D. [2008b], « Improving im-
munization coverage in rural India : a clustered randomized controlled evaluation
of immunization campaigns with and without incentives », Mimeogr., Depart-
ment of Economics, MIT.
BANERJEE A., JACOB S., KREMER M., LANJOUW J., LANJOUW P. [2005], « Moving
to universal education ! Costs and trade offs », Mimeogr., Department of Econo-
mics, MIT.
BEAMAN L., CHATTOPADHYAY R., DUFLO E., PANDE R., TOPALOVA P. [2009],
« Powerful women : does exposure reduce bias ? » BREAD Working Papers 181 ;
NBER Working Papers 14198, forthcoming in Quarterly Journal of Economics.
BERRY J. [2008], « Child control in education decisions : an evaluation of targeted
incentives to learn in India », Mimeogr., Department of Economics, MIT.
BERTRAND M., CHUGH D., MULLAINATHAN S. [2005], « Implicit discrimination »,
American Economic Review, 95(2), p. 94-98.
BERTRAND M., DJANKOV S., HANNA R., MULLAINATHAN S. [2007], « Corruption in
driving licensing process in Delhi », Quarterly Journal of Economics, 122(4),
p. 1639-1676.
BERTRAND M., KARLAN D., MULAINATHAN S., ZINMAN J. [2009], « What’s Adver-
tising Content Worth ? Evidence from a Consumer Credit Marketing », forthco-
ming in Quarterly Journal of Economics.
BJORKMAN M., SVENSSON J. [2007], « Power to the people : evidence from a
randomized field experiment of a community-based monitoring project in
Uganda », CEPR Working Papers 6344, forthcoming in Quarterly Journal of Eco-
nomics.
BLEAKLEY H. [2007], « Disease and development : evidence from hookworm eradi-
cation in the american south », Quarterly Journal of Economics, 122(1), p. 73-117.
BOBONIS G., MIGUEL E., SHARMA C. P. [2006], « Anemia and school participa-
tion », Journal of Human Resources, 41(4), p. 692-721.
COHEN J., DUPAS P. [2007], « Free distribution or cost-sharing ? Evidence from a
randomized malaria prevention experiment », Global Working Papers 14, Broo-
kings Institution.
CRUMP R., HOTZ J., IMBENS G., MITNIK O. [2009], « Nonparametric tests for treat-
ment effect heterogeneity », Review of Economics and Statistics, in press.
DEHEJIA R. [2005], « Program evaluation as a decision problem », Journal of Eco-
nometrics, 125(1-2), p. 141-173.
DE MEL S., MCKENZIE D., WOODRUFF C. [2008] « Returns to capital in microenter-
prises : evidence from a field experiment », Quarterly Journal of Economics,
123(4), p. 1329-1372.
DE MEL S., MCKENZIE D., WOODRUFF C. [2009], « Are Women More Credit Cons-
trained ? Experimental Evidence on Gender and Microenterprise Returns », for-
thcoming in American Economic Journal : Applied Economics.
DUFLO E. [2004a], « The medium run consequences of educational expansion :
evidence from a large school construction program in Indonesia », Journal of
Development Economics, 74(1), p. 163-197.
DUFLO E. [2004b], « Scaling up and evaluation », in : F. Bourguignon and B. Ples-
kovic (Eds.), Accelerating Development, Washington, DC : World Bank/Oxford
University Press, p. 342-367.
DUFLO E. [2007], « Field experiments in development economics », in : R. Blundell,
W. Newey and T. Persson (Eds.), Advances in Economic Theory and Econome-
trics, Econometric Society monograph 42, Cambridge, UK : Cambridge University
Press, chapter 13.
DUFLO E., CHATTOPADHYAY R. [2004], « Women as policy makers : evidence from
a randomized policy experiment in India », Econometrica, 72(5), p. 1409-1443.
DUFLO E., DUPAS P., KREMER M. [2008a], « Peer effects, pupil teacher ratios, and
teacher incentives : evidence from a randomized evaluation in Kenya », Mi-
meogr., Department of Economics, MIT.
DUFLO E., DUPAS P., KREMER M., SINEI S. [2006], « Education and HIV/AIDS pre-
vention : evidence from a randomized evaluation in western Kenya », World Bank
Policy Research Working Papers 402, World Bank.
DUFLO E., HANNA R., RYAN S. [2007], « Monitoring works : getting teachers to
come to school », BREAD Working Papers 103 (see also NBER Working Papers
11880).
DUFLO E., KREMER M. [2004], « Use of randomization in the evaluation of develo-
pment effectiveness », in : O. Feinstein, G.K. Ingram and G.K. Pitman (Eds.), Eva-
luating Development Effectiveness, World Bank Series on Evaluation and Deve-
lopment, Volume 7, New Brunswick, NJ : Transactions, p. 205-232.
DUFLO E., KREMER M., GLENNERSTER R. [2008b], « Using randomization in deve-
lopment economics research : a toolkit », in : T.P. Schultz and J.A. Strauss (Eds.),
Handbook of Development Economics, Volume 4, Chapter 15, Amsterdam : Else-
vier, p. 3895-3962.
DUFLO E., KREMER M., ROBINSON J. [2008c], « How high are rates of return to
fertilizer ? Evidence from field experiments in Kenya », American Economic Re-
view, 98(2), p. 482-488.
DUFLO E., KREMER M., ROBINSON J. [2008d], « Why are farmers not using fertili-
zer ? Procrastination and learning in technology adoption », Mimeogr., Depart-
ment of Economics, MIT.
DUPAS P. [2007], « Relative risks and the market for sex : teenage pregnancy, HIV,
and partner selection in Kenya », Mimeogr., University of California, Los Angeles.
FISZBEIN A., SCHADY N. (EDS.) [2009], Conditional Cash Transfers : Reducing Pre-
sent and Future Poverty, Washington, DC : World Bank.
GINE X., KARLAN D., ZINMAN J. [2008], « Put your money where your butt is : a
commitment savings account for smoking cessation », Mimeogr., Department of
Economics, Yale University.
GLEWWE P., ILIAS N., KREMER M. [2003], « Teacher incentives », Working paper,
Department of Economics, Harvard University.
GLEWWE P., KREMER M., MOULIN S. [2009], « Many children left behind ? Text-
books and test scores in Kenya », American Economic Journal : Applied Econo-
mics, 1(1), p. 112-135.
GLEWWE P., KREMER M., MOULIN S., ZITZEWITZ E. [2004], « Retrospective vs.
prospective analyses of school inputs : the case of flip charts in Kenya », Journal
of Development Economics, 74(1), p. 251-268.
HECKMAN J. J. [1992]. « Randomization and social policy evaluation », in : C
Manski, I Garfinkel (Eds.), Evaluating Welfare and Training Programs, Cambridge,
MA : Harvard University Press, p. 201-230.
HECKMAN J. J., ICHIMURA H., SMITH J., TODD P. [1998], « Characterizing selection
bias using experimental data », Econometrica, 66(5), p. 1017-1098.
HECKMAN J. J., ICHIMURA H., TODD P. [1997], « Matching as an econometric eva-
luation estimator : evidence from evaluating a job training program », Review of
Economic Studies, 64(4), p. 605-654.
HECKMAN J., LEAMERS E. (EDS.) [2008]. Handbook of Econometrics, Volume 6B,
Amsterdam : Elsevier, 1054 p.
HECKMAN J. J., LOCHNER L., TABER C. [1999], « Human capital formation and
general equilibrium treatment effects : a study of tax and tuition policy », Fiscal
Studies, 20(1), p. 25-40.
HECKMAN J. J., SMITH J., CLEMENTS N. [1997], « Making the most out of pro-
gramme evaluations and social experiments : Accounting for heterogeneity in
programme impacts », Review of Economic Studies, 64(4), p. 487-535.
HECKMAN J. J., SCHMIERER D., URZUA S. [2010], « Testing the correlated random
coefficient model », forthcoming in Journal of Econometrics.
HECKMAN J. J., URZUA S., VYTLACIL E. J. [2006], « Understanding instrumental
variables in models with essential heterogeneity », Review of Economics and
Statistics, 88(3), p. 389-432.
HECKMAN J. J., VYTLACIL E. J. [2008a], « Econometrics evaluation of social pro-
gram part I : using the marginal treatment effect to organize alternative economic
estimators to evaluate social programs and to forecast their effect in new envi-
ronment ». See Heckman and Leamers 2008, p. 4779-4874.
HECKMAN J. J., VYTLACIL E. J. [2008b], « Econometrics evaluation of social pro-
gram part II : using the marginal treatment effect to organize alternative econo-
mic estimators to evaluate social programs and to forecast their effect in new
environment ». See Heckman and Leamers 2008, p. 4875-5144.
HIRANO K., PORTER J. [2005], « Asymptotics for statistical decision rules », Econo-
metrica, 71(5), p. 1307-1338.
HSIEH C.-T., URQUIOLA M. [2006], « The effects of generalized school choice on
achievement and stratification : evidence from Chile’s voucher program », Jour-
nal of Public Economics, 90(8-9), p. 1477-1503.
IMBENS G., ANGRIST J. [1994], « Identification and estimation of local average
treatment effects », Econometrica, 61(2), p. 467-476.
IMBENS G., WOOLDRIDGE J.M. [2008], « Recent developments in the econometrics
of program evaluation », Mimeogr., Department of Economics, Harvard Univer-
sity, forthcoming in Journal of Economic Literature.
KARLAN D. [2005], « Using experimental economics to measure social capital and
predict real financial decisions », American Economic Review, 95(5), p. 1688-
1699.
KARLAN D., ZINMAN J. [2005], « Observing unobservables : identifying information
asymmetries with a consumer credit field experiment », Working Paper 94, De-
partment of Economics, Yale University.
KARLAN D., ZINMAN J. [2007], « Expanding credit access : using randomized sup-
ply decisions to estimate the impacts », Mimeogr., Department of Economics,
Yale University.
KARLAN D., ZINMAN J. [2008], « Credit elasticities in less developed countries :
implications for microfinance », American Economic Review, 98(3), p. 1040-1068.
KREMER M., HOLA A. [2008], « Pricing and access : lessons from randomized eva-
luation in education and health », Mimeogr., Department of Economics, Harvard
University.
KREMER M., MIGUEL E. [2007], « The illusion of sustainability », Quarterly Journal
of Economics, 122(3), 1007-1065.
KREMER M., MIGUEL E., THORNTON R. [2007], « Incentives to learn » NBER Wor-
king Papers 10971, forthcoming in Review of Economics and Statistics.
MANSKI C. [2000], « Identification problems and decisions under ambiguity : empi-
rical analysis of treatment response and normative analysis of treatment
choice », Journal of Econometrics, 95(2), p. 415-442.
MANSKI C. [2002], « Treatment choice under ambiguity induced by inferential pro-
blems », Journal of Statistical Planning and Inference, 105(1), p. 67-82.