Veille bibliographique et publications récentes en évaluation
Cette page centralise les publications récentes, les guides méthodologiques et les ouvrages de référence essentiels à la pratique de l’évaluation. Elle offre un panorama transversal de l’actualité du secteur, présenté ici par ordre chronologique de parution. Les ressources sélectionnées couvrent les deux grands champs d’application de l’évaluation, dont les frontières tendent à se rapprocher :
- Fondamentaux et méthodes
- L’évaluation de l’aide au développement ;
- L’évaluation des politiques publiques nationales et territoriales
Note de navigation : Cette liste constitue un point d’entrée général. Pour des recherches ciblées par secteur (santé, culture, climat…), par type d’outils ou pour consulter les bases de données spécifiques, nous vous invitons à explorer les sous-rubriques dédiées via le menu de navigation « Ressources ».
Fondamentaux et méthodes
- The Magenta Book: Central Government guidance on evaluation, HM Treasury, 2020 (Mises à jour 2024-2025)
Ce document constitue la doctrine méthodologique officielle du gouvernement britannique pour l’évaluation. Complémentaire au Green Book (qui cadre l’investissement ex-ante), le Magenta Book définit les standards de l’évaluation ex-post et in-itinere. L’édition 2020 acte une rupture épistémologique majeure : elle abandonne la hiérarchie rigide des preuves (qui plaçait l’Essai Contrôlé Randomisé, ou RCT, au sommet absolu) au profit d’une approche plus flexible et adaptée à la complexité (« Appropriateness »). Il ne s’agit plus de chercher la « méthode parfaite » dans l’absolu, mais la méthode la plus robuste possible compte tenu des contraintes du réel et de la nature de l’intervention.
L’ouvrage adopte une approche holistique radicale, rejetant le cloisonnement des méthodes : pour appréhender la complexité de l’action publique, il rend indissociables l’évaluation de Processus (mise en œuvre), l’évaluation d’Impact (effets attribuables) et l’analyse de la Valeur pour l’argent (efficience). Cette doctrine accepte la pluralité méthodologique, combinant approches expérimentales et théories du changement pour réduire l’incertitude décisionnelle, tout en posant l’échec comme une conclusion scientifique valide. Il acte ainsi qu’une évaluation rigoureuse peut démontrer l’absence totale de valeur d’une intervention, introduisant une tension assumée entre la vérité scientifique et le risque politique pour les décideurs.
➡ Une idée clé : le cycle ROAMEF Ce concept structure l’élaboration des politiques publiques comme une boucle itérative et non linéaire : Rationale, Objectives, Appraisal, Monitoring, Evaluation, Feedback. Il impose de définir la « Rationale » (la justification de l’intervention de l’État) avant toute dépense, forçant l’administration à valider la logique d’intervention et les métriques de succès bien en amont de la mise en œuvre, transformant l’évaluation en outil de pilotage stratégique plutôt qu’en simple audit de conformité.
- Theories of Change in Reality – Strengths, Limitations and Future Directions, édition Andrew Koleros, Marie-Hélène Adrien, Tony Tyrrell, Routledge, 2024
- Sustainability-inclusive evaluation: Why we need it and how to do it A Footprint Evaluation Guide : J. Davidson, A. Macfarlan, P. Rogers, A. Rowe, K. Stevens, septembre 2023
- Méthodes et approches en évaluation des politiques publiques, coordonné par Anne Revillard, septembre 2023
Cet ouvrage expose un cadre méthodologique varié pour l’évaluation des politiques publiques, conçu comme un pont entre la recherche fondamentale et la pratique appliquée. Il ambitionne de dépasser le clivage traditionnel entre méthodes quantitatives et qualitatives en favorisant un dialogue interdisciplinaire et une compréhension mutuelle des outils. Sa structure pédagogique rigoureusement identique à chaque auteur (définition, utilité, exemple, critères de qualité, limites) permet de comparer des méthodes pourtant strictement différentes.
➡ une idée clé : décomposer systématiquement toute intervention en une chaîne causale ou « théorie du changement » avant de choisir une technique de mesure. Ainsi, la théorie du changement n’est pas considérée uniquement comme un outil ou une méthode mais un point de départ qui permet la sélection des méthodes en fonction des questions évaluatives ayant émérgé.
- Évaluation Réaliste, LIEPP Fiche méthodologique n°33, Sarah Louart, Habibata Baldé, Emilie Robert, Valery Ridde, juillet 2023
- Setting new standards for better MEL, Lessons for grantees & funders, M. Colnar, A. Azevedo, C. Tolmie, and H.Caddick, November 2022
- Practical Wisdom for an Ethical Evaluation Practice, edited by Marthe Hurteau, Thomas Archibald, 2022
Cet ouvrage collectif s’éloigne des manuels techniques pour explorer la dimension morale du métier d’évaluateur. Loin des codes de déontologie rigides qui servent de « check-list », les auteurs mobilisent le concept aristotélicien de Phronesis (sagesse pratique) : la capacité de prendre la bonne décision dans des situations complexes, incertaines et uniques. À travers des récits d’expériences, le livre démontre que l’éthique n’est pas une règle à suivre, mais une compétence de navigation à développer face aux dilemmes du terrain (pressions politiques, voix marginalisées, conflits de valeurs).
L’évaluation est présentée comme une pratique politique et relationnelle, et non neutre. suivre le protocole ne suffit pas à être éthique. Il valide la subjectivité et le doute de l’évaluateur comme des outils professionnels, là où l’industrie cherche habituellement à les effacer derrière des standards impersonnels.
➡ Une idée clé : la « détresse morale » contre l’illusion réglementaire. Les auteurs déconstruisent un certain mythe de la conformité : les codes de déontologie sont des « check-lists » insuffisantes, voire dangereuses, car elles offrent une fausse bonne conscience. Le respect aveugle de la règle peut parfois devenir immoral (ex : l’anonymat protégeant un abus). Contre la détresse morale de l’évaluateur — qui sait ce qu’il faut faire mais en est empêché par le protocole — l’ouvrage impose une réflexivité radicale (journal de bord) et une question qui prévaut sur le contrat : « Qui est réellement avantagé et qui est lésé par cette évaluation ? »
- Evaluation – Fondements, controverses, perspectives – Sous la direction de Thomas Delahais, Agathe Devaux-Spatarakis, Anne Revillard et Valéry Ridde, Décembre 2021

À quoi sert l’évaluation ? Qui évalue et comment? En fonction de quelles valeurs évalue-t-on? L’évaluation est-elle une science, et sur quels paradigmes repose-t-elle? Telles sont les grandes questions explorées par cet ouvrage. Sans défendre une « école » particulière, les auteurs et autrices rendent compte de la diversité des approches à partir de la traduction en français de textes fondateurs et contemporains du champ international de l’évaluation.
Evaluation de l’aide au développement
- Foreign Aid and Its Unintended Consequences, Dirk-Jan Koch, Routledge, 2023
- Le monde du développement : des conflits d’intérêts à tous les niveaux, Valéry Ridde et Jean-Pierre Olivier de Sardan, Revue internationale des études du développement, 249 | 2022, 247-269.
Cet article brise un tabou du secteur de l’aide au développement en proposant une définition élargie et systémique du conflit d’intérêts. Les auteurs décrivent une industrie prisonnière d’une autocensure généralisée. Consultants, ONG, services publics et même bénéficiaires se retrouvent piégés dans une « culture de la complaisance » et de l’auto-congratulation.
Pour assurer leur survie financière, renouveler des contrats ou valider des livrables, tous les acteurs de la chaîne sont incités à produire des narratifs idylliques et à masquer les échecs (« ne pas mordre la main qui nourrit »). L’évaluation devient alors un exercice de style contraint par des termes de référence rigides, où la critique réelle se transforme en un risque professionnel majeur. Du bailleur qui veut voir ses fonds « bien utilisés » au consultant qui veut être payé, une alliance tacite se forme pour minimiser les problèmes réels et invisibiliser les aspérités politiques locales.
- L’évaluation en contexte de développement – enjeux, approches et pratiques, sous la direction de Linda Rey, Jean-Serge Quesnel et Vénétia Sauvain, mai 2022

Manuel destiné aux personnes souhaitant s’initier à l’évaluation de programmes, en particulier en contexte de développement et de coopération internationale. A cet égard, tout en déroulant le fil d’une démarche évaluative classique, il présente plusieurs exemples en lien avec la réalité issue de la pratique des auteurs et autrices.
- Ethics for evaluation – beyond « doing no harm » to « tackling bad » and « doing good », Edited by Rob D. van der Berg, Penny Hawkins, Nicoletta Stame, 2021

This book aim to create a common understanding of the role of ethics in evaluation as well as to provide ethical guidance in evaluation, focusing on evaluations “doing no harm, tackling bad and doing good ». At stake, making sure evaluation adhere to a theoretical framework, practices and standards, effective alerting protocols, leaving no room for complacency, « MEAL washing » or auto-promotion practices in the aid industry.
- La revanche des contextes – Des mésaventures de l’ingénierie sociale, en Afrique et au-delà, Jean-Pierre Olivier de Sardan, 2021

Pourquoi les politiques publiques, les projets de développement, les interventions des ONG sont-ils tous soumis à d’importants écarts entre ce qui était prévu et ce qui se passe effectivement ? Cet ouvrage apporte une réponse particulièrement convaincante et documentée à ce « problème des écarts ». Les politiques publiques standardisées, et en particulier les politiques de développement omniprésentes en Afrique (les « modèles voyageurs »), méconnaissent les multiples contextes dans lesquelles elles sont mises en œuvre. Dans cette confrontation, les acteurs locaux (ciblés par les politiques publiques ou chargés de les mettre en œuvre) jouent un rôle majeur. Les multiples stratégies de contournement des directives et protocoles officiels suivent des « normes pratiques » implicites ignorées des experts internationaux, mais que les enquêtes qualitatives mettent en évidence.
- Evaluation illustrated, a book of cartoons by Chris Lysy, september 2020
Ce livre est un OVNI rafraîchissant dans la littérature de l’évaluation : un recueil de 114 dessins humoristiques et satiriques. Loin des manuels académiques arides, Chris Lysy (créateur du blog FreshSpectrum) utilise le dessin pour déconstruire les absurdités, les frustrations et les défis quotidiens des métiers de l’évaluation. Il aborde des sujets techniques (modèles logiques, rapports, méthodes) sous l’angle de l’humour pour faciliter la pédagogie et la communication. C’est un outil de vulgarisation conçu pour briser la glace avec les clients et humaniser une profession souvent perçue comme rigide et technocratique. Chris Lysy désacralise l’expert pour le montrer en proie au doute et à la bureaucratie. Ses dessins sont des brise-glace pour aborder des sujets qui fâchent ou des supports de choix pour illustrer des formations en évaluation. Bien sûr, il faut avoir une relation de confiance suffisante ou une culture organisationnelle ouverte à l’apprentissage pour que la satire soit bien reçue. Il se moque notamment des dynamiques de pouvoir entre le financeur (qui veut souvent entendre que tout va bien) et l’évaluateur (qui doit chercher la vérité). Ses dessins sur l’éthique et l’indépendance interrogent le fondement moral du métier : sommes-nous des consultants dociles ou des agents de transparence et de vérité ?

- Evaluation to connect national priorities with the SDGs, Stefano D’Errico, Tighe Geoghegan, Ilenia Piergallini, IIED, jan 2020

Ce guide pratique, fruit d’une collaboration entre l’IIED, l’UNICEF, le Ministère des Affaires étrangères finlandais et EVALSDGs, propose une méthodologie pour évaluer les progrès nationaux vers les Objectifs de Développement Durable (ODD). Contrairement à un manuel rigide (« one-size-fits-all »), il offre une approche flexible basée sur les expériences
pionnières de la Finlande, du Nigeria et du Costa Rica. L’ouvrage exhorte les commissaires d’évaluation à ne pas se contenter de suivre des indicateurs statistiques, mais à intégrer l’évaluation (analytique) dans les cycles politiques nationaux existants. Il détaille comment adapter les critères d’évaluation aux principes de l’Agenda 2030 (universalité, équité, intégration) pour transformer les politiques publiques et dépasser la simple mesure de conformité.
Idées clés : le guide affirme que les indicateurs mondiaux ne suffisent pas pour comprendre les dynamiques systémiques et préconise ainsi le passage du « Monitoring » (suivi les indicateurs) à l’« Évaluation » (comprendre la complexité et les causes). Le document laisse entendre que les Revues Nationales Volontaires (VNR) présentées à l’ONU sont souvent des exercices de communication politique superficiels et note que « très peu de pays ont intégré des résultats d’évaluation dans leurs VNR à ce jour », ce qui implique un risque de reporting passif de données sans analyse critique des échecs ou des causes réelles. L’idée qu’un pays doive évaluer si ses politiques nationales (ex: agriculture, commerce) nuisent au développement d’autres pays est politiquement très sensible. Le guide affirme pourtant que le développement n’est durable que s’il l’est partout, obligeant à regarder les externalités négatives internationales.
- Des meilleurs critères pour des meilleurs évaluations – Définitions adaptées et principes d’utilisation Réseau du CAD de l’OCDE sur l’évaluation du développement (EvalNet)

Ce document officiel présente un révision des critères d’évaluation du Comité d’Aide au Développement (CAD) de l’OCDE, adoptée en décembre 2019. Après plus de 25 ans de « mise en service », les cinq critères historiques (Pertinence, Efficacité, Efficience, Impact, Viabilité) sont redéfinis pour s’adapter à la complexité du Programme 2030 et de l’Accord de Paris. Le changement principal est l’ajout d’un sixième critère : la cohérence. Le texte insiste sur le passage d’une vision centrée sur le « projet » et le « bailleur » à une vision centrée sur l’« intervention » et les « partenariats ». Il met en garde contre l’application mécanique de ces critères, prônant une utilisation réfléchie et adaptée au contexte spécifique de chaque évaluation.
➡ les points clés : depuis 1991 le comité d’aide au développement de l’OCDE pose des définitions qui ont vocation à être universelles, applicables à tout type d’intervention : pour comparer, il faut que tout le monde utilise le même mètre-étalon, une clarification des termes pour éviter les confusions.
En introduisant le critère de cohérence, il oblige les évaluateurs à sortir du cadre strict du projet pour regarder les « silos », on ne regarde plus l’intervention en vase clos, mais ses interactions (synergies ou contradictions) avec les autres interventions et les normes internationales. De manière générale, les définitions ont été nettoyées des références aux « bailleurs de fonds ». Pour l’efficacité, il suggère dorénavant l’analyse des « résultats différenciés » (qui gagne, qui perd ?) pour répondre au principe de « ne laisser personne de côté ». La viabilité ne se définit plus par la fin du financement extérieur, mais par la résilience des systèmes locaux.
- Les approches orientées changement, comment suivre et évaluer les changements ? F3E, 2019

Ce guide méthodologique, issu du programme « Prisme » du F3E (2014-2016), propose des alternatives au pilotage linéaire classique des projets de développement, sous l’intitulé « Approches Orientées Changement (AOC) inspiré des méthodes anglophones du « Most Significant Change », « Outcome mapping » ou « Outcome harvesting ». Plutôt que de vérifier uniquement la conformité des activités planifiées, l’ouvrage invite à collecter, analyser et interpréter les changements réels (attendus ou inattendus) observés chez les acteurs. Il décompose le processus en quatre phases itératives (clarification, collecte, analyse, utilisation) tout en traitant l’enjeu de l’articulation (souvent complexe) avec le cadre logique imposé par les bailleurs au moment du financement. Le guide sépare la vision de comment le changement se produit (systémique) de ce que le projet fait (opérationnel). Il met en avant une acceptation de la subjectivité et rompt avec l’ambition d’une évaluation « objective et neutre » pour prôner une construction intersubjective de la réalité. C’est un manuel de « navigation en eau trouble » pour praticiens cherchant à redonner du sens politique et stratégique au suivi-évaluation.
➡ Une idée clé : la bureaucratisation de l’aide a créé une fracture linguistique et cognitive entre ceux qui font (le terrain) et ceux qui financent (le siège). La singularité du manuel est ainsi de proposer des alternatives pour essayer de vivre en « union libre » avec le cadre logique. Néanmoins, le poids du reporting traditionnel reste le frein principal pour mener de front les deux approches.
➡ Une pratique clé : commencer par demander « Qu’est-ce qui a changé ? » (ouvert/inspiration Outcome Harvesting) AVANT de demander « Avez-vous atteint l’objectif X ? » (fermé/inspiration cadre logique) évite de biaiser les réponses dès le départ.
- 2018. Au coeur des mondes de l’aide internationale : regards et postures ethnographiques, P. Lavigne-Delville, M. Fresia, Karthala-APAD.

Cet ouvrage collectif propose une plongée anthropologique dans la « boîte noire » de l’aide au développement. Loin de s’intéresser uniquement aux populations bénéficiaires ou à l’efficacité technique des programmes, il déplace la focale sur les « développeurs » eux-mêmes : expatriés, agents locaux, fonctionnaires et experts. À travers des enquêtes ethnographiques immersives (au sein du HCR, d’ONG ou de ministères), les auteurs décortiquent le quotidien bureaucratique, les rapports de force et les dilemmes moraux de ces professionnels. L’ouvrage démontre que l’aide n’est pas une machinerie rationnelle et fluide, mais un monde social complexe, fait de bricolages, de négociations informelles et de compromis permanents entre les normes rigides des bailleurs et la réalité du terrain. C’est une exploration de la « fabrique » quotidienne de l’aide internationale. Les acteurs passent un temps considérable à produire des rapports et des données (le « reporting ») pour maintenir la fiction que le projet fonctionne, souvent au détriment de l’action réelle. L’ouvrage rompt avec la vision normative (ce que l’aide devrait faire) pour documenter ce qu’elle fait réellement (ses routines, ses comités de pilotages, ses réunions). La « réussite » d’un projet se mesure souvent à sa capacité à produire des rapports conformes, plus qu’à ses effets réels.
Une idée clé : que les bailleurs de fonds acceptent de financer des processus d’apprentissage (avec droit à l’erreur) plutôt que d’acheter des résultats pré-définis (livrables). Par ailleurs, en se concentrant sur « l’efficacité » (a-t-on atteint les objectifs ?), elle évite de poser la question de la pertinence politique (pourquoi sommes-nous là ? Qui a décidé que c’était le problème ?). L’évaluation valide alors le cadre théorique en le rendant technique.
- Evaluation Systems in Development Co-operation, 2016 Review

Ce rapport comparatif, couvrant 37 agences bilatérales et 9 organisations multilatérales, dresse l’anatomie de la gouvernance de l’évaluation au moment charnière de la transition vers les Objectifs de Développement Durable (ODD). Il ne s’agit pas d’une méta-évaluation des résultats de l’aide, mais d’une analyse institutionnelle des « systèmes » qui produisent ces évaluations. L’ouvrage met en lumière une tension structurelle majeure : la difficulté de concilier la demande politique de redevabilité (prouver aux contribuables que l’argent est bien dépensé) avec la nécessité d’apprentissage organisationnel (améliorer les opérations). Par ailleurs, le rapport valide implicitement l’échec relatif de l’agenda de Paris/Busan sur l’appropriation : malgré la rhétorique, la participation réelle des partenaires du Sud dans la conception des évaluations reste marginale (12-16%), les donateurs privilégiant leurs propres exigences de redevabilité sur le renforcement des capacités locales. Le texte acte un repli vers l’évaluation de « projet » au détriment des politiques stratégiques (60% contre 92% en 2010) . Le constat récurrent de décalage temporel (evaluation lag) signifie que les résultats des évaluationsarrivent souvent trop tard pour la prise de décision.
Idée clé : le rapport invite à accepter que la redevabilité et l’apprentissage puissent nécessiter des structures distinctes, un « chien de garde » externe pour la redevabilité et une unité interne pour l’apprentissage, plutôt que de forcer une unité unique à faire le grand écart
Evaluation de programmes de développement : plus de ressources
Evaluation de politiques publiques, santé et territoires (France/Europe/Quebec)
- Guide d’évaluation de programme de promotion du bien-être : de la théorie à la pratique, Département de psychologie de l’Université du Québec à Montréal, C. Bardon, J. Comtois, 2023
Ce guide méthodologique, produit par le département de psychologie de l’UQAM, vise à autonomiser les organisations communautaires dans l’évaluation de leurs interventions. Il déconstruit la complexité de l’évaluation en la scindant en deux volets miroirs : une partie théorique (pages de gauche) et un accompagnement pratique pas-à-pas (pages de droite). L’ouvrage distingue fondamentalement la promotion du bien-être de la prévention, soulignant que la première vise le renforcement des facteurs de protection plutôt que la simple réduction des risques. Il structure la démarche en huit étapes, allant de l’analyse des besoins à la diffusion des résultats, en insistant sur la nécessité d’une modélisation rigoureuse (modèle logique) pour pallier la difficulté de mesurer les impacts à long terme. En effet, les organisations subissent souvent des demandes d’évaluation irréalistes ou inadaptées (ex: prouver un impact social majeur en 6 mois). Le guide leur fournit les armes sémantiques et méthodologiques pour négocier le périmètre de l’évaluation (ex: « nous n’évaluerons que l’implantation car le programme est trop jeune »). L’objectif est de transformer l’évaluation, souvent subie, en un levier d’apprentissage et de crédibilité.
Idées clés : L’importance cruciale de distinguer l’évaluation de l’implantation (processus) de l’évaluation des effets. C’est à dire la nécessité de valider la « théorie du programme » avant de mesurer quoi que ce soit. Par ailleurs, le guide valide le fait de ne pas évaluer les effets à long terme lorsque l’organisation n’en a pas les moyens. Si le modèle logique est appuyé par la littérature et que l’implantation est fidèle, la pertinence du programme sera démontrable sans mesure d’impact coûteuse. Cela sonne le coup d’arrêt de la « course à la donnée inutile » en recentrant l’effort sur l’utilité réelle pour l’organisation et les usagers.
- L’évaluation et la recherche sur les interventions en santé publique, revue d’épidémiologie et de la santé publique, volume 71, avril 2023
Ce numéro spécial acte l’hybridation nécessaire entre la rigueur épidémiologique et la réalité de terrain. Il ne s’agit plus seulement de mesurer l’efficacité biologique d’une intervention, mais de comprendre comment elle s’insère dans un système social complexe. Une intervention de santé publique n’est pas un médicament inerte, mais une série d’événements dans un système social : l’évaluer revient à comprendre l’histoire de ce système, pas juste à prendre une photo avant/après.
L’efficacité n’est pas une valeur absolue mais contextuelle. Une intervention qui fonctionne à Paris peut échouer à Marseille si on ignore les déterminants locaux. L’intégration des méthodes mixtes (chiffres + narratifs) est désormais présentée comme standard scientifique, et non plus comme une concession, remettant en cause de la suprématie de l’Essai Contrôlé Randomisé (ECR).
Ce numéro permet ainsi de faire dialoguer deux mondes qui se dédaigne parfois : les épidémiologistes (les « durs » avec leurs statistiques) et les promoteurs de santé (les « mous » avec leurs approches communautaires).
Une idée clé : ne jamais dissocier l’évaluation de l’efficacité de l’évaluation du processus (fidélité, dose, portée). La fidélité désigne le degré de conformité entre ce qui était prévu sur papier (la théorie) et ce qui a été réellement fait sur le terrain. La dose mesure l’intensité réelle de l’exposition (fréquence, durée) : les participants ont-ils reçu suffisamment d’intervention pour qu’elle agisse ? Enfin, la portée vérifie si l’action a réellement touché la population cible visée.
- Évaluation de programme : de la réflexion à l’action, sous la direction de Anne-Marie Tougas, Annie Bérubé, Natalie Kishchuk, 2021
Ce manuel universitaire se positionne comme un guide méthodologique complet pour combler le fossé entre la théorie académique et la réalité du terrain. Il s’adresse aux étudiants, intervenants et gestionnaires des secteurs de la santé, de l’éducation et des services sociaux. L’ouvrage couvre le cycle entier d’une intervention : de l’analyse des besoins à l’évaluation des effets, en passant par la préimplantation et l’implantation. Il vise explicitement à « outiller » les professionnels en proposant une approche rigoureuse et pragmatique, alignée sur les compétences de la Société canadienne d’évaluation.
Les auteurs engagent une approche culturellement responsable. Alors que la plupart des manuels recommandent la participation pour des raisons d’efficacité (adhésion), ici, le terme « responsable » suggère une dimension éthique et politique plus forte : ne pas nuire aux communautés par des méthodologies coloniales ou inadaptées.
Une idée clé : l’évaluation de la phase de préimplantation. Souvent négligée dans les manuels classiques qui passent directement à la mise en œuvre, cette étape cruciale fait ici l’objet d’un chapitre spécifique. L’évaluation ne commence donc pas à la mesure des résultats, mais bien en amont, avec une attention particulière portée à la validation de la logique de l’action.
- Conduire et partager l’évaluation des politiques publiques, étude annuelle 2020, Conseil d’Etat

Le Conseil d’État consacre son étude annuelle 2020 à l’évaluation des politiques publiques. Le rapport dresse un constat en demi-teinte : si l’évaluation a débuté une forme d’institutionnalisation en France (LOLF, révision constitutionnelle de 2008), elle demeure fragmentée et insuffisamment utilisée pour la décision politique. Le document diagnostique un déséquilibre marqué dans la production : en 2018, 67,8 % des évaluations ont été confiées à des cabinets privés, contre seulement 3,3 % à des universitaires, révélant une dépendance envers le secteur privé. Il plaide pour une transformation culturelle : passer d’une légitimité de statut à une légitimité de résultat, en utilisant l’évaluation comme un outil de management et de médiation interne pour redonner du sens au travail des agents publics. Plutôt que de créer une nouvelle autorité indépendante, le Conseil d’État propose de structurer un réseau d’acteurs et d’instaurer un « droit de tirage » permettant aux groupes d’opposition parlementaire ou aux citoyens de déclencher eux-mêmes des évaluations. L’objectif est de faire de l’évaluation un outil démocratique partagé, capable de restaurer la confiance citoyenne par la transparence des faits et l’analyse rigoureuse des impacts réels, au-delà des intentions affichées.
➡ une idée clé : la conception de la loi devrait « anticiper » dès l’origine les conditions de son évaluation future, en prévoyant immédiatement son financement et le traitement des données nécessaires. Le rapport préconise une transformation radicale de l’étude d’impact. Actuellement réduite à un exercice formel d’« autojustification » des décisions déjà arbitrées, elle doit devenir un véritable instrument d’« aide à la décision ». Cette mutation repose sur l’intégration systématique d’une « étude d’options » : au lieu de valider une solution unique, le législateur doit pouvoir comparer explicitement les « options retenues et les options écartées ».
L’évaluation des politiques publiques en France, Rozenn Desplatz, Clément Lacouette-Fougère, France Stratégie, décembre 2019

Ce document de travail de France Stratégie analyse l’état de l’évaluation des politiques publiques en France, en se focalisant sur les évaluations d’impact (méthodes contrefactuelles). Historiquement en retard par rapport aux pays anglo-saxons et d’Europe du Nord, la France connaît un développement progressif depuis le milieu des années 2000. Le paysage reste marqué par une forte centralisation executive : les administrations (Insee, services statistiques ministériels) sont les principaux commanditaires et producteurs. L’étude souligne un cloisonnement persistant entre le monde académique et la haute fonction publique, ainsi qu’un manque de coordination nationale et de standards de qualité partagés. Malgré l’augmentation du volume de publications, l’influence réelle de ces évaluations sur la décision politique reste encore limitée.
➡ Une idée clé : les auteurs déplorent l’absence de standards de qualité formalisés en France , ce qui favorise le « cherry picking » : la sélection par les décideurs des seuls résultats servant leurs intérêts politiques immédiats. Pour lutter contre le « cherry picking », les auteurs préconisent l’usage de référentiels méthodologiques standardisés qui hiérarchisent la valeur probante des études. L’exemple le plus emblématique cité est l’échelle de Maryland, un standard académique international qui classe la fiabilité des preuves de 1 à 5, du simple constat de corrélation jusqu’à la randomisation.
- Evaluations des politiques publiques – Guide pratique et citoyen, Maurice Baslé, Jean-Michel Josselin, Benoît Le Maux, 2019

Ce guide méthodologique vise à rehausser l’« intelligence des affaires publiques » en reliant la compréhension citoyenne à l’expertise technique. Il structure la démarche évaluative en mobilisant une large palette d’outils : de la modélisation de l’action (théorie du programme, arbres des objectifs, sociogrammes) à la mesure rigoureuse de l’impact (méthodes expérimentales et quasi-expérimentales). Il détaille enfin l’évaluation de l’efficience via les analyses coût-bénéfice, coût-efficacité ou multicritères, pour objectiver la décision publique.
➡ Une idée clé : le coût d’opportunité social. Au-delà de l’analyse comptable classique, ce concept impose de mesurer ce que la collectivité a perdu en ne choisissant pas la meilleure alternative possible. Cette vision rappelle que chaque euro alloué à un projet inefficace est une ressource concrètement soustraite à une autre urgence (santé, éducation), transformant ainsi le calcul d’efficience technique en une mise en tension éthique et permanente des choix budgétaires.
Evaluation des politiques publiques : plus de ressources
Pour aller plus loin
- Gouvernance de l’évaluation
- Principes, normes et standards
- Evaluation de politiques publiques
- Ressources en évaluation par secteur
- Les contre-principes d’évaluation
- Glossaire alternatif
Date de première diffusion : 2010
Dernière actualisation : janvier 2026
Edition : Sébastien Galéa

