Transition vers des villes durables, apprenantes et inclusives : retour d’expérience

Le projet SLICKS (Sustainable, Learning and Inclusive Cities), fruit d’un partenariat entre deux municipalités, Kampala et Strasbourg, porte une ambition de transformation des territoires structurée autour de 3 axes : agriculture urbaine, éducation et paysages (espaces verts, biodiversité,…). 

Ce projet de coopération décentralisé a été financé par l’AFD et opérationnel d’octobre 2023 à décembre 2024.

Ce retour d’expérience fait suite à l’évaluation finale externe contractuelle réalisée par EVAL entre novembre 2024 et mars 2025. Ce texte comme une goutte d’eau à apporter à la mémoire institutionnelle des organismes et institutions de développement.

Axé sur le partage d’expertise et la recherche de synergies, SLICKS a la particularité d’avoir actionné, sans le vouloir ou le rechercher explicitement, l’ensemble des objectifs de développement durable. Modestement, en interaction avec les 17 ODD !

Si le projet est unanimement reconnu comme un succès, une autre spécificité est sa clôture définitive, malgré les soutiens, malgré toutes les pistes de renouvellement explorées, illustrant l’incapacité des acteurs à s’extraire des mécanismes institutionnels et cadres de financement existants, afin de dimensionner et poursuivre une vision stratégique. De construire ou adapter le véhicule en fonction de la destination. Comme la poursuite d’une diplomatie d’influence1. Car si SLICKS a avant tout bénéficié à la ville de Kampala, il a créé des émulsions à Strasbourg et surtout permettait à toute entité française d’enrichir ou de développer un lien privilégié peu à peu tissé avec l’Ouganda. A un moment où la carte des coopérations est à reconstruire et où fument encore les cendres des échecs sahéliens2. Qu’avons-nous appris ?

« SLICKS » désigne également, dans le jargon des sports mécaniques, un modèle de pneu de course, réputé pour son adhérence. Une adhérence qui pourrait s’inscrire comme un critère d’évaluation à part entière : un alliage d’acceptation, d’appropriation et de pérennité. 

Or la pérennité demeure, encore et toujours, le b.a.-ba, le point faible des projets, comme répété depuis des décennies dans les études de développement et rabâché dans les masters divers et variés en gestion de projets. La grande inconnue tellement prévisible dans ce type de format de coopération3


Bien qu’adaptant des recettes connues (participation, flexibilité, démarche concertée et transformation des acquis en stratégie municipale,…), l’approche SLICKS a dépassé le cadre théorique pour se matérialiser de manière effective sur le terrain. SLICKS faisait figure de projet modèle. Une opportunité pour en souligner quelques limites et en extraire certaines préconisations, notamment dans le champs du suivi évaluation.

Quelques écueils et observations

Des écueils et observations tout particulièrement axés à l’intégration du SE dans le cycle de projets :

  • si la phase opérationnelle est « surmonitorée » (plus d’une centaine d’indicateurs de réalisations), la phase de montage n’est que peu documentée, la phase ex-post est complètement absente du cycle de projet
  • les retards initiaux, quelles qu’en soient les causes, récurrents au points d’en devenir systématiques, SLICKS ne faisant pas exception, sont insuffisamment compensés – lorsque la date de démarrage recule, la date de clôture à tendance à rester relativement fixe
  • la phase de montage est disproportionnée par rapport à la phase de mise en oeuvre (44 mois pour l’identification, l’instruction et la contractualisation, 27 mois d’opérationnalisation)
  • l’énergie consacrée à suivre la performance du projet réduit voire empêche de se concentrer et d’observer l’évolution des contextes, de voir se lever les vents contraires
  • les critères du CAD (pertinence, cohérence, efficacité, efficience, impact, durabilité) sur lesquels sont construits les termes de référence sont définitivement insuffisants, par exemple, ils n’intègrent pas l’évaluation de la gouvernance, qui était le point saillant de ce projet. S’attaquer à l’ensemble des critères du CAD oblige alors à faire le tour du propriétaire sans même savoir qui est le propriétaire…
  • une absence ou insuffisance d’espaces de concertation officiels afin d’évoquer les enjeux stratégiques. Les comités de pilotage sont avant tout considérés comme des espaces d’affichage des résultats.
  • la catégorie « population les plus vulnérables » reste générique et insuffisamment catégorisée
  • plus que les autres, les projets de coopération décentralisée sont rythmées par des échéances électorales multiples (deux municipalités, deux gouvernements, etc.) générant des accélérations, ralentissements et rebondissements multiples… Si ces écueils sont bien connus, ils restent relativement peu documentés à l’échelle des projets pour accompagner les équipes de mise en oeuvre dans la conduite dans « zones de turbulence » et de transition.
Apprentissages et recommandations récurrentes

➡ Le système de suivi évaluation doit être développé en phase de montage et validé par le comité de pilotage 

➡ Elargir la gamme de critères du CAD par des critères complémentaires et transversaux. Le système de suivi et évaluation doit également exposer comment ont été sélectionnés et hiérarchisés ces critères, permettant ainsi d’éclairer les valeurs du projet et ses priorités

➡ Programmer des rencontres régulières afin d’actualiser les questions évaluatives. Le SE devient partie prenante du déroulé de l’action et de la gouvernance. Les séminaires SEA jouent un rôle d’adjuvant en en soutenant la démarche en continu, en marge des évaluations contractuelles (mi-parcours, finale).

➡ Valorisation des compétences en suivi-évaluation issues de la coopération pour la transition des territoires :

Au fil des années, les coordinateurs de projets de coopération ont acquis des compétences solides en suivi et évaluation. Ces savoir-faire, développés dans le cadre de la coopération internationale ou décentralisée, représentent un atout qui pourrait être mobilisé pour l’évaluation des projets de transition des territoires, et plus largement pour l’évaluation des politiques publiques à l’échelle nationale. Voir les métiers de l’évaluation.

➡ Mobiliser les compétences en gestion de projets des RRMA (réseaux régionaux multiacteurs)

Les forces et faiblesses de la coopération décentralisée soulignent les besoins des collectivités en gestion de projets. Les expertises des RRMA pourraient être mutualisées au service des projets de territoires ou de toute politique publique.

➡ Identifier les acteurs clés nationaux de la formation continue et systématiser des partenariats. Organiser un transfert des acquis (propriété intellectuelle, processus de mise à jour, utilisation à long terme) vers ces organismes nationaux.

Les projets de coopération investissent massivement dans le renforcement des capacités, mais omettent fréquemment de créer des liens structurés avec les institutions nationales responsables de la formation professionnelles.

➡ Intégrer systématiquement des expertises en ingénierie de formation à tout projet de coopération reposant sur du renforcement de capacité (notamment pour l’analyse des contextes d’apprentissage et l’évaluation des acquis)

Le renforcement des capacités est une expertise à part entière, qui ne saurait être laissée à la bonne volonté, si sincère soit-elle, des responsables de projets. Ce projet qui disposait par essence d’expertises pédagogiques embarquées (la participation du rectorat de Strasbourg) expose des mécanismes didactiques insoupçonnés et une rigueur méthodologique implacable.


➡ Engager une évaluation interne transversale, « au long-cours » avec toute la latitude permise par le département évaluation du bailleur de fonds, sur les causes fréquentes de retards en phase de montage. Proposer des outils d’anticipation et des parcours alternatifs en cas de blocage (quand bien même le bailleur n’est pas en cause dans ce retard). Diagnostiquer les points faibles récurrents qui freinent le lancement des projets. Développer des outils de prévention des retards, formaliser des plans B,…

Notamment, il existe un décalage entre le suivi évaluation du projet souvent très documenté et celui de la phase de montage. Il s’agira d‘harmoniser et renforcer le suivi-évaluation de la phase de montage pour qu’il soit au niveau de celui des projets (en terme d’outils, de manuel, de support,…).

➡ Intégrer dans le dispositif de financement un suivi post projet systématique d’environ 2 ans – un suivi à minima même si l’équipe projet n’est plus présente, la responsabilité de maintenir un lien entre responsables des institutions concernées pour suivre l’évolution des produits et services générés 

➡ Systématiser dès le lancement du projet un partenariat avec une formation en gestion de projet d’un établissement d’enseignement supérieur. Une collaboration visant à partager les retour d’expérience du projet (difficultés, avancées) avec les étudiants et à créer, en lien avec le corps enseignant, des exercices pratiques fondés sur le projets

  • Ce type d’exercice d’évaluation finale externe, contractuelle, est surtout attendu pour servir la redevabilité : une justification de la bonne utilisation de fonds publics. Si tel est le cas, l’ensemble des rapports d’évaluations devrait être rendu public. ➡ vérifier la disponibilité et accessibilité des évaluations à travers une base de données simple d’utilisation et contribuer à développer la mémoire institutionnelle du développement 
  • Des évaluations d’avantage axées sur l’apprentissage permettraient à des équipes d’évaluation mixte (interne/externe) d’accompagner tout au long du cycle de projet en endossant différentes casquettes, notamment celle de la facilitation ➡ orienter les ToR vers plus d’équilibre entre apprentissage et redevabilité pour un accompagnement SE itératif
  • L’intégration de la phase suivant la validation du rapport d’évaluation dans l’apprentissage institutionnel se fait par le double levier du suivi des recommandations/orientations de l’évaluation et de la capitalisation/mutalisation des enseignements tirés d’autres projets, programmes et composantes. ➡ les équipes d’évaluation doivent être impliqués au-delà de la validation du rapport

En conclusion, à trop vouloir réduire le suivi évaluation à des cadres de performance, les effets inverses sont obtenus. Le suivi évaluation enferme les projets dans leurs ambitions de départ. Des objectifs qui se cristallisent au moment où le contexte d’intervention et les montants budgétaires sont encore flous ; au lieu de les aider à monter en puissance et à réajuster le tir en permanence.

SLICKS, de par des diagnostics de départ approfondis, une rigueur méthodologique stricte, un alignement avec les politiques nationales, des liens forts avec la recherche, via la volonté de transformer ses expériences pilotes en plan d’action et stratégie des politiques municipales, et/ou plus simplement via la création des liens professionnels et amicaux évite ses écueils.

Mais encore grâce à une certaine souplesse du bailleur de fond permettant de saisir des opportunités localement. Sans oublier des équipes supports engagées, maitrisant parfaitement les rouages de l’instrument de financement. Enfin des compétences parfois disparates mais souvent solides en « project management » à Kampala à l’instar d’autres environnements anglophones.

Des qualités qui confère à SLICKS des allures de de projet modèle. 

Un projet pourtant dorénavant clôturé, classé, sans opportunité de suivre ou de poursuivre les dynamiques engagées. Certains usages et ancrages perdureront probablement. D’autres non. Nous ne sommes plus en situation de le mesurer. As usual

Si la mayonnaise ne prend pas toujours, la recette est pourtant connue. 

La consultation, la participation, la réciprocité, l’adéquation au contexte, l’alignement avec les politiques nationales sont partie intégrante de tout manuel de suivi évaluation.

Une dernière recommandation alors qui vise un effet sur toute les autres :

La création d’un pool d’accompagnement, multidisciplinaire, hébergé au niveau du bailleur

Ce type de structure (pôle d’expertise, centre d’assistance, facilité d’accompagnement,…) dans tout fond de subventions, vise des objectifs variés :

  • apporter un appui technique aux équipes opérationnelles pour le montage et la gestion de projet
  • contribuer et donner forme à la mémoire du développement 
  • production de supports méthodologiques
  • favoriser activement les synergies entre la multitude de projets exécutés de manière isolée
  • établir un caractère permanent au lien avec la recherche

    De nombreuses « facilités » existent déjà, néanmoins de manière isolées. Dans son absence, reste la perception ou le style de management de chaque responsable de programme : dans le contrôle ou l’accompagnement ?


Pour finir, constatons que les recommandations ci-dessus sont récurrentes depuis des décennies. Les lacunes, persistent. L’évaluation reste finale, contractuelle, inexploitée : pourquoi ? Dans le cadre de projets, suivre les facteurs favorables ou limitants est aussi cruciale que mesurer les effets. Il s’agira d’insérer systématiquement dans toute évaluation une partie liée à l’analyse du contexte propice ou non à l’évaluation. Le positionnement de l’évaluation dans l’organigramme. Analyser puis relier contribution directe des données et apprentissages SE à la prise de décision stratégique au plus haut niveau.

L’œuvre de Muramuzi explore la nature et la vie rurale-urbaine ougandaise, de la flore et la faune de son village à la vie animée de la ville, incluant les marchés, les habitants, les modes de transport ainsi que les paysages urbains ou plutôt architecturaux de la dynamique Kampala. Il a cultivé son talent en participant aux projets artistiques et initiatives de son école primaire, notamment en réalisant des illustrations artistiques sur tableaux noirs.

Village of flowers. John Bosco Muramuzi. 
Transition vers des villes durables, apprenantes et inclusives : retour d’expérience
Village of flowers. John Bosco Muramuzi. L’œuvre de Muramuzi explore la nature et la vie rurale-urbaine ougandaise, de la flore et la faune de son village à la vie animée de la ville, incluant les marchés, les habitants, les modes de transport ainsi que les paysages urbains ou plutôt architecturaux de la dynamique Kampala. Il a cultivé son talent en participant aux projets artistiques et initiatives de son école primaire, notamment en réalisant des illustrations artistiques sur tableaux noirs.



En bref

L’expérience SLICKS permet d’entrevoir diverses recommandations pragmatiques applicables à tout projet de transformation urbaine.

Une recommandation néanmoins permettrait un effet levier sur toutes les autres : la constitution de pools d’accompagnement des projets au niveau du bailleur de fonds. Pour se faire, l’évaluation doit également être positionné à un niveau stratégique et non plus une simple mesure de la performance des équipes opérationnelles.

1. Formalisation du SSE en phase de montage

Définir et formaliser le système de suivi-évaluation dès la phase de montage, avec validation du comité de pilotage, tout en tenant compte de son caractère évolutif.

2. Accompagnement de la phase de montage

Au niveau du bailleur, engager une analyse transversale des blocages en phase de montage, et combler le déficit de littérature existante concernant l’appui à l’écriture de projet (vs manuel de mise en oeuvre). Réallouer les ressources pour renforcer la phase de montage, solliciter des scénarios alternatifs systématiques. 

3. Dépasser les critères du CAD

Intégrer des critères d’évaluation spécifiques (gouvernance, consultation, participation, la réciprocité, adéquation au contexte, alignement avec les politiques nationales,…)

4. La maintenance du SSE comme outil de pilotage stratégique

Organiser des séminaires SEA périodiques, pour partager les apprentissages, libérer la parole, ajuster les questions évaluatives et les méthodes, renforcer les capacités des acteurs impliqués en SE

5. Organiser le transfert d’expérience et de compétences en SE, des programmes de coopération vers les politiques publiques

Reconnaître et valoriser les compétences structurées en suivi évaluation des coordinateurs de projets de coopération ; établir des passerelles afin de transférer l’expérience en suivi-évaluation de la coopération vers l’évaluation de politiques publiques

6. Embarquer une ingénierie pédagogique

Associer aussi systématiquement que possible une expertise interne en ingénierie de formation à tout projet de coopération incluant du renforcement de capacités

7. Embarquer les organisations de formation professionnelle

Approcher systématiquement les organismes nationaux de formation professionnelle continue dans les projets de coopération pour assurer le transfert et la durabilité des actions de renforcement des capacités.

8. De la coopération décentralisée à la transition des territoires

Favoriser une dynamique d’échanges réciproques entre agents des collectivités locales et opérateurs des RRMA afin de mutualiser les expertises et renforcer les capacités de tous les acteurs territoriaux.


9. Un pont entre théorie et pratique : les partenariats universitaires

Établir dès le lancement de chaque projet un partenariat avec une formation universitaire en gestion de projet pour le partage d’expériences et la création de supports de formation basés sur le projet.


10. Mémoire institutionnelle

Vérifier et garantir la publication systématique des évaluations finales externes et leur accès via une base de données simplement accessible afin de renforcer la redevabilité et consolider la mémoire institutionnelle.

11. Des termes de référence évolutif pour ajuster l’évaluation et répondre à des besoins opérationnel émergents

Ajuster les Termes de Référence (ToR) pour assurer un équilibre entre apprentissage et redevabilité, où l’évaluateur externe peut également jouer un rôle de facilitation et participer à prolonger les effets d’un projet clôturé 

12. Poursuivre la relation au-delà de la remise du rapport d’évaluation

Impliquer les équipes d’évaluation après la validation du rapport pour assurer le suivi des recommandations et la capitalisation des enseignements.

Pour aller plus loin

  1. Voir « feuille de route de l’influence, MEAE, 2021″ ↩︎
  2. De « Vingt ans d’aide au Sahel – Trouver des problèmes aux solutions« , Club du Sahel, Jean-David Naudet, 1999 à « Quelle stratégie pour la France en Afrique ? Pierre Prod’homme, Revue Défense Nationale, 2023
    ↩︎
  3. Par exemple, en 1973, Schumacher en prônant des solutions à petite échelle, des technologies appropriées et l’autonomisation locale, dans son ouvrage « Small Is Beautiful :  A Study Of Economics As If People Mattered  » fournit un cadre conceptuel pour concevoir des projets dont les bénéfices sont susceptibles de perdurer grâce à l’appropriation et aux capacités locales, rejoignant ainsi l’essence du critère de durabilité du CAD de l’OCDE (1991.) ↩︎

Commission d’évaluation de l’aide publique au développement : début des nominations

La parution du décret

Le décret relatif aux modalités de fonctionnement de la commission de l’aide publique au développement est paru le 8 février 2025. Pour rappel, la commission est composée de deux collèges : un collège de 4 parlementaires (2 députés, 2 sénateurs) et un collège de 10 experts indépendants (désignés par décret).

Les 2 postes de députés ont été pourvus le lundi 24 mars 2025, la Présidente de l’Assemblée nationale a désigné Sabrina Sebaihi et Hervé Berville.

Sabrina Sebaihi représente la 4e circonscription des Hauts-de-Seine et siège au groupe Écologiste et Social à l’Assemblée nationale. Elle est membre de la Commission des affaires étrangères et a été réélue en 2024. 

Egalement réélu en 2024 et membre de la Commission des affaires étrangères, Hervé Berville siège pour sa part avec le groupe Ensemble pour la République. Il a occupé le poste de Secrétaire d’État à la Mer de 2022 à 2024.

Un peu d’IA pour se projeter et identifier quelques critères d’évaluation

Si nous demandons à Perplexity Pro d’anticiper les critères d’évaluation ou questions évaluatives en fonction des profils des intéressés (voir ci-dessous), les retours sont très classiques avec des questions souvent récurrentes dans les projets et programmes de coopération.

Sauf, sans doute, la question centrale de l’indépendance du mécanisme de suivi évaluation1, qui constitue l’essence même de cette commission. Laquelle s’apprécie notamment à travers le recrutement et la composition de ses membres, actuellement en cours. A travers le choix des nominations, de l’autorisation de points de vue disruptifs ou non se joue en partie l’utilité de cette commission. Bien sûr, son champ d’action dépendra également des moyens alloués pour aller chercher des réponses.

Au coeur de la matrice, des critères sur l’indépendance de la Commission d’Évaluation

Prompt : « Quelles questions évaluative et critères pour estimer l’indépendance d’une commission d’évaluation de l’aide au développement ? (Gemini 2.5)

1. Indépendance statutaire et structurelle (les fondations)

Ce critère évalue si les textes fondateurs et la composition de la commission la protègent des influences politiques et institutionnelles.

La composition et le processus de nomination garantissent-ils la pluralité et la compétence, à l’abri des pressions ?

Transparence de la nomination des experts : y a-t-il eu un appel à candidatures public ? Les critères de sélection sont-ils connus ?

Diversité des profils d’experts : la composition reflète-t-elle une diversité d’expertises (économie, sciences sociales, environnement, géopolitique) et de courants de pensée (critiques, réformistes, etc.) ?

Irrévocabilité du mandat : les membres peuvent-ils être démis de leurs fonctions avant la fin de leur mandat ? Si oui, pour quels motifs et selon quelle procédure ? Un mandat irrévocable (sauf faute grave) est un gage d’indépendance.

2. Indépendance opérationnelle et méthodologique (le pouvoir d’agir)

Ce critère apprécie la liberté de la commission dans la conduite de ses travaux au quotidien.

La commission est-elle libre de définir son programme de travail et ses méthodes ?

Autonomie de programmation : qui décide des politiques et projets à évaluer ? La commission elle-même, ou répond-elle à des saisines du gouvernement ou de l’AFD ? Un bon équilibre serait une majorité de son agenda auto-défini.

Libre accès à l’information : la loi garantit-elle à la commission un accès total, direct et rapide à toutes les données et documents de l’AFD et des ministères concernés, y compris les informations confidentielles ?

Choix des méthodes : la commission est-elle souveraine dans le choix de ses méthodologies d’évaluation, sans que l’administration puisse imposer un cadre ou un angle d’analyse ?

3. Indépendance financière et matérielle (les moyens de l’indépendance)

Ce critère est crucial : sans moyens propres et suffisants, l’indépendance reste théorique.

Les ressources de la commission sont-elles suffisantes et sanctuarisées ?

Origine et pérennité du budget : le budget est-il inscrit sur une ligne propre dans la loi de finances (voté par le Parlement) ou dépend-il du bon vouloir d’un ministère ou de l’AFD ? Est-il pluriannuel pour assurer une visibilité ?

Adéquation du budget : le montant alloué permet-il de mener plusieurs évaluations approfondies par an, incluant des missions de terrain coûteuses ?

Autonomie de gestion : la commission dispose-t-elle de son propre secrétariat permanent et peut-elle recruter librement son personnel et ses consultants externes, sans dépendre des effectifs des administrations qu’elle évalue ?

4. Indépendance dans la diffusion et le suivi (la portée des travaux)

Ce critère évalue si la commission peut communiquer ses résultats sans filtre et si ses recommandations ont un réel impact.

La commission maîtrise-t-elle sa communication et le suivi de ses recommandations ?

Politique de publication : les rapports sont-ils rendus publics dans leur intégralité et de manière simultanée à leur remise au gouvernement et au Parlement ? Y a-t-il un risque de censure ou de retard de publication ?

Obligation de réponse : le gouvernement et l’AFD sont-ils légalement tenus de répondre publiquement aux recommandations de la commission dans un délai imparti ?

Dialogue direct avec le Parlement :
la commission présente-t-elle ses travaux directement devant les commissions parlementaires (Affaires étrangères, Finances) pour alimenter le débat public et le contrôle démocratique ?

Avant de retomber sur une grille de questions évaluatives plus classique et transversale

Prompt : « Compte tenu des prises de positions antérieures de Sabrina Sebaihi et de Hervé Berville, ainsi que du contexte international actuel, quels critères et questions évaluatives pourraient-ils proposer conjointement pour évaluer l’aide publique au développement française ? (Perplexity pro)

  1. Efficacité et redevabilité
  • A quel point les résultats sont-ils conformes aux objectifs ?
  • A quel point les rapports d’avancement sont précis, honnêtes et crédibles ?
  • Quel équilibre entre des différents niveaux de redevabilité (envers les citoyens, envers les différents parlements, envers les bailleurs de fonds, etc.)
  1. Partenariat équitable et horizontalité

    • L’approche dépasse-t-elle les relations État-État pour impliquer la société civile ?
    • Les pays bénéficiaires participent-ils à la définition des projets qui les concernent ?
  2. Durabilité environnementale et justice climatique

    • Comment l’APD contribue-t-elle à la protection de l’environnement et à la lutte contre le réchauffement climatique ?
    • Les projets financés sont-ils compatibles avec les objectifs de l’Accord de Paris ?
  3. Transparence budgétaire

    • La budgétisation des fonds permet-elle de distinguer l’APD « réelle » ?
    • Comment évaluer l’impact de la taxe sur les transactions financières dans le financement du développement ?
  4. Cohérence des politiques publiques

    • Existe-t-il une coordination efficace entre diplomatie, défense et développement (approche « 3D ») ?
    • L’APD est-elle alignée avec les autres politiques françaises (commerciale, migratoire, etc.) ?
  5. Inclusivité et réduction des inégalités

    • Les projets intègrent-ils une dimension de genre et favorisent-ils l’autonomisation des femmes ?
    • Comment l’APD contribue-t-elle à réduire les inégalités dans les pays partenaires ?
En conclusion

Nous obtenons ainsi un triptyque.

  1. La commission d’évaluation, une fois constituée, pourra jouer la fonction d’évaluation indépendante.
  2. La politique de suivi et d’évaluation du groupe AFD illustre, d’un point de vue interne, la gouvernance de l’évaluation2.
  3. Le Fonds d’Innovation pour le développement, sous l’égide de l’AFD et présidé par Esther Duflo finance – tranche par tranche – et accompagne des projets innovants en les dotant de méthodes d’évaluations scientifiques et rigoureuses.

Du juste équilibre des 3 composantes, indépendance, gouvernance et expérimentation mais encore de la fonctionnalité de chacune, dépendra la cohérence d’ensemble du système de suivi et évaluation ainsi développé.

Néanmoins, quelle autre politique publique ou ministère dispose :

  • d’une commission indépendante d’évaluation ?
  • d’une politique interne de suivi et d’évaluation ?
  • d’un dispositif de financement de l’innovation présidé par un ou une prix Nobel d’économie ?

Ainsi, dès 2012, lors de la conférence « Malaise dans l’évaluation » , l’AFD notait que si l’efficacité de l’aide au développement est régulièrement décriée, elle est toutefois la politique publique la plus évaluée.

Un enjeu sera ainsi le transfert des apprentissages de cette commission et le déploiement de cette architecture de l’évaluation (commission indépendante, politique interne et financement de l’innovation) à toute autre politique publique. Notamment les politiques de transition des territoires.

Pour aller plus loin

  1. Voir Un environnement propice à l’évaluation : quels leviers ? ↩︎
  2. Voir la gouvernance de l’évaluation et notamment les documents liés à l’institutionnalisation de l’évaluation, par exemple la loi espagnole : Ley de institucionalización de la evaluación de políticas públicas en la Administración General del Estado, 27/2022 ↩︎

Retour d’expérience sur l’utilisation de l’IA en évaluation de projets

Ce post informel vise à comparer deux évaluations de projets finales, réalisées en 2024/2025, la première sans recours à l’IA et la seconde avec un recours partiel à l’IA.

En terme de contexte, il s’agit d’évaluations externes de projets de coopération décentralisée, dans le domaine de la transition urbaine et de la transformation des territoires.

La première en Tunisie sur les thématiques de la mobilité douce et de la participation citoyenne (projet Autrement : Aménagement Urbain du Territoire pour REinventer les Mobilités et ENgager les Tunisiens). La seconde en Ouganda sur des thématiques multiples (éducation, agriculture urbaine, développement de corridors écologiques, réhabilitation de zones humides,…) : le projet SLICKS (Sustainable, Learning and Inclusive Cities).

L’IA n’a pas été utilisée pour des phases d’écriture. Plutôt pour éclaircir et analyser le contexte, résumer des documents, retrouver des informations éparpillées, très peu pour de la compilation de données.

Les outils utilisés ont été principalement : 

Chatbot arena est à l’origine un projet de recherche, très pratique, il permet sans compte et sans identification préalable de comparer les réponses de 2 modèles de IA, choisis de manière aléatoire, avec pour objet de voter pour la meilleure réponse. 

Ce retour d’expérience sur l’utilisation de l’IA en évaluation de projet est par essence déjà partiellement obsolète : l’interface de Perplexity pro a par exemple en l’espace de quelques mois déjà évoluée à de multiples reprises.

Etude documentaire

Dans le cadre de Autrement, moins d’une dizaine de documents avaient été fournis initialement, essentiels, et environ une demi-douzaine ont été sollicités en cours d’évaluation. En terme de bonne pratique, un dossier avait été préparé à destination de l’évaluateur avec un mémo présentant les différents documents. 

Sur fonds européens, une énorme attention avait été portée à la communication dont la production contractuelle d’une stratégie et d’un plan de communication. Très populaire en Tunisie, l’actualisation régulière de la page facebook du projet en était le vecteur principal. 

Aseptisés, les rapports semestriels de suivi ne permettaient que trop vaguement de retracer le cycle de vie du projet. Détourné de leur usage, seule la relecture des posts facebook souvent bi-hebdomadaires sur une durée de 3 ans a permis de saisir un certain quotidien du projet dans sa chronologie. S’imprégner des commentaires, analyser les images mises en avant ou comprendre en regardant les arrières plans (kakémonos, buffets, feuilles de présences,…) l’immense charge opérationnelle sur une équipe tout à fait réduite qui a organisé des centaines d’évènements. Une ré-appropriation tardive (le projet était alors déjà clôturé) mais nécessaire pour l’évaluateur, sans doute inaccessible via l’utilisation de l’IA.

A l’inverse, sur SLICKS, le projet avait produit et transmis près d’une centaine de documents, tous aussi intéressants les uns que les autres, mais encore en vrac, à l’approche de sa clôture. 

L’avantage de Perplexity pro était justement de pouvoir télécharger des documents. L’usage de l’IA a alors permis de compiler/résumer chaque document pour ensuite les intégrer manuellement dans un tableur avec le titre et la date de la production, les auteurs et une note de commentaire. 

L’avantage de la lecture directe – sans appui de l’IA – est cependant en bout de course, c’est à dire en fin d’évaluation, cette impression de connaitre « intimement » chaque document, parcouru des dizaines de fois, savoir où trouver une information précise, avoir détecté parfois en lisant à travers les lignes les sources de motivations, les déceptions, une appréciation sur la qualité des partenariats, les conflits larvés, les modes de travail, les grains de sables dans les rouages de la machine. Cette double lecture, déjà souvent rendue difficile en raison du discours policé des formats de reporting, devient alors totalement insaisissable avec l’IA, avec une masse uniforme des documents, ne reste plus qu’un tout impersonnel.  

A l’inverse, j’ai le souvenir de rapports semestriels tellement imbuvables (« le 12 janvier nous avons eu une réunion avec x, le 26 février se tenait le séminaire avec y,… ») que la fonction de résumé, d’extraction des idées clés, de simplification grâce à l’IA est tout autant extrêmement louable. Mais encore, il faut savoir paramétrer son IA car lui demander de lire « entre les lignes » peut être tout simplement bluffant.

Collecte de données 

Analyse du contexte

En ce qui concerne le contexte tunisien, étaient systématiquement évoquées des lourdeurs et complexités administratives. Néanmoins, les entretiens individuels n’ont jamais permis de reconstituer – dans le détail ou dans le temps imparti – la réalité de cette complexité. L’IA aurait sans doute été précieuse pour aider à reconstituer précisément chaque procédure administrative et identifier les principaux points de blocage.

En ce qui concerne l’évaluation ougandaise, l’IA a tout d’abord servi de béquille, toujours via l’accès aux documents (lorsque comme moi vous avez une mauvaise mémoire…) permettant surtout un gain de temps :

  • Comment s’appelait tel agent de la municipalité ? Et le nom de la zone humide ? L’acronyme de l’agence de l’environnement ? La date du deuxième comité de pilotage ?

Mais encore d’effectuer directement quelques calculs : quelle est la répartition du temps de projet entre la phase de développement et la phase de mise en œuvre ?

En ce qui concerne l’analyse du cadre logique, l’IA a peu été sollicitée. Quelques questions comme « quelle est la proportion d’indicateurs atteint/non atteint » ou « quels indicateurs potentiellement pertinents sont absents ? » ont bien été posées. Mais le format du cadre logique, avec de multiples notes qualitatives permettant d’apporter des nuances ou de mieux interpréter les résultats rendait périlleuse toute délégation qui n’aurait pas été vérifiée « manuellement. » 

Astuce : le prompt « trouve les indicateurs qui étaient présents dans le cadre logique initial et qui ne sont plus présents dans le cadre logique final » est bien plus éclairant pour identifier les objectifs abandonnés en cours de route que la seule analyse des indicateurs non atteints ! 

Par contre, en ce qui concerne l’analyse des contextes, l’IA permet sans doute d’aller droit au but dans ses recherches : « quel est le montant des investissements français en Ouganda ? y’a-t-il eu des cas d’expropriation sur des projets de restauration de zone humide soutenus par des bailleurs de fonds ? Quelle est la proportion de l’aide française allouée à la coopération décentralisée ? Quelle est l’ampleur de la coupe budgétaire de l’APD française sur le budget 2025 ? », etc.

C’est sans doute à double tranchant car répondre à ces mêmes questions par tâtonnement tout en consultant de multiples sources permet d’obtenir progressivement et même involontairement d’autres éléments de contexte pertinents.

Phase d’écriture

Comme indiqué plus haut, l’IA n’a pas été utilisée pour générer du texte qui aurait été incorporé à l’évaluation. Des textes générés, à titre d’essais, pour reproduire le déroulé chronologique des actions n’étaient pas satisfaisants et devaient systématiquement être repris.

D’autres textes, toujours à titre d’expérimentation, étaient bluffants mais nécessitaient un travail préalable de génération de prompt aussi conséquent en terme de temps que le travail direct d’écriture…

L’IA aurait éventuellement pu permettre une fois l’écriture achevée, manuellement, de tout reformuler dans le language attendu, plus direct, des phrases moins alambiquées que celles que vous subissez ici, des clarifications pour des acteurs ayant des connaissances variables du projet. Décliner plusieurs versions en un simple clic, etc. Cela demande néanmoins un certain détachement de l’évaluateur pour considérer son texte comme un objet purement administratif mais aussi une phase de travail complémentaire, afin d’exclure toute perte de sens du texte initial.  Une nouvelle phase chronophage et non prise en compte dans les termes de référence initiaux.

En bref 

J’ai souvent été pris entre 2 feux : entrer directement dans le vif du travail d’évaluation ou prendre le temps de s’en écarter pour générer des prompts de qualité, bien organiser ses espaces (les dossiers où sont rangés les documents dans Perplexity) et les subtilités toujours changeantes entre les potentialités de requête (web, documents des espaces, académiques, forum de discussion,…). Dans cette période de far west de l’IA, les mises à jour et évolutions ergonomiques étaient quasi-quotidiennes.

Priorisant la première option, avec des requêtes mal formulées, sans comprendre comment s’organisait le périmètre de lecture ou la hiérarchisation des données lorsque qu’une requête recouvrait potentiellement des dizaines de documents, j’ai aussi souvent eu l’impression de perdre du temps. Ou encore, s’agacer face à des discussions qui ne suivent plus le fil de discussion et repartent de zéro. Commencer une tâche avec l’IA, pester et la finir humainement au « jus de cerveau déconfit » .

Ce n’est pas le même métier 

Au final, en terme de tâches, ce n’est plus vraiment le même métier. Dans son approche traditionnelle, artisanale, il y a une certaine satisfaction d’un travail d’évaluation achevé : construire un texte, organiser des points de vue, transmettre des recommandations. Satisfaction que je ne retrouve pas forcément en tant que « dresseur d’IA ». Pas plus qu’en tant que manager d’une équipe d’évaluation par ailleurs, chacun ses appétences. 

Du point de vue du bailleur ou du commanditaire 

Triste constat ou non, le gain de qualité d’une approche artisanale n’en vaut pas forcément le surcoût. Tout dépend des enjeux et du contrat initial.

En ce qui concerne les enjeux, bien sûr à l’échelle d’une politique publique, ce surcoût est négligeable. Ou plutôt à coût équivalent, une approche classique pourra utiliser l’IA pour couvrir un périmètre plus vaste et générer des analyses plus profondes.

Pour l’évaluation de relativements modestes projets de développement comme ceux pris ici en exemple, visant à analyser leurs performances dans un cadre contractuel, le gain d’une mobilisation d’un consultant sur 30 jours versus un premier jet rapide de « gavage » d’IA (analyser les documents de projets grâce à un prompt fourni et détaillé) est sans doute fine – mais encore pourrait générer un gain de cohérence global de l’exercice : même pondération, même appréciation des critères,…

D’où la référence au contrat initial, et particulièrement à l’adaptation des TdR (termes de référence).

En effet, au-delà de l’approche IA ou traditionnelle, de l’inclusion de l’IA ou non, les limites de ce genre d’exercice d’évaluation perdurent au fil des années puis des décennies :

  • l’évaluation arrive trop tardivement dans le cycle de projet et ne participe pas à révéler les valeurs qui sous-tendent l’action
  • le dispositif de suivi et évaluation ne concerne que la phase opérationnelle, les cafouillages récurrents et semble-t-il systématique des phases de montage de projet ne sont pas documentés et sortent du périmètre de l’évaluation 
  • le système de suivi évaluation n’est pas validé par le comité de pilotage sous la forme d’un document formalisé (comme peut l’être la stratégie de communication évoquée plus haut sur les projets européens)
  • les termes de références sont élaborés en amont et ne sont pas réactualisés tout au long de l’évaluation pour affiner les centres d’intérêt et questions évaluatives
  • les projets évoluent en silo sans mise en commun des apprentissages
  • des cycles de projets unique, trop court, ne permettant pas à l’évaluation de dégager des effets mais uniquement les impulsions générées
  • pas de visibilité sur le parcours de l’évaluation une fois celle-ci achevée
  • la perception partagée que seule la présentation powerpoint sera lue et que tout doit apparaitre dans le résumé exécutif « pour ceux qui ne lirons que le résumé exécutif » 

L’IA pourrait ainsi permettre, à budget égal de mieux répartir le suivi évaluation tout au long du cycle de projet

  • programmer dès le démarrage la remise de l’ensemble des pièces constitutives du système de suivi évaluation :  modélisation, cadre logique, présentation du SSE, évaluation à mi-parcours, évaluation finale
  • adopter des formats courts et itératifs (par exemple plutôt qu’un long rapport d’évaluation, une présentation type powerpoint qui va être présentée dès le retour du terrain puis évoluer à différents moments clés pour inclure les différentes perceptions qui auront émergées) 
  • améliorer les cadres logiques initiaux en fonction d’erreurs récurrentes sur l’utilisation de la méthode (omission des phases d’analyse initiale, absence d’indicateurs permettant de qualifier et quantifier l’évolution des risques, d’apprécier les vents contraires, déséquilibre entre indicateurs de réalisations et d’effets, terminologie qui diffère dans le cadre logique d’un projet à l’autre…)
  • extraire et confronter les apprentissages de projets similaires comme base préalable de toute écriture de projets

    Mais surtout, l’utilisation (voire l’autorisation ou non) de l’AI et sur quelles tâches doit être précisée dans les termes de références puis re-spécifié en fonction de la réponse de l’équipe d’évaluation. Un texte généré en quelques minutes ou un travail de recherche de plusieurs jours ne saurait être rémunéré de la même façon.


Un paragraphe dédié à l’utilisation de l’intelligence artificielle dans les ToR

L’utilisation et quelle utilisation de l’AI est autorisée ou attendue doit être explicité dans les termes de référence et discuté âprement avant tout contractualisation car elle modifie de manière substantielle le nombre de jours prestés.

Quelques outils IA :

Des centaines d’onglets ouverts, des questions qui tournent dans plusieurs fenêtres et vous ne savez plus ni où est votre question initiale ni comment accéder aux réponses générées ? Allez vous coucher ou essayer le lien suivant comme base de départ :

Contexte :

En bref : cet article présente une expérimentation d’outils IA dans le cadre d’une évaluation de projet en Ouganda, dans la foulée d’une autre évaluation menée sans IA en Tunisie (les deux phases de terrain ayant eu lieu en 2024). L’objectif était de voir concrètement ce que l’IA pouvait apporter au métier d’évaluateur.

L’IA s’est montrée particulièrement efficace pour des tâches de recherche et de synthèse d’informations factuelles :

Clarifier le contexte : retrouver des informations sur des procédures administratives, des acronymes, des dates, etc.

Traiter une grande masse de documents : pour le projet en Ouganda, l’IA a permis de compiler et de résumer une centaine de documents, ce qui aurait été très chronophage manuellement.

Perte de la « compréhension intime » : l’analyse manuelle des documents, bien que plus lente, permet une immersion profonde dans le projet, des points de détails aléatoires, une compréhension des non-dits et des dynamiques humaines que l’IA ne saisit pas forcément.

L’IA a été peu utile pour analyser des éléments du cadre logique, car le risque d’hallucination et les nécessaires vérifications rendaient une analyse automatisée plus chronophage qu’une simple analyse manuelle. De la même manière, non convaincu par la qualité des textes fourni et des multiples niveaux d’adaptation nécessaires, une écriture manuelle était jugée plus rapide.

Néanmoins avec l’amélioration continue des modèles, le temps dédié à la génération de prompts est de mieux en mieux investi, avec des possibilités d’exploitation vertigineuses. En quelque secondes, il est désormais possible de faire analyser un étude de base, une évaluation à mi-parcours une évaluation finale d’un même projet et obtenir un niveau de qualité, qui même s’il est perfectible, freinera les ardeurs de tout commanditaire à mobiliser des ressources complémentaires.

Retour d’expérience sur l’utilisation de l’IA en évaluation de projets
Les métiers de l’évaluation : avant/après
Pour aller plus loin

Le monde du développement, des conflits d’intérêt à tous les niveaux

Valéry Ridde et Jean-Pierre Olivier de Sardan, « The Development World: Conflicts of Interest at All Levels », Revue internationale des études du développement, 249 | 2022, mis en ligne le 02 septembre 2022


Dans cet article, Valéry Ridde et Jean-Pierre Olivier de Sardan proposent une définition inclusive du conflit d’intérêt.

Le conflit d’intérêt intervient lorsqu’un acteur engagé à n’importe quel degré d’ingénierie de projet, humanitaire ou de développement, estime nécessaire d’afficher des opinions qui contredisent ses perceptions ou ses connaissances, de retenir des critiques ou d’ignorer les problèmes rencontrés par l’intervention. 

Ainsi, une surdité aux critiques émises par d’autres acteurs ou une auto-censure de ses propres critiques. Toute critique ouverte pouvant ainsi mettre en péril la position de chacun et chacune dans l’industrie du développement. Un univers où l’auto-congratulation, l’auto-régulation, la parole élogieuse, la promotion des interventions et l’utilisation d’un langage stéréotypé sont la norme.

Les enjeux sont divers : obtenir ou renouveler un financement, la crainte de ternir son image, « ne pas nuire » à sa carrière ou à son compte en banque.

Pour les consultants, la pression implicite des contractants de ne plus avoir recours à des profils estimés trop critiques. Une certaine connivence entre bailleurs et consultants, dans des espaces de temps de toute façon trop restreints pour des évaluations de qualité et coincés en tant que prestataire par des termes de référence qui imposent ce qui doit être étudié et comment. Sortir du cadre implique s’exposer à ce que le rapport ne soit pas approuvé, « validé » et de fait non payé. 

Les ONG et agences de mise en oeuvre, en tant que sous-traitantes, misent sur le renouvellement d’un contrat, voire jouent leur propre survie sur l’atteinte des résultats préalablement fixés au moment de la contractualisation du « partenariat ».

De la même manière, les services publics, exigus, sont enclins à dissimuler les échecs, montrer qu’ils sont bons élèves, que les activités prévues ont été menées de manière efficiente, quelle qu’en soit la qualité, afin d’engendrer ou renouveler l’appui. Par ailleurs, « à cheval donné, on ne regarde pas les dents ». 

Cette posture du bon élève se décline des échelons territoriaux jusqu’aux populations bénéficiaires, gommant les aspérités des arènes politiques locales, elles-mêmes susceptibles d’accélérer ou de contraindre la réussite des initiatives. Peu importe l’issue, des narratifs idylliques sont attendus et produits pour les partenaires étrangers.

Bien sûr des exceptions existent, des expériences positives fleurissent, certains acteurs jouent selon les règles, sans censure, ni auto-censure. 

En conclusion, Valéry Ridde et Jean-Pierre Olivier de Sardan proposent diverses pistes :

  • orienter la recherche vers la compréhension et la documentation des conflits d’intérêt, explorer les exceptions positives
  • convaincre, argumenter, former : de la nécessité de regarder la réalité en face, sortir de l’obsession des résultats positifs, instaurer notamment une culture de diagnostic rigoureux
  • attendre des bailleurs, lesquels maitrisent les règles du jeu, d’impulser des mécanismes qui engendrent des évaluations réellement indépendantes, avec des méthodes mixtes, avec plus de poids pour les méthodes qualitatives
  • la publication et le libre-accès aux évaluations de manière systématique, incluant un droit de réponse et la transparence du débat
  • un fonds pour la recherche piloté par un comité d’experts indépendants qui sélectionnerait les propositions de recherche (abondé par exemple à hauteur de 10% des montants engagés)

Ces propositions visent à stimuler un débat actuellement absent sur le rôle que devrait avoir les institutions de développement pour générer des analyses indépendantes, rigoureuses et sans complaisance.


En bref : dans cet article, Valéry Ridde et Jean-Pierre Olivier de Sardan définissent le conflit d’intérêts dans le secteur du développement comme la pression systémique qui pousse les acteurs (consultants, ONG, services publics) à taire leurs critiques et à ignorer les problèmes pour protéger leur position ou leurs financements. Cette culture de l’autocensure, alimentée par la crainte de ne pas renouveler un contrat, conduit à une connivence entre bailleurs et praticiens, aboutissant à des évaluations complaisantes et des narratifs idylliques qui masquent tout potentiel échec. Pour briser ce cycle, les auteurs proposent plusieurs pistes, telles que la publication systématique des évaluations, la création d’un fonds de recherche indépendant, et surtout un changement de posture des bailleurs de fonds pour qu’ils exigent et permettent des analyses véritablement rigoureuses, critiques et sans complaisance, notamment en valorisant les approches qualitatives.

Ressources connexes
Appel à témoignages

Pour contribuer, modestement, à ce débat, nous mettons à disposition cet espace et sollicitons vos réactions (section commentaire ci-dessous). Les conflits d’intérêt, la norme ou l’exception ? Merci par avance de vos retours d’expérience.

Quelles sont les propositions des candidat.e.s à l’élection présidentielle en matière d’évaluation des politiques publiques ?

C’est la question que s’est posé Théophile Courtier dans cette courte note où il présente et décrypte les programmes des 12 candidats en matière d’évaluation des politiques publiques. Une lecture incontournable à quelques jours des élections présidentielles.

Ouvrages de référence en évaluation

Une bibliographie collaborative
Des ouvrages qui s'échangent d'une session de formation à la suivante. Ouvrages de référence en évaluation ou oeuvre littéraire.
Les ouvrages recommandés par d’anciens participants sont proposées aux nouveaux participants.

Lors du démarrage de la formation-action « concevoir et mettre en place un SSE », nous demandons aux participants quel est leur ouvrage de référence en suivi et évaluation. Celui en évidence sur leur table de chevet. Nous offrons alors les ressources préconisées aux participants de la session suivante, qui ont la possibilité de se mettre en contact avec leur « parrain ». Souvent, les participants restent pantois et n’ont pas forcément une référence en tête. Nous ouvrons alors le champs, à des ouvrages spécialisés ou techniques, des romans, des recueils de photos. A tel point qu’entre 2 sessions, nous reprenons partiellement la main en réintégrant partiellement les ouvrages spécialisés en évaluation… Au-delà d’offrir un souvenir qui fasse sens et de créer du lien entre participants de différentes sessions, avec des stagiaires issus de 17 nationalités, l’idée était également de pouvoir découvrir des publications qui n’auraient pas été détectés par nos radars.

Ci-dessous la liste des ouvrages recommandés à ce jour :

En lien direct avec l’évaluation :

  • L’évaluation des politiques publiques, Bernard Perret, 2001
  • Abc de l’évaluation évolutive, Jamie A.A. Gamble, 2008
  • Fact Fullness : Ten Reasons We’re Wrong About the World and Why Things Are Better Than You Think, Hans Rosling, 2008
  • L’évaluation des politiques publiques : le développement d’une nouvelle culture, Patrice Braconnier,Guy Cauquil, 2010
  • Agir pour le changement : guide méthodologique pour accompagner des processus de changement « complexe » : analyser, planifier, suivre et évaluer, F3E, Bruno de Reviers, Hédia Hadja-Castro, 2014

En lien, disons… plus indirect avec l’évaluation : 

  • Le savant et le politique, Max Weber, 1919
  • Gouverneurs de la rosée, Jacques Roumain, 1944
  • Questions de sociologie, Pierre Bourdieu, 1981
  • La faillite du développement en Afrique et dans le tiers monde, Samir Amine, 1989
  • Repenser l’inégalité, Amartya Sen, 2000
  • L’invention de la pauvreté, Tancrède Voituriez, Grasset, 2013
  • Pour une écologie de l’attention, Yves Citton, 2014
  • Repenser la pauvreté, Abhijit v. Banerjee, Esther Duflo, 2014
  • Americanah, Chimamanda Ngozi Adichi, Gallimard 2015
  • Petit Pays, Gaël Faye, 2016
  • L’économie symbiotique, Isabelle Delannoy, 2017

En bref : les participants aux formation à l’évaluation n’ont pas toujours un ouvrage de référence à proposer. Nous leur demandons d’en choisir un parmi la sélection d’ouvrage de la précédente promotion. Puis vient leur tour de faire un choix pour la suivante. Guide, manuel, ouvrage mais aussi photographies, livres ou BD. En l’espace d’une année nous avions déjà constitué une véritable bibliographie collaborative et ouvert nos œillères à de multiples champs hors évaluation.

Ressources en évaluation