Aux origines du cadre logique

Tout d’abord quelques lignes de remise en contexte.

Des prémices de l’aide au développement…

La coopération américaine date les prémices de l’aide au développement au plan Marshal (1948) : des prêts accordés aux Etats européens afin de se reconstruire au lendemain de la seconde guerre mondiale (source).

Le premier programme d’assistance internationale sera proposé par le président Truman en 1949, axé sur 2 objectifs :

  • Ouvrir de nouveaux marchés pour les Etats-Unis en réduisant la pauvreté et augmenter la production des pays en développement
  • Réduire la menace du communisme en aidant les pays à prospérer sous le capitalisme
Que puis-je faire pour combattre le communisme ? 1962

En 1961, le président Kennedy réunit les diverses institutions existantes en une seule et même agence : USAID.

Du plan Marshall à USAID

Le “bureau de l’évaluation” (evaluation office) de USAID voit le jour en 1968.

… aux prémices du cadre logique

En 1969, le nouveau format de reporting , PAR, (Project Appraisal Report) introduit dans l’agence reçoit un accueil mitigé : trop long et complexe à remplir, beaucoup de temps perdu et redondant avec d’autres formats déjà existants.

Une étude est alors commissionnée auprès du cabinet Fry Consultants Incorporated avec une équipe composé de Léon J. Rosenberg, Lawrence D. Posner et Edward J. Hanley.

 

Le rapport débute avec cette citation “if you don’t know where you’re going, any road will get you there” faussement attribuée à Lewis Caroll mais qui fait effectivement écho à cet extrait des aventures d’Alice au pays des merveilles, 1865.

– “Voudriez-vous me dire, je vous prie, quel chemin je dois prendre pour m’en aller d’ici ?”

– “Cela dépend du lieu où vous voulez vous rendre” répondit le Chat.

– “Je ne me soucis pas trop du lieu…” dit Alice.

-“En ce cas, peu importe quel chemin vous prendrez” déclara le Chat.

-“… Pourvu que j’arrive QUELQUE PART” ajouta Alice en manière d’explication.

– “Oh ! dit le Chat, vous pouvez être certaine d’y arriver, pourvu seulement que vous marchiez assez longtemps.”

Pendant plusieurs mois, les consultants vont menés 200 entretiens individuels et parcourir un échantillon de 63 programmes dans différents secteurs (agriculture, éducation, santé, etc.) et 18 pays afin d’ébaucher des recommandations sur l’évaluation et la gestion de projets d’assistance technique.

Le premier constat est que le PAR venait se greffer sur des dispositifs locaux de suivi-évaluation pré-existants. En effet, un projet ne part jamais de rien et chaque gestionnaire de projet aura créé ses propres outils, souvent de simples tableurs excel qui toujours porteront une part de suivi, d’analyse et d’évaluation… Débuter par un recensement des outils inventés par le terrain et souvent très instructif plutôt que de sans cesse réinventer la roue (voir étape 1, concevoir et mettre en place un SSE).

Le second constat et à la surprise des consultants, il n’existait pas de format ou de processus pré-établi pour l’évaluation avant l’introduction du PAR (et déjà, ils en déduisent et regrettent qu’aucun mécanisme n’existe pour suivre l’utilisation faite du PAR).

Et oui ! En 1969 comme en 2019, il n’est pas rare de rencontrer une institution sans dispositif de suivi et évaluation formalisé !

Les consultants du cabinet Fry estiment que sur les projets visités, les bases méthodologiques de l’évaluation sont mal maitrisées par les équipes, à l’exception des chargés d’évaluation.

Il est cependant remarquable de constater qu’en 1969, la coopération américaine a déjà déployé des chargés d’évaluation à temps plein sur le terrain, et que l’évaluation n’est pas qu’une sous-fonction d’un responsable de projet surchargé.

Ceux-ci ont cependant du mal à trouver leur positionnement : comme des évaluateurs externes, ils émettent des recommandations qui sont le plus souvent ignorées des responsables de projets. Leur rôle est perçu comme utile lorsque les 3 conditions suivantes sont réunies :

  • les chargés d’évaluation éclairent les décisionnaires dans leurs processus de prise de décision
  • ils renforcent les capacités non seulement en évaluation mais également aux fondamentaux de la conception de projets
  • ils servent de « reporter » et de mémoire de la mission en favorisant un dialogue vertical

Enfin, le troisième constat et sans doute le plus important est le manque de lien entre les réalisations directes et les objectifs de rang supérieur, c’est-à-dire est-ce que les projets ont ou non un impact réel sur le développement ?

Si des problèmes d’efficacité et de mise en œuvre pouvaient être résolus, les question du pourquoi et comment les projets contribuent au développement ne sont pas alors traitées… Le fameux pavé dans la mare attribué au rapport When will we ever learn  de 2006 était déjà au coeur de ce rapport de 1969…

Ainsi, les projets ne parviennent pas à démontrer leurs résultats de manière « objectivement vérifiable ».

Selon nos estimations, moins de la moitié des gestionnaires de projet et chefs de division comprenaient suffisamment le lien entre leurs projets et les objectifs de politique étrangère des Etats-Unis pour remplir avec efficacité leur responsabilités en gestion de projets.

L’exemple qui est donné appartient au registre militaire :

“Le personnel sur les projets sont dans la position de commandants de peloton à qui on aurait demandé de combattre avec bravoure pour « prendre la colline 414 ». Mais on ne leur a jamais dit que l’objectif de la compagnie était de créer une percée au niveau des collines 413, 414 et 415.”

Sans cette perception plus vaste des objectifs globaux, les équipes éprouvent des difficultés à remodeler leurs projets et leur niveau d’engagement.

Et la capacité à replanifier est la clé de l’efficacité. (extrait du rapport)

Les caractéristiques du système

L’équipe coordonnée par Léon J. Rosenberg va ainsi proposer les caractéristiques suivantes de l’outil à concevoir. Apparait ainsi pour la première fois l’appellation « cadre logique » (logical framework, page 43) :

  • Décrire les projets d’assistance technique et fournir un cadre de référence commun pour l’évaluation
  • La réflexion des équipes de management doit être orientée vers les réalisations (les choses que nous produisons plutôt que les ressources et compétences que nous apportons)
  • Le regard premier du dispositif doit porter sur l’utilité du projet
  • Le dispositif est une garantie en soi que le projet est évalué et ce en fournissant des preuves crédibles
  • L’évaluation est un préalable à la planification, une connexion claire doit ainsi systématiquement apparaitre entre  processus d’évaluation et phase de replanification
  • La fonction d’évaluation doit être clairement reliée au système global de management et d’information de la structure
Première représentation graphique de la matrice du cadre logique.

Et voilà, la matrice était né !

Avec la matrice, un kit de démarrage est proposé à USAID : un manuel pour une évaluation “utile au projet”, des conseils techniques pour l’utilisation du cadre logique et un “guide d’évaluation à destination des chargés de projets”.

Lors de la présentation des opérateurs (c’est à dire afin de préciser le rôle attendu de chaque utilisateur dans le système proposé), il est notable de constater la création d’une nouvelle fonction : responsable de recherche et d’analyse (Technical Assistance Research and Analysis function – TARA): celui-ci est chargé de développer la compréhension des projets d’assistance technique et des processus de développement, de fournir des recommandations pratiques pour l’amélioration du système d’évaluation.

Fry va proposer une assistance sur site à USAID que le système proposé soit retenu ou non, en insistant bien sur cette notion d’accompagnement : “pour que le ratio coût/bénéfice de l’utilité de cette mission demeure bénéfique, alors il n’y pas d’alternative à une assistance sur site en évaluation”.

En effet, la problématique reste la même, combien de missions de renforcement des capacités en évaluation sont restées vaines par manque d’accompagnement ?

Pour la mise en place du système, l’équipe de Fry propose un devis global d’environ 500000 $, (65 hommes/mois) avec un plan de travail d’actions “impératives” (ajuster et distribuer le kit de démarrage, formation des chargés d’évaluation régionaux, etc.) ou simplement conseillées (faire un retour analytique aux missions, formation des chargés de programmes, etc.).

Pour justifier l’investissement, les 3 consultants interrogent, quelle est la valeur de :

  •  sauvegarder l’expérience de 20 années de projets de développement ?

Il est intéressant de constater alors que l’on oppose souvent en terme de méthodes cadre logique et capitalisation d’expérience, que la justification première de la mise en place d’un SSE par les concepteurs de l’ACL EST la capitalisation d’expérience…

  • fournir aux directeurs de programmes des outils qui leur permettent de prendre des décisions basées sur des preuves plutôt que l’intuition ?
  • permettre aux équipes de fournir des contributions utiles en terme de programmation ?
  • contribue à la mise en adéquation du système de management ?

Enfin, il est anticipé que la mise en place de ce système “institutionnalisée” et la montée en compétence généralisée réduise le coût des évaluations sectorielles ou externes d’où un coût neutre à très court terme (1971 😉 ).

Le coût correspond alors à moins de 2% du budget global annuel de l’ensemble des projets d’assistance technique de USAID.

Comme vous pouvez l’anticiper, le devis sera accepté par USAID et ce ne sera qu’un début… Léon Rosenberg et Lawrence Posner vont créer leur propre agence de consulting appelée PCI (Practical Concepts Incorporated). Jusqu’à 3000 formateurs formés au cadre logique et un contrat de 3 000 000 de dollars signé avec la coopération américaine.

PCI fermera ses portes dans les années 80. Les experts en évaluation formés en interne vont poursuivre leur carrière dans les agences de développement et autres cabinets d’expertise en évaluation participant à disséminer l’approche du cadre logique. Lawrence Posner par exemple s’engagera par la suite pour la GTZ (ex GIZ) et contribuera à l’approche ZOPP (GOPP- Goal Oriented Project Planning), une variation du cadre logique présentée en 1983.

 

Un petit cadre pour l’homme, un bon de géant pour l’humanité ?