I-Delphi : une ingénierie éthique de l’IA

Proposition de projet : I-Delphi et Deep-Delphi : une ingénierie éthique de l’IA par et pour les opérateurs de politiques publiques
Présentation et contexte

Le déploiement de l’Intelligence Artificielle (IA) dans l’aide au développement et les politiques publiques mondiales créé un fossé critique : les cadres éthiques sont souvent élaborés par les puissances technologiques et économiques (les producteurs d’IA), mais les conséquences et les défaillances sont vécues par les communautés et les populations d’application (les utilisateurs finaux).

Pourtant, cette période de tâtonnement et de tests initiaux crée une urgence : celle de corriger les biais et les risques éthiques avant le déploiement massif et de potentiels effets négatifs voir irréversible.

Actuellement, aucun organisme central ne constitue la mémoire institutionnelle des défaillances de l’IA sur le terrain. Les régulateurs se concentrent sur la conformité légale et manquent d’un système d’alerte précoce. Le projet I-Delphi cherche à combler ce vide en créant un mécanisme de veille éthique dynamique qui permette d’identifier les failles méthodologiques et les écueils éthiques afin de mieux piloter les phases de conceptions.


Objectif et méthodologie : créer une boucle de rétroaction Factuelle

L’objectif du projet I-Delphi est de construire un Système d’Observatoire Éthique Participatif (OEP) pour générer des normes éthiques robustes, fondées sur les réalités du terrain.

1. La Rupture Méthodologique

Nous souhaitons transformer un réseau d’expertise patiemment construit d’environ 5 000 professionnels (responsables de projet, responsables de politiques publiques, ministères, ONG, agences) en une source de connaissance dynamique, en utilisant une méthodologie Delphi Augmentée par l’IA.

I-Delphi (la veille active)

C’est l’outil de scanning rapide qui mesure le sentiment éthique à grande échelle. L’IA soumet des questions flash au panel pour obtenir une photo immédiate des désalignements. Cette méthode permet de calculer l' »Indice de Faisabilité Éthique » d’un principe donné, révélant si les normes théoriques sont applicables et justes sur le terrain. L’objectif est la détection massive et la quantification du désaccord.

Deep-Delphi (accompagnement et analyse profonde)

Cette méthodologie est activée lorsque l’I-Delphi détecte un problème systémique. Le Deep-Delphi s’appuie sur des sous-panels ciblés et sur des cycles d’engagement longs. L’objectif est la prévention : en accompagnant les équipes en phase de test d’algorithmes (le « tâtonnement »), le Deep-Delphi identifie la causalité des biais et co-construit des solutions correctives avant le déploiement.

2. Le Système d’Alarme : Défaillances et Effets Non Anticipés

Le projet I-Delphi met en place un mécanisme de veille pour collecter et analyser les cas concrets de risques éthiques.

  • Veille dysfonctionnelle : le panel agit comme un réseau de sentinelles éthiques mondiales qui signalent les défaillances, les biais inattendus et les dommages indirects causés par l’IA dans les projets de développement et les politiques publiques.

  • Analyse de l’IA : la plateforme d’IA synthétise les remontées pour identifier les tendances systémiques (par opposition aux incidents isolés). Cela permet de distinguer un problème lié au projet d’aide d’un problème plus profond lié à la politique publique elle-même.

Exemple : une organisation développe une application mobile pour gérer l’aide alimentaire, utilisant l’IA pour optimiser les distributions. L’application, techniquement performante et sécurisée, nécessite un smartphone récent et une connexion stable. Les bénéficiaires avec des téléphones anciens sont exclus du système numérique et redirigés vers un processus manuel avec des temps d’attente triplés. Le panel détecte l’anomalie et propose des ajustements : version allégée compatible avec les anciens systèmes.


Effets souhaités

Le projet I-Delphi ambitionne de débloquer la paralysie de la gouvernance éthique en fournissant une base de preuves aux décideurs mondiaux.

  • Pour la coopération internationale : l’outil offre aux organisations multilatérales (UNESCO, ONU) et aux agences de développement des normes éthiques validées par le terrain, facilitant la transition d’une éthique déclarative à une éthique opérationnelle et co-construite.

  • Pour les financeurs : le système de veille produit des Bulletins d’Alerte Éthique factuels et des recommandations d’atténuation en temps réel, transformant l’investissement éthique en un outil de gestion des risques.

Le saviez-vous ? L’approche du projet I-Delphi s’inscrit dans une tradition de recherche de l’efficacité administrative débutée… il y a plus d’un siècle. En 1917, Henri Fayol fondait à Paris le Centre d’Études Administratives (CEA) avec une mission claire : détecter des faits d’administration manquée sur le terrain pour nourrir et valider la doctrine scientifique. Le Centre collectait, structurait et croisait des analyses pour transformer les échecs et les succès opérationnels du « management » en nouvelle connaissance systémique. De la même manière, I-Delphi souhaite utiliser l’Intelligence Artificielle pour collecter les défaillances algorithmiques et les effets non anticipés de l’IA (le « fait manqué » moderne) à l’échelle mondiale. Notre objectif est de suivre cette méthode factuelle : utiliser les erreurs de terrain pour vérifier l’applicabilité des principes éthiques et forger une gouvernance pertinente de l’IA. Pour en savoir plus sur cette continuité historique, vous pouvez consulter la page : Fayol et l’évaluation des politiques publiques.

Une mémoire institutionnelle manquante

En collectant et en croisant les expériences professionnels de terrain, nous ne faisons pas que signaler des défaillances ; nous créons une mémoire factuelle des risques éthiques de l’IA. Cette base de données de preuves vise à limiter une multiplication de standards et appuyer la convergence des régulateurs vers un noyau commun de principes éthiques.

Pour aller plus loin

Prochaine étape : la consolidation de notre réseau d’expertise. Nous invitons les professionnels intéressés par la gouvernance éthique de l’IA par le terrain à se rapprocher. Contact