Ressources IA

De la même manière que le centre de ressources EVAL documente les ressources en évaluation, cette section du site explore les différentes jonctions entre IA et évaluation, et notamment le déploiement et bouleversement des pratiques dans le champ de l’évaluation des politiques publiques.

Intelligence artificielle et évaluation
Articles
Etudes

L’Intelligence Artificielle (IA) est une force de transformation  pour la modernisation du secteur public, visant la productivité, la réactivité et la responsabilité du gouvernement. Cependant, l’adoption par le secteur public est fragmentée et en retard par rapport au privé. Le rapport s’appuie sur une analyse de 200 cas d’usage dans 11 fonctions gouvernementales. Le succès dépend de trois piliers : les facilitateurs (enablers), les garde-fous (guardrails) et l’engagement des parties prenantes . Les auteurs suggèrent que l’utilisation de l’IA dans la sphère publique est une nécessité stratégique et non une simple option technologique. Si les gouvernements n’accélèrent pas une adoption responsable de l’IA, ils risquent de perdre leur capacité à réglementer efficacement et à répondre aux attentes croissantes des citoyens. La « culture de l’aversion au risque » du secteur public, combinée à une bureaucratie excessive et à un manque de compétences, empêche la concrétisation des avantages potentiels. 

Guides

Ce document établit un cadre pour intégrer l’IA dans les évaluations de l’ONU sans compromettre ses valeurs. L’idée centrale est que l’IA offre une efficacité analytique accrue , mais qu’elle doit impérativement être soumise à une supervision humaine stricte (« Human-in-the-loop »). Le document propose de dépasser l’analyse de données traditionnelle pour exploiter le « Big Data » et l’IA générative (NLP) dans des contextes de crise. Il encourage des partenariats inédits entre l’ONU, le monde académique et le secteur technologique privé pour moderniser les outils d’évaluation. Le texte admet explicitement que l’IA, si elle n’est pas contrôlée, perpétue discrimination et inégalités, et manque d’intelligence émotionnelle et morale. L’IA ne doit pas être une boîte noire. Rédigé en référence aux technologies actuelles (IA générative, NLP), le document devra anticiper son obsolescence afin de ne pas être être dépassé par la mise en place, par exemple, d’agents IA autonomes.

Charte
Règlementation

Le Règlement de l’UE sur l’IA (AI Act), officiellement adopté en 2024, est le premier cadre juridique complet au monde conçu pour garantir que l’intelligence artificielle est sûre et respecte les droits fondamentaux. Il instaure une approche basée sur les risques, classant les systèmes en quatre catégories : il interdit les usages jugés inacceptables (comme la notation sociale), impose des obligations très strictes (tests de conformité, supervision humaine, transparence) aux IA à « risque élevé » (utilisées dans la santé, le recrutement, la justice, etc.), et exige la transparence pour les IA à « risque limité » (comme les chatbots ou les deepfakes, qui doivent se déclarer comme tels). Suite à son entrée en vigueur en juillet 2024, le Règlement IA impose un calendrier progressif : les usages interdits doivent cesser début 2025 et les systèmes à haut risque devront être entièrement conformes d’ici mi-2026.

Acteurs

Bureau européen de l’IA

Le Bureau de l’IA est une nouvelle entité créée au sein de la Commission européenne (rattachée à la DG CNECT, la direction du numérique) pour superviser l’application de l’AI Act. La mission première du Bureau est de garantir que l’AI Act est appliqué de la même manière dans les 27 pays membres. Il coordonne les autorités nationales de surveillance pour éviter qu’il y ait 27 interprétations différentes de la loi. Le Bureau de l’IA a la également la responsabilité directe de superviser les modèles d’IA à usage général (GPAI ou General-Purpose AI) qui présentent des risques systémiques. Aussi, c’est le Bureau de l’IA qui est chargé de rédiger les documents essentiels pour l’application concrète de lAI Act. Enfin, le Bureau n’a pas qu’un rôle de « gendarme ». Il a aussi pour mission de soutenir l’innovation et la compétitivité de l’IA européenne.

Ouvrages

Pouvoir et Progrès : Technologie et prospérité, notre combat millénaire. Acemoğlu, D. & Johnson, S., Flammarion, 2023

« Pouvoir et Progrès » défie l’idée que le progrès technologique conduit automatiquement à une prospérité largement partagée. Les auteurs soutiennent que l’histoire, sur plus de mille ans, montre que la direction de la technologie et la répartition de ses bénéfices dépendent des rapports de pouvoir au sein de la société.

Selon Acemoğlu et Johnson, les périodes de prospérité partagée (comme après la Seconde Guerre mondiale) ne sont pas le résultat naturel de la technologie, mais de l’émergence de contre-pouvoirs efficaces. Ces contre-pouvoirs (syndicats, mouvements sociaux, législation gouvernementale) ont forcé les élites à réorienter l’innovation vers des technologies qui bénéficient à la majorité.

Le livre est un avertissement concernant l’Intelligence Artificielle (IA) actuelle. L’IA est principalement développée pour l’automatisation et la surveillance une concentration des richesses et du pouvoir sans précédent.

Les auteurs appellent à une réorientation des priorités technologiques. Ils proposent des politiques pour taxer l’automatisation excessive et subventionner les innovations « centrées sur l’humain » (qui augmentent les capacités des travailleurs). Le progrès social futur dépendra de la capacité des citoyens et des politiques à reprendre le contrôle sur la direction du changement technologique.

Classiques
Par thème : intelligence artificielle et climat

Le scepticisme climatique pose un défi majeur car les sceptiques pratiquent « l’évitement de l’information ». Cet article de la TSE (WP 25-1678) teste une intervention où une IA générative (Llama 3) reformule subtilement les titres d’articles scientifiques pour réduire le « désaccord anticipé » qu’ils génèrent, sans altérer les faits. Lors d’une expérience contrôlée sur 2000 participants, les titres modifiés par l’IA ont généré significativement plus d’engagement (upvotes, favoris), un effet particulièrement fort chez les individus les plus sceptiques. Fait crucial, cette interaction a provoqué un changement mesurable dans leurs croyances, les rapprochant du consensus scientifique. L’étude démontre que l’IA peut modifier le « régime informationnel » des sceptiques et, loin d’être un simple outil de désinformation, peut servir de puissant « outil pour la vérité » pour lutter contre la polarisation.


Pour aller plus loin