De la même manière que le centre de ressources EVAL documente les ressources en évaluation, cette section du site explore les différentes jonctions entre IA et évaluation, et notamment le déploiement et bouleversement des pratiques dans le champ de l’évaluation.
Intelligence artificielle et évaluation
Articles
- Artificial Intelligence and the Future of Evaluation: From Augmented to Automated Evaluation. Digit. Gov. Res. Pract. 6, 1, Article 10, février 2025
Guides
- Considerations and Practical Applications for Using Artificial Intelligence (AI) in Evaluations, Technical Note, D. Cekova, L. Corsetti, S. Ferretti and S.Vaca, CGIAR, June 2025
Charte
- Charte pour l’usage et le déploiement de systèmes d’intelligence artificielle de Pluricité et Emoha , Version 1 – Juillet 2025
Règlementation
Le Règlement de l’UE sur l’IA (AI Act), officiellement adopté en 2024, est le premier cadre juridique complet au monde conçu pour garantir que l’intelligence artificielle est sûre et respecte les droits fondamentaux. Il instaure une approche basée sur les risques, classant les systèmes en quatre catégories : il interdit les usages jugés inacceptables (comme la notation sociale), impose des obligations très strictes (tests de conformité, supervision humaine, transparence) aux IA à « risque élevé » (utilisées dans la santé, le recrutement, la justice, etc.), et exige la transparence pour les IA à « risque limité » (comme les chatbots ou les deepfakes, qui doivent se déclarer comme tels). Suite à son entrée en vigueur en juillet 2024, le Règlement IA impose un calendrier progressif : les usages interdits doivent cesser début 2025 et les systèmes à haut risque devront être entièrement conformes d’ici mi-2026.
Classiques
- Cybernétique et société : l’usage humain des êtres humains, Norbert Wiener
Intelligence artificielle et climat
- Using Generative AI to Increase Skeptics’ Engagement with Climate Science. Bago, B., Muller, P., & Bonnefon, J-F. (TSE Working Paper, n° 25-1678). Toulouse School of Economics, 2025
Le scepticisme climatique pose un défi majeur car les sceptiques pratiquent « l’évitement de l’information ». Cet article de la TSE (WP 25-1678) teste une intervention où une IA générative (Llama 3) reformule subtilement les titres d’articles scientifiques pour réduire le « désaccord anticipé » qu’ils génèrent, sans altérer les faits. Lors d’une expérience contrôlée sur 2000 participants, les titres modifiés par l’IA ont généré significativement plus d’engagement (upvotes, favoris), un effet particulièrement fort chez les individus les plus sceptiques. Fait crucial, cette interaction a provoqué un changement mesurable dans leurs croyances, les rapprochant du consensus scientifique. L’étude démontre que l’IA peut modifier le « régime informationnel » des sceptiques et, loin d’être un simple outil de désinformation, peut servir de puissant « outil pour la vérité » pour lutter contre la polarisation.
Acteurs
Le Bureau de l’IA est une nouvelle entité créée au sein de la Commission européenne (rattachée à la DG CNECT, la direction du numérique) pour superviser l’application de l’AI Act. La mission première du Bureau est de garantir que l’AI Act est appliqué de la même manière dans les 27 pays membres. Il coordonne les autorités nationales de surveillance pour éviter qu’il y ait 27 interprétations différentes de la loi. Le Bureau de l’IA a la également la responsabilité directe de superviser les modèles d’IA à usage général (GPAI ou General-Purpose AI) qui présentent des risques systémiques. Aussi, c’est le Bureau de l’IA qui est chargé de rédiger les documents essentiels pour l’application concrète de lAI Act. Enfin, le Bureau n’a pas qu’un rôle de « gendarme ». Il a aussi pour mission de soutenir l’innovation et la compétitivité de l’IA européenne.
