« Cette initiative est ce que nous aurions dû faire il y a 20 ans pour les réseaux sociaux : exploiter leurs meilleures fonctionnalités tout en veillant à ce qu’ils ne détériorent pas la démocratie. » « A un moment où les démocraties sont fragilisées par la guerre informationnelle autour des élections, il est urgent d’investir dans une sphère de confiance grâce à une IA maitrisée. »
Le communiqué annonçant le lancement du programme de recherche « Communs Démocratiques » donne le ton. Sciences Po, Sorbonne Université, le CNRS et l’ONG Make.org entendent exploiter le potentiel de l’IA générative « pour préserver et renforcer les fondements de la démocratie dans un monde confronté à une crise de confiance institutionnelle sans précédent » et noyé par les « fake news ».
Développé dans le cadre du plan France 2030 et soutenu par Bpifrance apporte 6 millions d’euros, le projet réunira durant deux ans plus de 50 chercheurs et ingénieurs. Les missions de cette équipe sont multiples. Elle devra tout d’abord développer un cadre scientifique de détermination des principes démocratiques appliquées à l’IA puis un modèle d’évaluation des biais des grands modèles de langage (LLM) par rapport à ces principes.
Une IA « démocratique » en accès libre
Le projet proposera également des LLM débiaisés et « des plateformes de participation citoyenne conformes à ces principes ». L’ensemble de ces livrables sera partagé en open source. « Demain, grâce au programme Communs Démocratiques, tous les États et les villes du monde entier auront accès gratuitement à une intelligence artificielle qui respectera les principes démocratiques », s’enthousiasment les porteurs de cette initiative inédite. Le communiqué évoque également « la continuité du rôle historique de la France dans la protection des droits de l’Homme et la sauvegarde de la démocratie. »
Au regard de ses ambitions, le programme exige à la fois une expertise avancée en data science et une connaissance pointue des sciences humaines et sociales. Les membres fondateurs s’associeront pour cela cinq acteurs de référence de l’IA éthique : la startup franco-américaine Hugging Face, les organisations internationales Aspen Institute, Mozilla.ai et Project Liberty Institute et le Genci (Grand Équipement National de Calcul Intensif) qui apportera sa puissance de calcul pour entraîner les modèles.
Pour encadrer les travaux à venir, un Conseil scientifique de supervision a été créé, réunissant des sommités internationales dont Yochai Benkler (Berkman Klein Center), Hélène Landemore (Université de Yale), Karine Perset (OCDE), Asma Mhalla (EHESS/CNRS – Columbia), Raja Chatila (Sorbonne Université), Michelle Barsa (Omidyar Network) et Djamé Seddah (Inria).
« L’IA générative et les grands modèles linguistiques révolutionnent de multiples secteurs d’activités, de la justice à l’éducation en passant par la santé ou encore les industries culturelles. Anticiper les impacts de ces technologies sur la société – et notamment sur l’exercice de la citoyenneté dans les espaces numériques – devient urgent », estime, en conclusion, Antoine Petit, PDG du CNRS.
Pour aller plus loin sur les biais de l’IA
Crédit : Visuel généré par IA, Microsoft Copilot Designer
Cette chronique est reproduite du mieux possible. Si vous désirez apporter des explications sur le sujet « Anciens et étudiant de Panthéon-Sorbonne », vous avez la possibilité de d’échanger avec notre rédaction. Notre plateforme sorbonne-post-scriptum.com vous conseille de lire cet article autour du thème « Anciens et étudiant de Panthéon-Sorbonne ». La fonction de sorbonne-post-scriptum.com est de rassembler sur le web des données sur le sujet de Anciens et étudiant de Panthéon-Sorbonne et les diffuser en répondant du mieux possible aux interrogations des gens. En consultant régulièrement nos pages de blog vous serez au courant des prochaines publications.