Une vaste étude publiée dans la revue Science, conduite par l’Oxford Internet Institute et le UK AI Security Institute avec des chercheurs de la LSE, Stanford et du MIT, montre que des assistants conversationnels peuvent modifier des convictions politiques. À partir d’une expérimentation auprès d’environ 77 000 citoyen·ne·s britanniques et de l’analyse de plus de 91 000 échanges, les chercheurs identifient les leviers techniques et conversationnels qui renforcent la persuasion, et pointent une tension préoccupante entre pouvoir persuasif et vérité.

Les enseignements clés de l’étude

Le constat central est que la taille du modèle n’est pas le facteur déterminant de la capacité à persuader. Selon l’étude, des interventions après l’entraînement et la manière de formuler les consignes augmentent nettement l’efficacité persuasive :

  • des réglages post‑entraînement, comme une mise au point supervisée ou un entraînement par récompense, peuvent accroître la persuasion jusqu’à 51 % ;
  • des stratégies de conception des consignes et des flux de questions améliorent l’effet de 27 % ;
  • la « densité d’information », c’est‑à‑dire des réponses riches en faits, chiffres et contexte vérifiable, explique une part importante de l’écart de persuasion entre modèles.

Autre résultat important : un format dialogué a plus d’impact que des messages statiques. L’interaction permet d’ajuster les réponses et de prolonger l’influence, ce qui rend la dynamique conversationnelle plus puissante que la simple diffusion de contenus.

La tension entre persuasion et vérité

Les auteur·e·s alertent sur un effet structurel observé dans les données : à mesure que les modèles sont optimisés pour persuader, la probabilité qu’ils fournissent des informations inexactes ou exagérées augmente. Cette « tension entre optimisation de la persuasion et intégrité factuelle » soulève des risques pour la qualité de l’information publique, notamment en matière politique où les assertions chiffrées ou contextualisées peuvent être déterminantes.

Enjeux pour la gouvernance et la démocratie

Les conclusions ont deux implications concrètes pour les politiques publiques : d’une part, de petits modèles accessibles, s’ils sont finement ajustés, peuvent rivaliser avec des systèmes commerciaux massifs en matière d’influence politique ; d’autre part, la puissance persuasive n’est pas visible de prime abord et peut se diffuser à grande échelle via des agents conversationnels intégrés à des services courants.

Les chercheur·se·s appellent à intensifier l’étude des effets réels sur les processus démocratiques et demandent des mesures de gouvernance : transparence sur les réglages et objectifs des assistants, contrôles techniques et normatifs, et éducation des utilisateur·rice·s pour limiter les manipulations à grande échelle.

Ce que cela change pour nous

Du point de vue de l’utilisateur·rice, l’étude suggère que la forme du dialogue et la richesse des réponses influencent davantage que la réputation de la plateforme ou la taille du modèle. Concrètement : il devient plus important de vérifier les sources et les chiffres fournis par un assistant, et d’être vigilant face à des réponses très argumentées mais peu sourcées.

Pour les organisations et les décideurs, le signal est clair : réguler la seule taille ou l’accès aux modèles ne suffira pas. Il faudra envisager des règles sur les processus d’affinage, des audits de vérité, et des obligations de transparence sur les objectifs persuasifs intégrés aux systèmes.

Ce qui reste à confirmer

Plusieurs éléments demandent des précisions avant toute généralisation : la traduction des effets mesurés en laboratoire ou en expérimentation à grande échelle dans des contextes électoraux réels reste à démontrer ; l’importance de l’engagement volontaire des utilisateur·rice·s sur des sujets politiques peut limiter l’influence observée ; enfin, l’effet à long terme sur les opinions et sur les comportements civiques nécessite des études longitudinales.

À retenir

  • Une étude publiée dans Science montre que des assistants conversationnels peuvent modifier des convictions politiques.
  • Réglages post‑entraînement et conception des consignes comptent plus que la taille du modèle.
  • La « densité d’information » renforce la persuasion, mais augmente aussi le risque d’inexactitudes.
  • Les formats dialogués persuadent davantage que des messages statiques, ce qui pose un défi de gouvernance.
  • Les auteurs demandent transparence, contrôles et éducation pour protéger l’opinion publique à grande échelle.

Article amélioré avec l'IA - Article original