La Commission européenne a lancé une enquête formelle visant X (anciennement Twitter) et le modèle d’intelligence artificielle Grok, développé par XAI, afin de déterminer si l’intégration de cette IA sur la plateforme respecte les obligations prévues par le Digital Services Act (DSA). L’examen porte sur l’évaluation et l’atténuation des « risques systémiques » liés à la diffusion de contenus illégaux ou particulièrement dommageables.

Contexte et objet de l’enquête

Cette procédure étend une enquête initiale ouverte en décembre 2023, qui ciblait déjà les mécanismes de recommandation et la modération. La Commission souhaite vérifier notamment si X a réalisé des évaluations préalables appropriées avant d’activer Grok, et si la plateforme a mis en place des dispositifs efficaces de signalement et de retrait pour limiter la diffusion de contenus illicites ou dangereux.

Parmi les types de contenus pointés figurent les images sexuelles manipulées, les éléments susceptibles de relever d’exploitation sexuelle d’enfants (CSAM), les contenus liés à la violence sexiste et ceux pouvant avoir un impact grave sur la santé mentale des utilisateurs. La Commission s’inquiète de la possibilité que ces phénomènes aient exposé des citoyen·ne·s de l’Union à des dommages sérieux.

Cadre réglementaire et risques de sanction

La Commission indique qu’une violation avérée de certaines dispositions du DSA pourrait entraîner des sanctions significatives, allant d’amendes à des mesures correctives. L’enquête mentionne explicitement des articles du DSA susceptibles d’être concernés. X a déjà fait l’objet d’une amende dans le cadre de procédures connexes : la Commission lui avait infligé une sanction en 2025 et avait demandé des informations complémentaires au sujet de contenus à caractère antisémite générés par Grok.

Ce que remet en question l’intégration d’une IA générative aux systèmes de recommandation

L’affaire illustre la question plus large de la responsabilité des grandes plateformes qui intègrent des modèles génératifs dans leurs boucles de recommandation. Lorsque l’intelligence artificielle contribue non seulement à produire du contenu mais aussi à orienter sa diffusion, la frontière entre simple outil et moteur de propagation se complexifie. Les autorités européennes estiment que cette situation requiert des évaluations de risques spécifiques et des garanties renforcées.

Pour les utilisateur·rice·s, cela peut signifier à terme :

  • une exigence accrue de transparence sur le fonctionnement des systèmes de recommandation ;
  • des mécanismes de signalement et de suppression des contenus mieux adaptés aux risques liés à l’IA générative ;
  • des contrôles externes ou des audits plus fréquents imposés aux plateformes.

Procédure et acteurs impliqués

La Commission européenne conduit l’enquête en coopération avec l’autorité irlandaise Coimisiún na Meán, compétente pour X au sein de l’Union en raison de l’établissement européen de la plateforme en Irlande. L’ouverture d’une procédure formelle marque une étape procédurale importante mais ne préjuge pas du résultat final : la Commission indique vouloir traiter ce dossier en priorité compte tenu de sa gravité.

Ce qui reste à confirmer

Plusieurs éléments restent à préciser au fur et à mesure de l’enquête : les preuves concrètes d’une diffusion systémique de contenus illicites via Grok, l’évaluation technique des mesures d’atténuation mises en place par X, et le calendrier précis de l’instruction. Le montant exact et la nature des éventuelles sanctions dépendront des conclusions finales et ne sont pas connus à ce stade.

À retenir

  • La Commission européenne a ouvert une enquête formelle sur X et le modèle Grok pour vérifier la conformité au DSA face aux « risques systémiques ».
  • L’enquête cible la gestion des contenus problématiques : images manipulées, CSAM potentiel, violences sexistes et contenus préjudiciables à la santé mentale.
  • La procédure prolonge une enquête commencée en décembre 2023 et s’appuie sur la coopération de l’autorité irlandaise compétente.
  • X avait déjà été sanctionné en 2025 dans des affaires liées et avait dû fournir des informations supplémentaires sur des contenus générés par Grok.
  • La décision européenne pourrait fixer un précédent important sur la responsabilité des plateformes intégrant des IA génératives et influencer les pratiques du secteur.

Article amélioré avec l'IA - Article original