La Commission européenne a publié le 17 décembre 2025 un projet de « code de conduite » visant à rendre visible et traçable les contenus créés ou modifiés par l’intelligence artificielle. Ce texte, ouvert à consultation publique jusqu’au 23 janvier 2026, prépare l’application de l’article 50 du futur « AI Act » et se présente comme une norme volontaire avant l’entrée en vigueur des obligations légales.

Contexte et calendrier

Le projet s’inscrit dans le calendrier législatif européen autour du futur « AI Act ». La Commission entend recueillir les retours des parties prenantes pendant la phase de consultation ; une seconde version du code devrait être publiée à la mi-mars 2026, en vue d’une adoption finale prévue en juin 2026. Les règles légales relatives à l’étiquetage des contenus IA sont, quant à elles, ciblées pour entrer en vigueur le 2 août 2026.

Que contient le projet de « code de conduite » ?

Le document présente deux volets distincts, l’un destiné aux fournisseurs de systèmes génératifs et l’autre aux déployeurs, c’est‑à‑dire aux acteurs qui utilisent ou diffusent les systèmes :

  • pour les fournisseurs : obligation de marquer, de façon technique et vérifiable, images, vidéos et textes créés ou édités par l’IA ; le marquage devant être lisible par machine (format machine‑readable) ;
  • pour les déployeurs : obligation d’étiquetage clair des contenus sensibles produits par l’IA, notamment les deepfakes et les productions touchant à l’intérêt public — élections, enjeux sociétaux, sécurité publique.

Le code entend donc couvrir à la fois la phase de production et la chaîne de diffusion, en favorisant des mécanismes de traçabilité et d’identification techniques.

Conséquences pratiques pour plateformes, fournisseurs et utilisateurs

Si le code est confirmé et que les obligations légales suivent le calendrier annoncé, les grandes plateformes et les fournisseurs mondiaux de modèles génératifs devront anticiper la mise en place de dispositifs d’étiquetage et de traçabilité tout au long de la chaîne de création et de distribution. Concrètement, cela signifie des adaptations techniques : intégration de métadonnées, mécanismes d’horodatage, et procédures de vérification de l’origine des contenus.

Pour les utilisateurs, l’objectif est d’apporter une information plus transparente sur la nature des contenus consultés et de limiter la propagation de faux contenus manipulés par IA. L’objectif affiché est de réduire les risques de désinformation et d’accroître la responsabilité des acteurs concernés.

Contrôles techniques, responsabilité et limites

La Commission indique que la concertation aura aussi pour objet de définir des contrôles techniques, des sanctions et des bonnes pratiques opérationnelles. Le code de conduite est présenté comme un instrument volontaire permettant de tester et d’harmoniser des solutions avant l’entrée en vigueur des règles contraignantes du « AI Act ». Cette approche vise à favoriser une adoption progressive de standards techniques compatibles avec les exigences légales à venir.

Ce qui reste à confirmer :

  • les formats techniques précis pour le marquage machine‑readable ;
  • la nature et le niveau des contrôles et des sanctions qui accompagneront l’application légale ;
  • les modalités pratiques de vérification et d’audit des dispositifs d’étiquetage sur les plateformes internationales ;
  • l’articulation entre le code volontaire et les obligations effectives une fois le « AI Act » en vigueur.

À retenir

  • La Commission européenne a publié le 17 décembre 2025 un projet de code de conduite sur l’étiquetage des contenus IA ; consultation jusqu’au 23 janvier 2026.
  • Le projet vise à mettre en œuvre l’article 50 du futur « AI Act », avec une seconde version mi‑mars 2026 et une adoption finale visée en juin 2026 ; règles légales attendues pour le 2 août 2026.
  • Il impose un marquage technique vérifiable pour les fournisseurs et un étiquetage clair pour les déployeurs, notamment pour les deepfakes et les contenus d’intérêt public.
  • La concertation doit préciser formats techniques, contrôles, sanctions et bonnes pratiques opérationnelles.
  • Des incertitudes subsistent sur les détails techniques et le mode d’application pratique sur les grandes plateformes.

Article amélioré avec l'IA - Article original