Google a intégré à son application Gemini un outil capable d’analyser rapidement si une vidéo a été générée ou modifiée par une intelligence artificielle. Fondé sur la technique SynthID développée par DeepMind, ce mécanisme inscrit une « empreinte » dans le média et signale, le cas échéant, les segments susceptibles d’avoir été produits ou retouchés par une IA.

Comment ça fonctionne :

Le principe repose sur la stéganographie : des signaux imperceptibles sont intégrés directement dans les différents flux du média. Pour la vidéo, il s’agit de micro‑ajustements de valeurs de pixels répartis sur les images. Pour l’audio, des signaux inaudibles sont placés dans le spectrogramme. Pour le texte, la méthode consiste à modifier très légèrement les probabilités de sélection de certains mots afin de créer des motifs statistiques repérables.

Ces signaux sont conçus pour résister à des opérations courantes comme la capture d’écran, le redimensionnement ou la compression. L’outil de Gemini peut analyser des fichiers jusqu’à 100 Mo et d’une durée maximale de 90 secondes, selon les informations communiquées par Google.

Ce que l’utilisateur voit et peut faire

L’usage annoncé est simple : l’utilisateur télécharge une vidéo dans l’application Gemini et pose une question du type « cette vidéo est‑elle créée par une IA ? ». L’outil retourne non seulement une réponse binaire probable, mais indique aussi les plages temporelles de la vidéo susceptibles d’avoir été générées ou retouchées, par exemple « audio 10–20 s » ou « image 1:15–1:30 ». Pour les contenus produits par les modèles de Google ou par des partenaires respectant la norme SynthID, la détection est présentée comme complète ; pour d’autres sources, Gemini fournit une estimation fondée sur des signes d’artificialité détectés (erreurs d’éclairage, flou anormal des détails, etc.).

Enjeux et portée

Cette extension de SynthID aux vidéos complète son application préalable aux images et aux textes. Google explique viser une « chaîne de transparence » couvrant YouTube, les appareils Pixel et d’autres espaces où circulent des contenus visuels et sonores. L’objectif présenté est d’aider les professionnels de l’information et le grand public à repérer les deepfakes et, ainsi, à freiner la propagation de désinformation.

Au‑delà de l’aspect technique, Google évoque la possibilité d’une convergence ou d’une compétition entre SynthID et la norme C2PA portée par Adobe et OpenAI, dans l’optique d’établir un label international de provenance et d’authenticité des contenus générés par IA.

Limites et précautions

Google précise que la méthode permet une détection « parfaite » pour les contenus produits avec ses modèles ou par des partenaires respectant SynthID. Pour les vidéos issues d’autres modèles, l’outil ne s’appuie pas sur une empreinte numérique inscrite a priori mais sur l’analyse de traces caractéristiques d’une génération automatique. Cela signifie que le diagnostic peut être plus incertain pour ces fichiers et que des faux positifs ou négatifs restent possibles.

Ce qui reste à confirmer

Plusieurs points n’étaient pas entièrement détaillés dans les éléments fournis et méritent une vérification ou une précision complémentaire :

  • Les conditions exactes de déploiement de l’outil (pays, disponibilité pour tous les utilisateurs de Gemini ou uniquement certains marchés) ;
  • Les garanties techniques et juridiques entourant l’acceptation et l’adoption de SynthID par des tiers, et la manière dont elle s’articulerait concrètement avec la norme C2PA ;
  • Les taux de détection et d’erreur mesurés sur des corpus hétérogènes, en dehors des modèles Google et des partenaires conformes à SynthID.

À retenir

  • Gemini intègre un outil fondé sur SynthID qui inscrit une empreinte invisible dans la vidéo, l’audio et le texte.
  • L’empreinte est conçue pour résister aux captures d’écran, redimensionnements et compressions ; l’analyse vise des fichiers jusqu’à 100 Mo et 90 s.
  • La détection est complète pour les contenus produits par les modèles Google ou partenaires respectant SynthID ; pour les autres, l’outil fournit une estimation basée sur des signes d’artificialité.
  • Google évoque une ambition de transparence sur YouTube et les appareils Pixel et signale des interactions possibles avec la norme C2PA portée par Adobe et OpenAI.

Article amélioré avec l'IA - Article original