DeepBrainAI, spécialiste coréen de l'IA générative, a mis à disposition une interface de programmation (API) nommée AI Detector pour aider entreprises et institutions à vérifier la véracité de contenus vidéo, image et audio sans déployer d'infrastructure spécifique. Le service, issu d'un projet de recherche piloté par le ministère de la Culture et le Korea Creative Content Agency, étend hors de la plateforme maison une fonction jusque‑là réservée à l'écosystème interne de l'entreprise.
Fonctionnalités et mode d'action
L'API AI Detector combine des modules de détection pour la vidéo, l'image et l'audio. Elle vise à identifier plusieurs modes de manipulation, notamment la génération de visages, l'échange de visages (face swap) et la synchronisation labiale (lip‑sync). Selon DeepBrainAI, les algorithmes ont été affinés pour repérer des divergences à l'échelle pixel‑par‑pixel, une méthode qui sert de signal d'alerte pour déterminer si un contenu a été synthétisé ou altéré.
Concrètement, la vérification peut intervenir dès l'étape d'envoi du fichier par un utilisateur, afin de bloquer la diffusion de contenus truqués ou contraires à la loi. Une surveillance continue est aussi proposée pour détecter en temps réel des éléments suspects après publication, ce qui permet une réaction plus rapide de la part des gestionnaires de plateforme ou des services de modération.
Adaptation pour les tiers et mesures éthiques
Une des promesses de cette API est de rendre disponible une capacité de détection sans obliger les organisations à installer ou maintenir une infrastructure dédiée. L'outil peut ainsi être intégré par des services qui n'avaient pas auparavant accès à ce type de technologie.
Face aux risques liés à la diffusion de contenus illicites ou préjudiciables, DeepBrainAI a intégré des dispositions visant à limiter les dommages secondaires. Par exemple, l'API prévoit le floutage de zones sensibles pour réduire la propagation de contenus pornographiques non consensuels et limiter les risques de nouvelle exposition des victimes. Ces fonctionnalités visent à concilier la détection technique et des principes éthiques d'usage.
Positionnement et retours d'expérience
DeepBrainAI met en avant un large portefeuille de références et indique avoir réalisé une première commercialisation auprès d'un organisme public en Corée. L'entreprise affirme également enregistrer un haut niveau de satisfaction sur plusieurs plateformes où sa solution est déjà déployée. Ce positionnement reflète une volonté de proposer des outils « plug‑and‑play » pour renforcer la vérification des contenus générés par l'IA à grande échelle nationale.
Ce qui reste à confirmer :
Plusieurs éléments essentiels pour une évaluation complète n'ont pas été précisés publiquement et méritent attention avant toute intégration :
- les performances chiffrées de détection (taux de faux positifs et de faux négatifs) ;
- les modalités de tarification et les conditions contractuelles pour les entreprises et institutions ;
- les garanties sur la protection des données traitées et la politique de conservation des preuves ;
- la couverture linguistique et la robustesse face à des techniques de manipulation émergentes ;
- les exigences techniques précises pour l'intégration dans des flux existants (latence, formats supportés, etc.).
À retenir
- DeepBrainAI a lancé l'API AI Detector pour détecter deepfakes vidéo, image et audio sans besoin d'infrastructure dédiée.
- La solution détecte des manipulations courantes (face generation, face swap, lip‑sync) en s'appuyant sur des différences au niveau pixelaire.
- L'API opère dès l'upload et en mode de surveillance continue pour bloquer et signaler des contenus suspects.
- Des mesures éthiques, comme le floutage de zones sensibles, sont intégrées pour limiter les préjudices secondaires.
- Des informations clés restent à confirmer, notamment les performances chiffrées, la tarification et les garanties sur les données.
Article amélioré avec l'IA - Article original