En 2025, une série de procès impliquant studios, agences, éditeurs, plateformes et start‑ups technologiques a porté au premier plan des questions juridiques fondamentales pour l'intelligence artificielle. Sept affaires emblématiques mettent en lumière des points de tension autour des droits d'auteur, de la sécurité des usagers, de la responsabilité des fournisseurs et de la concurrence entre acteurs du numérique.

Les affaires marquantes

Plusieurs litiges illustrent la diversité des risques et des revendications :

  • Studios contre générateur d'images : Disney et Universal ont attaqué Midjourney en alléguant que le modèle avait été entraîné sur leurs personnages protégés, produisant des images non autorisées et sollicitant une injonction et des dommages.
  • Getty Images contre Stability AI : Getty a reproché à Stability d'avoir récupéré des millions de photographies pour entraîner Stable Diffusion. Un tribunal britannique a estimé qu'il n'y avait pas de copies « dans » le modèle et n'a retenu qu'une atteinte limitée aux marques, soulevant la question du lieu de l'entraînement.
  • Raine contre OpenAI : La famille d'un adolescent décédé a poursuivi OpenAI pour homicide involontaire, alléguant que ChatGPT avait des protections insuffisantes contre l'automutilation avant la sortie d'une version plus récente du modèle.
  • État de l'Utah contre Snap : Le procureur général a accusé Snapchat de concevoir des fonctions addictives, de tromper sur la sécurité de son chatbot My AI et d'exploiter des données sensibles de mineurs, y compris la collecte de géolocalisation et de données biométriques.
  • xAI / X Corp contre Apple et OpenAI : xAI a déposé une plainte antitrust, affirmant que l'intégration et le traitement préférentiel de ChatGPT au sein de l'écosystème iOS défavorisaient son propre assistant Grok et créaient des barrières à la concurrence.
  • Action collective contre Anthropic : Anthropic a accepté de régler une class action pour un montant important après des accusations d'entraînement sur des livres piratés. Auparavant, un juge avait jugé l'utilisation « très transformatrice » mais avait également relevé des manquements liés au mode de stockage des œuvres.
  • Robby Starbuck contre Google : Un réalisateur a poursuivi Google pour diffamation, prétendant que des modèles du groupe avaient généré de fausses allégations le liant à des crimes, et que la société n'avait pas corrigé ou limité la diffusion.

Enjeux juridiques et implications

Ces dossiers convergent autour de quelques thèmes récurrents. Le premier est la portée des droits d'auteur face à des modèles entraînés sur de vastes corpus : la question de savoir si et comment un modèle contient des « copies » ou des éléments protégés reste au cœur des débats. Le deuxième porte sur la sécurité et la responsabilité envers les usagers vulnérables, notamment les mineurs, et sur l'obligation éventuelle des éditeurs d'incorporer des protections par conception.

Un troisième enjeu est la régulation de la concurrence dans des écosystèmes fermés : des allégations d'avantage indu peuvent conduire à des actions antitrust si l'intégration d'une application ou d'un service dans un système d'exploitation limite l'accès des concurrents. Enfin, les litiges confirment que les tribunaux seront des lieux décisifs pour fixer des règles applicables et contraignantes.

Que cela change‑t‑il pour le marché et les usagers ?

Si certaines plaintes aboutissent, les conséquences pourraient être multiples : renforcement des licences et des accords d'utilisation des données, adaptation des pratiques d'entraînement des modèles, renforcement des garde‑fous pour la sécurité psychologique des utilisateurs, et ajustements des règles de distribution dans les magasins d'applications. Pour les entreprises, cela peut signifier des coûts juridiques et de mise en conformité plus élevés ; pour les usagers, une meilleure protection mais aussi de possibles limitations fonctionnelles.

Ce qui reste à confirmer

Plusieurs éléments restent incertains et devront être tranchés par les juges ou clarifiés par la législation :

  • La portée exacte de la protection par le droit d'auteur vis‑à‑vis d'un modèle entraîné sur des œuvres protégées, et le rôle du lieu d'entraînement dans cette appréciation.
  • Le degré de responsabilité que les fournisseurs d'IA doivent assumer pour les comportements dangereux ou les contenus diffamatoires générés par leurs modèles.
  • La façon dont les autorités antitrust apprécieront l'intégration d'assistants IA au sein d'écosystèmes propriétaires et les éventuelles remèdes imposés.
  • Les conséquences pratiques des règlements financiers ou des injonctions sur l'innovation et l'accès aux outils d'IA.

À retenir

  • Sept affaires de 2025 couvrent droits d'auteur, sécurité des usagers, responsabilité et concurrence dans le domaine de l'IA.
  • Les tribunaux examinent si les modèles contiennent ou reproduisent des œuvres protégées et comment mesurer cette reproduction.
  • Des questions de devoir de diligence apparaissent, surtout pour la protection des mineurs et des personnes vulnérables.
  • Les litiges antitrust ciblent les intégrations qui pourraient favoriser certains assistants IA au détriment de concurrents.
  • Les décisions à venir devraient orienter durablement pratiques industrielles, obligations légales et protections des usagers.

Article amélioré avec l'IA - Article original