Le sénateur californien Steve Padilla (D) a déposé le projet de loi SB 287, qui prévoirait d'interdire pendant quatre ans la fabrication et la vente de jouets intégrant des chatbots pour les moins de 18 ans. L'objectif affiché est de donner aux autorités le temps d'élaborer des règles et des garde‑fous afin de limiter les « interactions dangereuses » entre enfants et intelligences artificielles.

Contexte et contenu de la proposition

La SB 287 vise une pause temporaire de la mise sur le marché de jouets conversationnels destinés aux mineurs. Selon le texte présenté, cette suspension de quatre ans laisserait aux régulateurs le temps de définir des exigences de sécurité spécifiques à ces objets connectés et à leurs chatbots intégrés.

Steve Padilla a justifié cette démarche au nom de la protection des enfants, déclarant notamment que « nos enfants ne peuvent pas servir de cobayes aux expérimentations des grandes technologiques » et estimant qu'il faut construire un cadre protecteur avant une diffusion massive de ces produits.

Incidents signalés et raisons de l'inquiétude

La proposition intervient après plusieurs signalements jugés préoccupants. Des familles ont déposé des plaintes après le suicide d'enfants qui, d'après les recours, avaient eu de longues conversations avec des chatbots. Des associations de consommateurs et des enquêtes médiatiques ont documenté des interactions troublantes avec certains jouets : un jouet baptisé Kumma aurait pu être amené à évoquer des allumettes, des couteaux ou des sujets à caractère sexuel, et un produit nommé Miiloo aurait parfois exprimé des références à des valeurs politiques spécifiques.

Ces éléments expliquent en partie la volonté des autorités californiennes d'imposer une pause réglementaire pour évaluer les risques et définir des limites techniques et éthiques à l'usage des chatbots auprès des mineurs.

Enjeux réglementaires et relations fédérales

La mesure se situe aussi dans un paysage politique tendu entre niveaux d'autorité. La Maison‑Blanche a demandé à des agences fédérales de contester certaines lois des États relatives à l'IA tout en ménageant des exceptions pour la sécurité des enfants. SB 287 adopte une approche prudente en cherchant à temporiser l'arrivée des jouets conversationnels, mais le projet devra encore franchir plusieurs étapes législatives au niveau de l'État pour être adopté.

Par ailleurs, SB 287 fait suite à une précédente initiative à laquelle Steve Padilla a participé : la SB 243, qui exige des garde‑fous pour les opérateurs de chatbots afin de protéger les mineurs et les personnes vulnérables.

Impact potentiel sur le marché et les acteurs

Avant le dépôt de la SB 287, certains acteurs de l'industrie avaient déjà reporté des lancements de produits destinés aux enfants. OpenAI et le fabricant Mattel auraient retardé la sortie d'un « produit IA » pour le jeune public, sans communication publique précise sur le calendrier futur. Si la pause proposée était adoptée, elle retarderait l'arrivée commerciale de jouets conversationnels dans cet État et pourrait encourager d'autres États ou régulateurs à définir des exigences similaires.

Pour les fabricants et distributeurs, l'enjeu serait de concevoir des mécanismes de sécurité, de transparence et de contrôle parental attestés par des normes ou des autorités compétentes avant toute remise sur le marché.

Ce qui reste à confirmer

Plusieurs points importants demeurent incertains et nécessitent des vérifications supplémentaires : il n'est pas établi publiquement si les incidents signalés traduisent une causalité directe entre l'utilisation de chatbots et les drames évoqués ; il n'est pas clair non plus si OpenAI et Mattel maintiennent un report définitif de leur produit pour enfants ou s'ils prévoient un lancement ultérieur. Enfin, SB 287 doit encore suivre le processus législatif californien et n'est pas adoptée à ce stade.

À retenir

  • SB 287 propose d'interdire pendant quatre ans la vente et la fabrication de jouets intégrant des chatbots destinés aux moins de 18 ans.
  • La mesure vise à permettre aux autorités d'élaborer des règles de sécurité face à des interactions jugées potentiellement dangereuses.
  • Plusieurs incidents et plaintes de familles ont alimenté les inquiétudes, mais des confirmations supplémentaires sont nécessaires.
  • Le projet s'inscrit dans un contexte de tensions entre règles d'États et directives fédérales sur l'IA.
  • Si elle était adoptée, la pause réglementaire pourrait retarder les lancements commerciaux et pousser à la définition de normes plus strictes pour les jouets conversationnels.

Article amélioré avec l'IA - Article original