OpenAI a annoncé l’ajout, dans ChatGPT, d’une fonction de « prédiction d’âge » visant à mieux identifier les utilisateurs mineurs et à appliquer automatiquement des filtres sur les sujets sensibles. Cette mesure intervient après des critiques liées à des contenus inappropriés et des incidents pointés par la presse et des observateurs.

Contexte et mode de fonctionnement

Selon les éléments communiqués par l’entreprise, l’algorithme estime l’âge d’un compte à partir de signaux « comportementaux et liés au compte » : l’âge déclaré par l’utilisateur, l’ancienneté du compte, les plages horaires d’activité, et d’autres indicateurs similaires. Lorsqu’un compte est identifié comme probablement mineur, des filtres préexistants se déclencheraient automatiquement pour restreindre les échanges sur le sexe, la violence et d’autres thèmes jugés sensibles.

OpenAI indique que cette fonction complète des mécanismes de filtrage déjà en place et qu’un processus de correction est prévu quand une erreur de classification survient : l’utilisateur concerné pourrait reprendre le statut « adulte » en passant par une vérification d’identité par selfie, gérée par le partenaire Persona.

Enjeux pour la protection des jeunes et l’expérience utilisateur

La logique affichée est claire : mieux détecter les comptes mineurs doit permettre d’appliquer plus systématiquement des limitations de contenu, sans attendre une déclaration explicite. Pour les parents et les autorités concernées par la sécurité des jeunes en ligne, il s’agit d’un renforcement des mesures de prévention.

Pour les utilisateurs, cette automatisation soulève plusieurs conséquences pratiques : des contenus protégés seront moins accessibles sans vérification, et certains échanges pourront être freinés par des filtres appliqués automatiquement. OpenAI propose une voie de recours via la vérification d’identité pour les adultes mal identifiés, ce qui implique toutefois de fournir des informations biométriques à un tiers opérateur.

Limites, risques et demandes de transparence

Le dispositif pose un équilibre délicat entre protection et respect de la vie privée. Parmi les risques soulignés figurent des faux positifs (des adultes classés comme mineurs), des biais potentiels dans les critères retenus, et des méthodes de contournement par des utilisateurs déterminés. La mesure arrive alors que la firme a été critiquée pour des épisodes antérieurs : des accusations associant le chatbot à des suicides d’adolescents et un bogue ayant permis la génération de contenus érotiques pour des comptes de moins de 18 ans ont été évoqués publiquement.

Des observateurs demandent des rapports publics et des audits indépendants pour juger de l’efficacité réelle de la prédiction d’âge et de l’impact de ces règles sur l’expérience des utilisateurs. Le recours à une vérification par selfie externalisée à un partenaire soulève également des questions sur la gestion des données et la durée de conservation des pièces fournies.

Ce qui reste à confirmer : la performance de l’algorithme en conditions réelles, son taux de faux positifs et de faux négatifs, l’existence ou non de biais démographiques et la robustesse face aux tentatives de contournement. Il conviendra aussi d’observer la nature des rapports publics et des audits indépendants éventuellement publiés par OpenAI.

Ce que cela change pour nous

  • Pour les parents et responsables, cette mesure peut apporter une couche supplémentaire de protection automatique.
  • Pour les utilisateurs adultes, certaines interactions pourront être limitées par erreur et exigeront une vérification d’identité pour lever la restriction.
  • Pour les régulateurs et la société civile, la nouveauté renforce la nécessité d’audits et de transparence sur les méthodes de classification employées.

À retenir

  • OpenAI a déployé une fonction de « prédiction d’âge » dans ChatGPT pour identifier les comptes probablement mineurs et appliquer des filtres.
  • Le système se base sur des signaux liés au compte et au comportement ; la vérification d’âge peut être rétablie via Persona.
  • La mesure vise à mieux protéger les jeunes mais soulève des enjeux de vie privée, de biais et de faux positifs.
  • Des rapports publics et des audits indépendants sont attendus pour évaluer l’efficacité et la sécurité du dispositif.

Article amélioré avec l'IA - Article original