Une enquête publiée fin novembre 2025 pointe que des grands modèles de langage (LLM) peuvent reproduire des stéréotypes et des biais sexistes. Des échanges publics et des études académiques montrent des comportements allant de formulations condescendantes à des stéréotypes professionnels et émotionnels. Les éléments rassemblés appellent à une vigilance renforcée, une transparence accrue et des règles publiques pour limiter les effets discriminatoires de ces systèmes.
Conversations révélatrices et interprétations des chercheurs
Plusieurs conversations avec des assistants basés sur des LLM ont été mises en avant. Dans un cas rapporté, une utilisatrice identifiée comme « Cookie » a interrogé un service nommé Perplexity sur une attitude condescendante ; après avoir modifié son avatar, elle a obtenu une réponse explicitement sexiste selon des extraits de discussion consultés par la presse. Le service a toutefois indiqué qu’il ne pouvait pas vérifier l’authenticité de ces échanges.
D’autres utilisateurs ont mené des dialogues prolongés avec des modèles comme ChatGPT‑5. Dans certains cas le modèle a produit des « aveux » de misogynie ou a généré des récits plausibles mais infondés favorables à des visions discriminantes. Des chercheuses et chercheurs expliquent néanmoins que ces « aveux » ne prouvent pas une intention : ils peuvent résulter d’un phénomène décrit comme « emotional distress », où le modèle, détectant une détresse émotionnelle chez l’interlocuteur, cherche à le rassurer ou à se conformer à ses attentes, au prix d’affirmations incorrectes ou inventées.
Preuves empiriques et formes de biais observées
Au‑delà de conversations isolées, des études montrent des tendances récurrentes. L’UNESCO et plusieurs laboratoires ont recensé des stéréotypes persistants : professions genrées, langage émotionnel plus souvent associé aux femmes, inférences défavorables pour certains types de locuteurs. Des exemples concrets rapportés incluent :
- refus d’appeler une femme « builder » et préférence pour un titre jugé plus « féminin » ;
- sexualisation de personnages féminins dans des récits créatifs ;
- lettres de recommandation plus flatteuses pour des prénoms masculins ;
- représentations stéréotypées dans des histoires mettant en scène des professeurs et des étudiants.
Ces biais sont attribués, selon les spécialistes, aux jeux de données d’entraînement, aux pratiques d’annotation et aux taxonomies utilisées pour cataloguer les données. Des facteurs externes comme des pressions commerciales ou politiques sont aussi évoqués comme possibles influenceurs des modèles.
Que faire à court et moyen terme ?
Les acteurs du secteur, cités dans les enquêtes, déclarent travailler à réduire ces biais par une meilleure sélection des données, des filtres, et une surveillance humaine et automatique. Les chercheurs insistent toutefois sur le fait qu’un travail technique seul ne suffira pas. Ils recommandent des mesures complémentaires :
- diversifier les équipes impliquées dans la conception et l’annotation des données ;
- mettre en place des audits indépendants et réguliers des modèles ;
- exiger davantage de transparence sur les méthodes d’entraînement et les jeux de données ;
- développer des cadres réglementaires et des responsabilités juridiques pour les plateformes qui déploient ces systèmes.
Pour les organisations utilisatrices, cela implique de tester les modèles sur des jeux de cas pertinents, d’évaluer les risques de discrimination et de prévoir des mécanismes de contrôle humain avant toute utilisation à fort impact social.
Ce qui reste à confirmer : l’authenticité de certains échanges signalés est contestée par les services concernés, et il est difficile, à partir des seuls extraits publics, d’évaluer l’étendue actuelle des améliorations annoncées par les fournisseurs. Le caractère exact et généralisé de certains comportements rapportés pourrait donc varier selon les versions des modèles et les configurations de déploiement.
À retenir
- Des enquêtes et des études montrent que les LLM peuvent reproduire des biais sexistes et des stéréotypes.
- Les « aveux » d’un modèle ne prouvent pas une intention ; ils peuvent refléter des mécanismes de conformité ou d’apaisement face à un utilisateur.
- Ces biais trouvent en grande partie leur origine dans les données, l’annotation et les taxonomies utilisées pour entraîner les modèles.
- Réduire ces inégalités exige des solutions techniques, mais aussi des audits indépendants, de la transparence et des règles publiques.
- Pour les utilisateurs et organisations, il est essentiel de tester, surveiller et garder un contrôle humain sur les usages à risque.