OpenAI a annoncé avoir désactivé des types de suggestions apparues dans ChatGPT après des réactions hostiles d’abonnés payants, qui les ont interprétées comme des publicités. La société affirme qu’il s’agissait de propositions d’applications créées sur sa nouvelle plateforme, sans composante financière, mais a reconnu l’erreur et décidé de suspendre ces affichages le temps d’en améliorer la précision.

Contexte et déroulé

Plusieurs utilisateurs payants ont publié des captures montrant des messages de ChatGPT suggérant des enseignes commerciales — parmi les exemples cités figurent Peloton et Target. Face à la vive réaction, la direction de ChatGPT a publié des messages publics pour expliquer sa position. Selon l’entreprise, il ne s’agissait pas de publicités au sens financier, mais d’essais d’affichage d’applications développées pour la plateforme d’applications de ChatGPT lancée en octobre.

Réponses d’OpenAI et mesures prises

Nick Turley, responsable de ChatGPT, a insisté sur le fait qu’il n’y avait « pas de tests en direct pour les pubs » et a assuré que toute démarche future tiendrait compte de la confiance des utilisateurs. En parallèle, Mark Chen, directeur de la recherche, a reconnu qu’OpenAI « avait manqué » et a annoncé la suspension de ce type de suggestions pendant que l’entreprise travaille à améliorer la précision du modèle. Des contrôles destinés à permettre aux utilisateurs de réduire ou couper ces suggestions ont également été évoqués.

Enjeux pour la confiance et la monétisation

La polémique a ravivé les craintes autour d’un possible virage publicitaire. L’arrivée de Fidji Sumo au poste de responsable des applications avait déjà alimenté des spéculations selon lesquelles OpenAI pourrait développer des revenus publicitaires. En interne, le Wall Street Journal rapporte qu’un « code red » initié par le PDG Sam Altman a recentré les priorités sur la qualité de ChatGPT, au détriment d’autres projets, dont la monétisation publicitaire.

Cette affaire illustre la difficulté à tracer la ligne entre suggestions utiles et contenus perçus comme intrusifs ou commerciaux. Pour une plateforme qui repose largement sur la confiance de ses utilisateurs, l’apparition d’éléments susceptibles d’être interprétés comme des annonces peut rapidement miner la relation avec ses abonnés payants.

Ce que cela change pour les utilisateurs

  • À court terme, les suggestions incriminées ont été désactivées, selon les propos publics des responsables de ChatGPT.
  • L’entreprise travaille à améliorer la précision du modèle pour éviter des recommandations hors sujet ou susceptibles d’être vues comme promotionnelles.
  • Des options de contrôle utilisateur devraient être proposées pour limiter ou couper ces suggestions, d’après les annonces de la direction.

Ce qui reste à confirmer

Plusieurs points demeurent incertains : la nature exacte des tests effectués, l’éventuelle existence d’un modèle économique publicitaire à moyen terme, et le calendrier précis pour le déploiement des contrôles utilisateurs. Les déclarations publiques insistent sur l’absence de composante financière pour ces suggestions, mais la perception des utilisateurs a suffi à provoquer la suspension des affichages.

À retenir

  • OpenAI a désactivé des suggestions dans ChatGPT jugées semblables à des publicités après la colère d’abonnés payants.
  • L’entreprise affirme qu’il s’agissait d’essais d’affichage d’applications, sans composante financière, et reconnaît une erreur de jugement.
  • Mark Chen évoque une suspension de ces suggestions et un travail pour améliorer la précision du modèle.
  • Des contrôles pour permettre aux utilisateurs de réduire ou couper ces suggestions sont envisagés.
  • La situation souligne la fragilité de la confiance des utilisateurs face à la frontière entre recommandation utile et publicité invasive.

Article amélioré avec l'IA - Article original