Une enquête du Guardian a mis en évidence que les « AI Overviews » proposés par Google en réponse à des requêtes médicales pouvaient présenter des plages de référence pour des tests hépatiques sans tenir compte de facteurs individuels. Après la publication, Google a retiré ces aperçus pour certaines formulations, mais des variations de requête semblent encore produire des résumés générés par l'IA.

Contexte : quand un résumé rassure à tort

Selon l'enquête citée, des utilisateurs qui ont demandé « what is the normal range for liver blood tests » obtenaient des chiffres généraux. Ces indications ne prenaient pas en compte des paramètres cliniques déterminants tels que l'âge, le sexe, l'ethnie ou la nationalité et pouvaient ainsi laisser penser qu'un résultat de laboratoire était normal alors qu'il ne l'était pas.

Immédiatement après la publication, Google aurait retiré les « AI Overviews » pour des requêtes explicites comme « what is the normal range for liver blood tests » et « what is the normal range for liver function tests ». Toutefois, la même enquête a relevé que des variantes (par exemple « lft reference range » ou « lft test reference range ») pouvaient encore générer des résumés produits par l'IA.

Enjeux et risques pour les usagers

Les plages de référence pour des bilans biologiques ne sont pas universelles. Elles varient selon les méthodes d'analyse, les unités utilisées, et les caractéristiques démographiques des patients. Un résumé synthétique qui présente une « fourchette normale » sans ces précisions peut donc être trompeur. Le risque principal est une interprétation erronée des résultats personnels, qui pourrait retarder une consultation médicale ou développer une fausse assurance.

  • Perte de contexte clinique : âge, sexe, antécédents et critères de laboratoire manquent souvent dans un bref résumé.
  • Harmonisation des valeurs : des laboratoires différents ont des plages différentes pour les mêmes paramètres.
  • Problème d'autorité : un extrait rassurant affiché en haut des résultats de recherche peut être perçu comme fiable par des non-spécialistes.

Réactions et limites des corrections

Après la mise en lumière, un journaliste de TechCrunch a observé que, quelques heures plus tard, ces aperçus n'apparaissaient plus pour les requêtes montrées dans l'enquête. Dans certains cas, le premier résultat renvoyait vers l'article du Guardian. Google a déclaré au Guardian qu'il ne commente pas les suppressions individuelles au sein de la recherche et qu'il privilégie des « améliorations larges ». L'entreprise a aussi indiqué qu'une équipe clinique interne avait examiné les requêtes mises en avant et estimé que, dans de nombreux cas, l'information n'était pas inexacte et s'appuyait sur des sites de qualité.

Vanessa Hebditch, du British Liver Trust, a salué le retrait mais a averti que corriger des requêtes ponctuelles ne suffirait peut‑être pas à résoudre le problème structurel des résumés IA en santé. Google avait d'ailleurs annoncé l'année précédente des améliorations destinées aux usages santé de la recherche, ce qui suggère un travail en cours sur la contextualisation des réponses médicales.

Ce qui reste à confirmer

Plusieurs points nécessitent des éclaircissements avant de pouvoir juger de l'efficacité et de la portée de la correction :

  • Si la suppression couvre désormais l'ensemble des variantes de requêtes susceptibles de produire des résumés trompeurs ou si elle ne concerne que des formulations particulières.
  • La nature exacte des « améliorations larges » évoquées par Google et le calendrier de leur déploiement.
  • Le périmètre et les critères d'évaluation employés par l'équipe clinique interne pour conclure que, « dans de nombreux cas », les informations n'étaient pas inexactes.

À retenir

  • Une enquête a montré que les « AI Overviews » de Google pouvaient afficher des plages d'analyses hépatiques sans contexte clinique, au risque d'induire en erreur.
  • Google a retiré ces aperçus pour certaines requêtes, mais des variantes peuvent encore générer des résumés IA.
  • Une équipe clinique interne aurait estimé que beaucoup d'informations n'étaient pas inexactes, tandis que des associations alertent sur le besoin d'une approche plus large.
  • Il reste à confirmer si les corrections sont générales et comment Google compte améliorer la contextualisation des réponses médicales.

Article amélioré avec l'IA - Article original