Le duel entre OpenAI et Anthropic pour intégrer l'intelligence artificielle dans les parcours cliniques s'est intensifié avec le lancement de deux offres dédiées : ChatGPT Health et Claude for Healthcare. Au‑delà des promesses d'efficacité administrative et d'accessibilité pour les patients, cette compétition remet au premier plan des questions de confiance, de précision et de responsabilité clinique.
Deux approches techniques, deux priorités
OpenAI a conçu ChatGPT Health comme un espace isolé, cloisonné au sein de ChatGPT, où l'utilisateur peut choisir de connecter ses dossiers médicaux, ses trackers ou ses données de bien‑être. L'idée affichée est de proposer un environnement contrôlé, distinct du reste de l'assistant.
Anthropic, pour sa part, a intégré Claude for Healthcare directement dans son assistant conversationnel Claude. Selon l'annonce, cette version peut accéder de façon sécurisée à des bases médicales et d'assurance « trusted » pour répondre à des demandes cliniques et automatiser des tâches de routine. Les deux architectures traduisent des compromis différents : l'une privilégie un périmètre isolé et un contrôle centré sur l'utilisateur, l'autre favorise une intégration native visant l'ergonomie et un accès plus profond aux données opérationnelles.
Cas d'usage pratiques et promesses
Les fonctions mises en avant touchent à la fois les professionnels de santé, les établissements et les patients :
- pour les hôpitaux et les assureurs, Claude for Healthcare pourrait vérifier la prise en charge d'un traitement ou préparer des dossiers en cas de refus de remboursement ;
- pour les patients, les assistants visent à simplifier la lecture de comptes rendus de laboratoire et la restitution d'historiques médicaux, rendant l'information plus accessible ;
- les tâches administratives répétitives, comme la préparation de formulaires ou la synthèse de données, sont présentées comme des gains d'efficience potentiels.
Ces usages, s'ils se généralisent, changeraient la relation au dossier médical en facilitant l'accès et la production de documents, mais aussi en rendant plus fréquente l'intermédiation d'un outil algorithmique entre patient et professionnel.
Risques et enjeux éthiques
La concurrence ravive d'anciennes inquiétudes liées à la protection des données sensibles. Les risques évoqués incluent les fuites d'information, l'exploitation de données comme surface d'attaque, ainsi que la possibilité de biais diagnostiques introduits ou amplifiés par des modèles algorithmiques. Autre point critique : la dilution des responsabilités cliniques si des recommandations d'un assistant ne sont pas clairement encadrées par des obligations de suivi médical.
Sur le plan clinique, la confiance repose sur la précision des réponses et la traçabilité des sources. Les choix d'architecture (environnement isolé versus intégration native) reflètent donc des priorités distinctes : confinement et contrôle d'un côté, profondeur d'accès et fluidité d'utilisation de l'autre. Chacune de ces priorités implique des compromis en matière de sécurité, d'auditabilité et d'expérience utilisateur.
Ce qui reste à confirmer
Plusieurs éléments cruciaux semblent encore dépendre de détails non publics ou à venir. Il faudrait notamment confirmer :
- la nature exacte des garanties techniques et juridiques attachées à l'accès aux bases médicales et aux systèmes d'assurance ;
- les mécanismes concrets de responsabilité clinique en cas d'erreur ou d'omission formulée par l'assistant ;
- l'efficacité des dispositifs de prévention des biais et la capacité des modèles à fournir des réponses sourcées et vérifiables dans un contexte médical.
À retenir
- OpenAI et Anthropic multiplient les offres pour intégrer l'IA aux parcours cliniques, avec des choix d'architecture différents.
- ChatGPT Health privilégie un espace cloisonné où l'utilisateur peut connecter ses données ; Claude for Healthcare s'intègre nativement et vise un accès sécurisé aux bases médicales et d'assurance.
- Les promesses vont de l'efficience administrative à une meilleure accessibilité des informations pour les patients.
- Les risques portent sur la vie privée, les biais diagnostiques et la clarification des responsabilités cliniques.
- Des précisions restent nécessaires sur les garanties techniques, juridiques et réglementaires entourant ces services.
Article amélioré avec l'IA - Article original