L’Intelligence Artificielle générative a révolutionné la manière dont nous cherchons l’information. Aujourd’hui, plus d’un utilisateur sur deux fait appel à des outils comme ChatGPT ou Gemini pour synthétiser des données issues du web. Cette adoption massive, perçue comme un gain d'efficacité spectaculaire, masque cependant une réalité plus préoccupante : la fiabilité des informations fournies est loin d'être garantie. Une récente enquête de l’organisme de protection des consommateurs Which? met en lumière un dangereux décalage entre la confiance accordée par les utilisateurs et les taux d'erreur élevés relevés, notamment dans les domaines critiques comme le droit et la finance. Pour les entreprises, ce mirage de la précision peut se traduire par des risques réglementaires et des erreurs opérationnelles coûteuses.
Une précision en berne : l'enquête qui alerte
L'enquête menée par Which? a testé six assistants d’IA majeurs (ChatGPT, Google Gemini standard et AI Overviews, Microsoft Copilot, Meta AI et Perplexity) en les soumettant à 40 questions pratiques couvrant des problématiques complexes en finance, droit et droits des consommateurs. Les résultats confirment ce que les experts redoutent : l'exactitude est un défi permanent pour les modèles actuels.
Le palmarès, qui ne reflète pas la popularité de ces outils, est révélateur :
- Perplexity : 71 % de précision.
- Google Gemini AI Overviews : 70 % de précision.
- ChatGPT : 64 % de précision.
- Meta AI : 55 % de précision (le score le plus bas).
Ce décalage entre l’image de leader de certains modèles et leur performance réelle est un signal d’alarme pour les directions d'entreprise. Si un employé utilise l’outil le plus populaire pour une recherche légale ou financière, il risque de s'appuyer sur une information erronée dans près d'un cas sur trois.
Les risques spécifiques pour les directions juridiques et financières
Pour les départements d'entreprise gérant des informations sensibles, la nature des erreurs commises par l’IA est particulièrement alarmante. Les conséquences d'un conseil juridique ou financier inexact peuvent être lourdes en termes de conformité et de pertes financières.
Des conseils contraires aux réglementations
L'étude a révélé des lacunes criantes sur des points très précis. Par exemple, lorsqu'ils étaient interrogés sur un plafond d’investissement (le plafond annuel d'une ISA, équivalent d'un Plan d'Épargne en Actions au Royaume-Uni), ChatGPT et Copilot n’ont pas su identifier une donnée erronée volontairement insérée dans la question, allant jusqu'à formuler des recommandations qui auraient pu enfreindre les règles officielles de l’HMRC (le fisc britannique). Cette imprudence est d’autant plus dangereuse qu'elle est souvent perçue par l'utilisateur comme un fait établi.
La généralisation des réglementations régionales
Pour les équipes juridiques, l’IA présente un autre piège : celui de la généralisation. Les modèles ont tendance à mal appréhender les subtilités des lois qui diffèrent selon les juridictions. Il est fréquent qu'un outil confonde des réglementations entre l'Angleterre et l'Écosse ou le Pays de Galles, un risque qui s’applique évidemment aux cadres légaux français et européens.
L'excès de confiance mène aux erreurs stratégiques
Certains modèles, comme Gemini, ont conseillé de retenir un paiement lors d'un litige commercial. Or, un expert a souligné que cette tactique pouvait affaiblir la position contractuelle d'une entreprise et la placer en défaut. Ce phénomène, appelé « conseil trop sûr » ou « surconfiance », crée des risques opérationnels : un employé pourrait se fier à la recommandation d'une IA pour des décisions impactant la position légale de l'organisation.
Le problème critique de la traçabilité des sources
Un enjeu majeur de gouvernance des données pour les entreprises est la « lignée » de l'information, c'est-à-dire sa source. La recherche par IA est souvent opaque sur ce point. L'enquête a constaté que les outils citaient fréquemment des sources vagues, obsolètes, parfois non pertinentes ou issues de forums anciens. Cette opacité rend la vérification manuelle presque impossible.
- Les biais d'approvisionnement : L'IA peut générer des coûts inutiles. Dans un cas de recherche sur les codes fiscaux, ChatGPT et Perplexity ont renvoyé vers des prestataires payants de remboursement d'impôts, plutôt que vers l'outil officiel et gratuit de l'administration fiscale. En contexte d’achats ou de « procurement » en entreprise, un tel biais algorithmique pourrait induire des dépenses non nécessaires.
- Le report de responsabilité : Face à ces limites, les éditeurs de modèles sont clairs : ils ne sont que des synthétiseurs. Un porte-parole de Microsoft a insisté sur le fait que Copilot distille des informations, mais que l’entreprise « encourage les gens à vérifier l’exactitude du contenu ». OpenAI reconnaît de son côté que « l’amélioration de la précision est quelque chose sur lequel travaille l’ensemble de l’industrie ». La charge de la vérification repose donc entièrement sur l’utilisateur, et par extension, sur l’entreprise.
Mettre en place une gouvernance interne rigoureuse
L’interdiction pure et simple des outils d’IA est souvent contre-productive et mène à une utilisation cachée, le fameux « shadow IA ». La solution réside dans la mise en place de politiques de gouvernance rigoureuses qui transforment un risque potentiel en gain d'efficacité sécurisé.
Trois piliers pour sécuriser l’usage de l’IA dans la recherche :
- Rendre les requêtes spécifiques : Les employés doivent être formés à la précision des « prompts ». Une requête vague génère une réponse risquée. Il faut spécifier la juridiction (ex. : « règles de droit pour la France ») et le contexte pour éviter les généralisations dangereuses.
- Vérification obligatoire des sources : Aucune donnée issue de l’IA ne doit être considérée comme un fait sans vérification. La politique interne doit exiger un « double-sourcing », c'est-à-dire une vérification croisée des informations sur plusieurs outils, ou l'examen manuel des liens sources fournis.
- Procédures « Human-in-the-Loop » : Pour les décisions à hautes conséquences (finance, droit, stratégie), la réponse de l'IA doit être vue comme une simple « première opinion ». Le conseil professionnel et l’expertise humaine doivent rester l'arbitre final.
L'évolution technique des modèles se poursuit, mais tant qu'une précision décisive ne sera pas atteinte, la responsabilité organisationnelle et la formation des équipes demeurent la seule véritable garantie contre les erreurs coûteuses et les risques réglementaires.
Que retenir ?
- Faible Exactitude : L'enquête Which? révèle que l'exactitude des assistants d'IA pour les recherches critiques (droit, finance) est faible (ChatGPT à 64 %, Meta AI à 55 %).
- Risques Financiers et Légaux : Les modèles donnent des conseils contraires aux réglementations (plafonds d’investissement) et généralisent souvent les lois entre différentes régions ou juridictions.
- Opacité des Sources : L’IA renvoie souvent à des sources vagues, obsolètes ou même à des services payants, induisant des biais d'achat et rendant la vérification difficile.
- Responsabilité de l’Entreprise : Les éditeurs reportent la responsabilité de la vérification sur l'utilisateur. La solution réside dans une gouvernance interne forte.
- La parade : Former les employés à la spécificité des requêtes, mandater la vérification des sources (double-sourcing) et maintenir l’expertise humaine comme juge de paix (human-in-the-loop).