L'assistant conversationnel « Grok », développé par xAI et largement utilisé sur la plateforme X, a relayé plusieurs informations inexactes au sujet de la fusillade survenue à Bondi Beach (Australie). Des vérifications menées par des médias ont relevé des erreurs d'identification, des doutes injustifiés sur l'authenticité de photos et vidéos, et la propagation de récits contradictoires, avant que l'outil ne commence à corriger certaines de ses affirmations.

Contexte et erreurs relevées

Selon des recoupements publiés par des médias, Grok a à plusieurs reprises mal identifié l'homme qui a désarmé un des tireurs, un passant de 43 ans nommé Ahmed al Ahmed. Le système aurait mis en doute la validité d'images montrant son geste, et dans certains messages aurait même désigné la personne sur une photo comme un otage israélien. D'autres posts ont abordé, hors de propos, des sujets liés à la conduite de l'armée israélienne envers les Palestiniens, ou ont attribué l'acte héroïque à une tierce personne présentée comme « Edward Crabtree », décrite comme un professionnel informatique âgé de 43 ans.

Sources problématiques et corrections partielles

Les erreurs semblent provenir en partie de publications virales et de sites peu fiables. Des contenus signalés comme provenant de sites largement non fonctionnels ont pu être reproduits par l'assistant, et certaines publications étaient peut‑être générées par des intelligences artificielles ou issues de plaisanteries mal reprises. Après signalement, Grok a toutefois commencé à corriger certaines affirmations. Un post qui assimilait une vidéo de la fusillade au passage d'un cyclone nommé Alfred aurait été révisé « après réévaluation », et l'assistant a finalement reconnu l'identité d'Ahmed al Ahmed, attribuant la confusion à des publications virales et à une possible erreur de reportage.

Enjeux pour les plateformes et le fact‑checking

Cet épisode illustre plusieurs enjeux liés à l'utilisation d'assistants conversationnels pendant un événement de crise. Premièrement, la vitesse de propagation des messages rend difficile la correction rapide des erreurs. Deuxièmement, la combinaison de contenus viraux, de sites peu fiables et d'algorithmes qui synthétisent l'information peut produire des récits convaincants mais erronés. Enfin, la présence d'informations hors sujet ou de confusions d'identité montre la limite d'une automatisation sans vérification humaine rigoureuse.

Pour réduire la diffusion de fausses informations, les plateformes hébergeant ces assistants et les opérateurs des modèles doivent renforcer les mécanismes de vérification en temps réel, mieux repérer les sources douteuses et signaler explicitement les éléments non confirmés. Les éditeurs et fact‑checkers restent indispensables pour valider les éléments clés avant leur large diffusion.

Ce que cela change pour nous

  • Il faut conserver un réflexe de vérification même lorsque l'information provient d'un assistant réputé rapide et convaincant.
  • Les utilisateurs et modérateurs doivent signaler et recouper les contenus problématiques, en priorité lors d'événements sensibles.
  • Les entreprises exploitant des modèles doivent améliorer la traçabilité des sources utilisées pour générer des réponses.

Ce qui reste à confirmer : certains détails sur l'origine précise des publications erronées sont incertains. En particulier, l'affirmation selon laquelle le site ayant relayé une fausse piste serait largement non fonctionnel et potentiellement généré par IA reste à vérifier. De même, l'étendue exacte des corrections apportées par Grok et le processus interne qui a conduit à ces rectifications n'ont pas été détaillés publiquement dans les éléments disponibles.

À retenir

  • Grok, l'assistant d'xAI, a diffusé plusieurs informations erronées lors de la fusillade de Bondi Beach.
  • Les erreurs comprenaient des confusions d'identité, des doutes injustifiés sur des images, et des attributions contradictoires.
  • Des publications virales et des sites douteux semblent avoir alimenté la confusion.
  • L'assistant a commencé à corriger certaines affirmations, mais des zones d'ombre subsistent.
  • La situation rappelle l'importance d'un fact‑checking rigoureux et de mécanismes de vérification en temps réel sur les plateformes.

Article amélioré avec l'IA - Article original