Le ministère de la Justice de Corée du Sud a annoncé le 15 décembre l’introduction d’un système d’analyse comportementale fondé sur l’intelligence artificielle au sein du centre national médico‑légal. Présenté comme un outil d’aide à la décision, il doit détecter en temps réel les comportements agressifs ou inhabituels et alerter le personnel soignant pour permettre une intervention préventive.

Contexte et fonctionnement annoncé

Ce dispositif vise principalement à accompagner la prise en charge de personnes atteintes de troubles mentaux ayant commis des infractions, notamment des patients présentant un trouble du développement. Selon le ministère, le système surveillera des actes tels que l’automutilation, l’agitation ou les crises, et transmettra des alertes immédiates au personnel médical lorsqu’un comportement à risque sera détecté.

Les données collectées permettraient aux équipes de repérer des signaux avant‑coureurs et d’élaborer des plans thérapeutiques plus précis, en s’appuyant sur des informations objectives sur les causes et les caractéristiques des comportements observés. Le ministère précise par ailleurs que l’analyse finale et la décision clinique resteront du ressort des médecins : l’intelligence artificielle est conçue comme un outil d’aide, non comme un substitut à l’expertise médicale.

Enjeux pour les patients, les soignants et les familles

Sur le plan clinique, l’apport attendu est double. D’une part, la détection en temps réel pourrait permettre des interventions plus rapides, réduisant la gravité des épisodes agressifs ou auto‑agressifs. D’autre part, la disponibilité de données objectives peut faciliter la personnalisation des traitements et des stratégies de réhabilitation, en complément des mesures existantes telles que la pharmacothérapie, la psychothérapie et la formation professionnelle.

Pour le personnel soignant, l’outil promet un renfort de la surveillance et une meilleure réactivité, mais cela suppose une appropriation technique et clinique. Les autorités ont d’ores et déjà appelé au soutien des équipes médicales pour garantir le succès de cette transition technologique. Les professionnels espèrent également que ce dispositif favorisera le dialogue avec les familles et renforcera la confiance et la transparence autour des décisions cliniques.

Aspects éthiques, responsabilité et sécurité des données

L’annonce insiste sur le maintien de la responsabilité clinique par les médecins, mais plusieurs questions éthiques demeurent essentielles. La mise en œuvre d’un tel système soulève des enjeux de protection des données personnelles, de consentement des patients lorsqu’il est applicable, et de traçabilité des décisions appuyées par un algorithme. La gestion des alertes (critères d’escalade, priorisation, et réduction des faux positifs) devra être définie afin d’éviter des interventions inappropriées.

Enfin, la confiance des patients et des familles dépendra de la transparence sur l’usage des données et sur les garanties prises pour prévenir les dérives. Le ministère indique son intention d’explorer d’autres usages de l’IA pour renforcer le filet de sécurité social et réduire la récidive, ce qui implique un suivi attentif des impacts et des garde‑fous.

Impact attendu et limites

Le ministère présente ce système comme un complément aux prises en charge existantes avec l’objectif d’améliorer la sécurité dans l’établissement et l’efficacité de la réhabilitation. Si l’outil tient ses promesses, il pourrait contribuer à une meilleure prévention des incidents et à des plans de soin plus adaptés.

Cependant, l’efficacité réelle dépendra de facteurs opérationnels : qualité des capteurs et des données, robustesse des algorithmes, intégration dans les pratiques cliniques, formation des équipes et acceptation par les patients et leurs proches. Des évaluations indépendantes seront nécessaires pour mesurer l’impact sur la sécurité, la qualité des soins et la réduction de la récidive.

Ce qui reste à confirmer

  • Le calendrier précis de déploiement et l’étendue de l’expérimentation au sein du centre national médico‑légal.
  • Les caractéristiques techniques du système : types de capteurs, algorithmes employés et taux de précision attendus.
  • Les règles de gouvernance des données, la durée de conservation et les modalités de consentement des personnes concernées.
  • Les critères d’évaluation clinique et les indicateurs retenus pour mesurer l’efficacité en termes de sécurité et de réhabilitation.

À retenir

  • Le ministère de la Justice de Corée du Sud a annoncé un système d’analyse comportementale par IA pour le centre national médico‑légal, visant la détection en temps réel de comportements à risque.
  • L’outil est décrit comme un complément aux thérapies existantes et comme une aide à la décision ; la responsabilité clinique doit rester médicale.
  • Des gains potentiels en prévention et en personnalisation des soins sont attendus, mais dépendent de la qualité technique et de l’acceptation par les équipes et les familles.
  • Plusieurs éléments restent à préciser, notamment la gouvernance des données, les spécifications techniques et les critères d’évaluation.

Article amélioré avec l'IA - Article original