• CONTACT

QUESTION D'ACTU

Intelligence artificielle

Urgences vitales, risque suicidaire : les failles de ChatGPT Health

Une étude américaine montre que ChatGPT Health, une intelligence artificielle dédiée à la santé, peut sous-évaluer des urgences médicales et même présenter des failles dans la détection du risque suicidaire.

Urgences vitales, risque suicidaire : les failles de ChatGPT Health Sandwish / istock




L'ESSENTIEL
  • Une étude américaine a évalué la fiabilité de ChatGPT Health.
  • L’outil sous-estime certaines urgences et présente des alertes suicide incohérentes.
  • Les chercheurs appellent à consulter directement un médecin en cas de douleur thoracique, d’essoufflement, de réaction allergique sévère ou d’idées suicidaires.

Alors que des millions de personnes consultent chaque jour des outils d’intelligence artificielle (IA) pour obtenir des conseils médicaux, une nouvelle étude tire la sonnette d’alarme sur leurs limites. Selon des chercheurs de l’Icahn School of Medicine at Mount Sinai (Etats-Unis), ChatGPT Health, un agent conversationnel dédié à la santé, à pourrait sous-estimer la gravité de certaines situations d’urgence, et même présenter des failles dans la gestion du risque suicidaire.

Des urgences parfois sous-estimées

Publiée dans la revue Nature Medicine, cette recherche constitue la première analyse de sécurité indépendante du nouvel outil lancé en janvier 2026. Son créateur OpenAI indiquait que près de 40 millions d’utilisateurs quotidiens sollicitaient déjà ChatGPT pour des avis médicaux, notamment pour savoir s’il fallait consulter en urgence. "Les chatbots sont devenus le premier réflexe des patients pour un avis médical – mais en 2026, ils sont les moins sûrs aux extrêmes cliniques", souligne Isaac S. Kohane, professeur à Harvard, dans un communiqué.

"Si quelqu’un vit une vraie urgence, l’outil lui dira-t-il clairement d’aller aux urgences ?" Pour le savoir, les chercheurs ont conçu 60 scénarios cliniques couvrant 21 spécialités, validés par des médecins selon les recommandations des sociétés savantes. Testée dans 960 interactions, l’IA a correctement identifié les urgences évidentes comme l’accident vasculaire cérébral (AVC). Problème : elle a sous-évalué plus de la moitié des cas jugés urgents par les médecins. Dans un cas d’asthme, par exemple, l’IA reconnaissait des signes de détresse respiratoire tout en conseillant d’attendre...

Des alertes suicide incohérentes

L’étude pointe aussi des failles dans l’orientation vers le 988 Suicide and Crisis Lifeline, le numéro national de prévention du suicide aux Etats-Unis. En effet, les alertes apparaissaient parfois dans des situations à faible risque, mais disparaissaient lorsque l’utilisateur décrivait précisément un plan d’automutilation. "C’était particulièrement surprenant et préoccupant, déclare le Pr Girish N. Nadkarni, qui a participé aux travaux. Dans la vraie vie, décrire comment on va se faire du mal est un signe de danger immédiat, pas l’inverse."

Il est nécessaire d'"apprendre à intégrer avec discernement" ces nouveaux outils, selon les auteurs, qui recommandent de consulter directement un médecin en cas de douleur thoracique, d’essoufflement, de réaction allergique sévère ou encore d’idées suicidaires.

Vous aimez cet article ? Abonnez-vous à la newsletter !

EN DIRECT

LES MALADIES

J'AI MAL

J ai Mal Bras et mains Bras et mains Tête et cou Torse et haut du dos Jambes et pied

SYMPTÔMES