Publié le 03 mars 2026 par Hélène Bour
\nL'outil d'intelligence artificielle (IA) ChatGPT Health ne serait pas à la hauteur lorsqu'il s'agit d'évaluer et de gérer des urgences médicales. Une nouvelle étude s'alarme des conséquences potentielles de son utilisation. Cette étude a été publiée en urgence dans le numéro du 23 février 2026 de la revue Nature Medicine (Source 1).
Gallery
![Comment l'IA révolutionne la gestion d'entreprise [Guide] | Sage Advice ...](https://tourisme-lafautesurmer.fr/images/1772886244274_4826cc4c_2.webp)

Une révolution en santé, mais des risques persistants
\nL'IA est en train de transformer le domaine de la santé, notamment dans les domaines de l'imagerie et du dépistage. Cependant, des lacunes subsistent dans l'évaluation des situations médicales urgentes. Selon la recherche, ChatGPT Health pourrait mal orienter les utilisateurs face à des problèmes de santé, omettant de signaler le caractère urgent de certaines situations et compromettant ainsi la santé des utilisateurs.
\n\nLes avertissements des experts
\nLe Dr Isaac S. Kohane, directeur du département d'informatique biomédicale à la faculté de médecine de Harvard, a exprimé ses préoccupations : « Les systèmes d'intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles. » (Source 2)
\n\nUne adoption massive sans évaluation indépendante
\nQuelques semaines après son lancement, OpenAI, la société derrière ChatGPT Health, a rapporté que près de 40 millions de personnes utilisaient cet outil quotidiennement pour obtenir des conseils sur leur santé, y compris pour savoir s'il est nécessaire de consulter en urgence. Toutefois, la fiabilité et la sécurité des conseils fournis n'ont pas été évaluées de manière indépendante, ce qui a incité les chercheurs à mener cette étude.
\n\nUne étude révélatrice
\nLe Dr Ashwin Ramaswamy, auteur principal de l'étude et professeur d'urologie à l'École de médecine Icahn du Mont Sinaï à New York, a déclaré : « Nous souhaitions répondre à une question fondamentale : si une personne est confrontée à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l'aide, le système lui indiquera-t-il clairement de se rendre aux urgences ? » Malheureusement, les résultats ne sont pas encourageants.
\n\nDes incohérences inquiétantes
\nLes chercheurs ont découvert des incohérences dans les réponses de l'outil. Des alertes invitant à appeler les urgences apparaissaient dans des scénarios à faible risque, tandis qu'elles étaient absentes dans des contextes plus graves, comme lors d'expressions claires d'intentions suicidaires. Le Dr Girish N. Nadkarni, coauteur de l'étude, a déclaré : « Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait bien au-delà de l'incohérence. Les alertes du système étaient inversées par rapport au risque clinique. »
\n\nPerformance dans les situations d'urgence classiques
\nIl est important de noter que le Dr Ramaswamy a reconnu que ChatGPT Health a bien fonctionné dans des situations d'urgence classiques, telles qu'un AVC ou une réaction allergique grave. Cependant, il a également souligné que l'outil a des difficultés dans des situations plus nuancées où le danger n'est pas immédiatement évident. Par exemple, dans le cadre d'un cas d'asthme, le système a identifié des signes avant-coureurs d'insuffisance respiratoire, mais a conseillé d'attendre au lieu de consulter un médecin en urgence.
\n\nRecommandations des chercheurs
\nFace à ces constatations, les scientifiques recommandent de consulter directement un médecin plutôt que de se fier à ChatGPT ou à tout autre outil à base d'IA lorsque l'état s'aggrave ou que des symptômes inquiétants se manifestent (comme l'essoufflement, les douleurs thoraciques ou les réactions allergiques graves). En cas de pensées suicidaires, il est impératif d'appeler le numéro d'urgence dédié, à savoir le 31 14 en France.
\n\nConclusion : utiliser l'IA avec prudence
\nLes chercheurs ne préconisent pas d'abandonner les outils de santé à base d'IA, mais soulignent l'importance de connaître leurs limites et de les utiliser avec discernement. Les conseils médicaux obtenus via ces outils doivent être considérés comme complémentaires et non comme des substituts à une consultation médicale en personne.
\nRelated Articles

Clover Health dévoile un document de questions-réponses enrichi sur ses résultats du quatrième trimestre 2025

Le salon Tech 4 Health : un rendez-vous incontournable les 25 et 26 mars

Le salon Tech 4 Health : Rencontres incontournables sur la santé numérique les 25 et 26 mars

