Sante

ChatGPT Health : des résultats préoccupants concernant les urgences médicales

Une étude récente publiée dans <em>Nature Medicine</em> met en lumière les lacunes de ChatGPT Health dans l'évaluation des urgences médicales. Bien que cet outil d'IA soit largement utilisé pour des conseils de santé, il présente des incohérences inquiétantes, notamment dans des situations critiques. Les experts conseillent de privilégier la consultation d'un médecin en cas de doute et d'être conscient des limites des outils d'IA.

07 Mar 2026
4 min read
666 words
L'IA, une révolution ? Découvrir l'impact de l'IA sur le monde actuel
SHARE
\n

Publié le 03 mars 2026 par Hélène Bour

\n

L'outil d'intelligence artificielle (IA) ChatGPT Health ne serait pas à la hauteur lorsqu'il s'agit d'évaluer et de gérer des urgences médicales. Une nouvelle étude s'alarme des conséquences potentielles de son utilisation. Cette étude a été publiée en urgence dans le numéro du 23 février 2026 de la revue Nature Medicine (Source 1).

Gallery

Comment l'IA révolutionne la gestion d'entreprise [Guide] | Sage Advice ...
Comment l'IA révolutionne la gestion d'entreprise [Guide] | Sage Advice ...
IA révolution : Son impact sur le monde des affaires
IA révolution : Son impact sur le monde des affaires
\n\n

Une révolution en santé, mais des risques persistants

\n

L'IA est en train de transformer le domaine de la santé, notamment dans les domaines de l'imagerie et du dépistage. Cependant, des lacunes subsistent dans l'évaluation des situations médicales urgentes. Selon la recherche, ChatGPT Health pourrait mal orienter les utilisateurs face à des problèmes de santé, omettant de signaler le caractère urgent de certaines situations et compromettant ainsi la santé des utilisateurs.

\n\n

Les avertissements des experts

\n

Le Dr Isaac S. Kohane, directeur du département d'informatique biomédicale à la faculté de médecine de Harvard, a exprimé ses préoccupations : « Les systèmes d'intelligence artificielle sont devenus le premier réflexe des patients pour obtenir des conseils médicaux, mais en 2026, leur fiabilité est moindre aux extrêmes cliniques, là où le jugement fait la différence entre les urgences manquées et les alarmes inutiles. » (Source 2)

\n\n

Une adoption massive sans évaluation indépendante

\n

Quelques semaines après son lancement, OpenAI, la société derrière ChatGPT Health, a rapporté que près de 40 millions de personnes utilisaient cet outil quotidiennement pour obtenir des conseils sur leur santé, y compris pour savoir s'il est nécessaire de consulter en urgence. Toutefois, la fiabilité et la sécurité des conseils fournis n'ont pas été évaluées de manière indépendante, ce qui a incité les chercheurs à mener cette étude.

\n\n

Une étude révélatrice

\n

Le Dr Ashwin Ramaswamy, auteur principal de l'étude et professeur d'urologie à l'École de médecine Icahn du Mont Sinaï à New York, a déclaré : « Nous souhaitions répondre à une question fondamentale : si une personne est confrontée à une véritable urgence médicale et se tourne vers ChatGPT Health pour obtenir de l'aide, le système lui indiquera-t-il clairement de se rendre aux urgences ? » Malheureusement, les résultats ne sont pas encourageants.

\n\n

Des incohérences inquiétantes

\n

Les chercheurs ont découvert des incohérences dans les réponses de l'outil. Des alertes invitant à appeler les urgences apparaissaient dans des scénarios à faible risque, tandis qu'elles étaient absentes dans des contextes plus graves, comme lors d'expressions claires d'intentions suicidaires. Le Dr Girish N. Nadkarni, coauteur de l'étude, a déclaré : « Nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait bien au-delà de l'incohérence. Les alertes du système étaient inversées par rapport au risque clinique. »

\n\n

Performance dans les situations d'urgence classiques

\n

Il est important de noter que le Dr Ramaswamy a reconnu que ChatGPT Health a bien fonctionné dans des situations d'urgence classiques, telles qu'un AVC ou une réaction allergique grave. Cependant, il a également souligné que l'outil a des difficultés dans des situations plus nuancées où le danger n'est pas immédiatement évident. Par exemple, dans le cadre d'un cas d'asthme, le système a identifié des signes avant-coureurs d'insuffisance respiratoire, mais a conseillé d'attendre au lieu de consulter un médecin en urgence.

\n\n

Recommandations des chercheurs

\n

Face à ces constatations, les scientifiques recommandent de consulter directement un médecin plutôt que de se fier à ChatGPT ou à tout autre outil à base d'IA lorsque l'état s'aggrave ou que des symptômes inquiétants se manifestent (comme l'essoufflement, les douleurs thoraciques ou les réactions allergiques graves). En cas de pensées suicidaires, il est impératif d'appeler le numéro d'urgence dédié, à savoir le 31 14 en France.

\n\n

Conclusion : utiliser l'IA avec prudence

\n

Les chercheurs ne préconisent pas d'abandonner les outils de santé à base d'IA, mais soulignent l'importance de connaître leurs limites et de les utiliser avec discernement. Les conseils médicaux obtenus via ces outils doivent être considérés comme complémentaires et non comme des substituts à une consultation médicale en personne.

\n