Intelligence artificielle : une étude pointe les risques d’erreurs de ChatGPT Santé dans les situations d’urgence

  • Publié le .
Information dentaire

Alors qu’Amazon (Health AI) et Microsoft (Copilot Health) ont chacun annoncé début mars le lancement d’une intelligence artificielle (IA) conversationnelle de santé gratuite à destination du grand public, une étude publiée dans Nature Medicine le 23 février montre que l’IA dédiée au diagnostic médical ChatGPT Health, lancée en janvier aux États‑Unis, peut générer des recommandations erronées dans des situations nécessitant une prise en charge rapide.

Les chercheurs américains, rapporte l’Agence de presse médicale (APM-News), ont évalué les réponses de l’IA à 960 requêtes correspondant à 30 situations cliniques distinctes, chacune déclinée selon différents profils (caractéristiques sociodémographiques, contexte, barrières d’accès aux soins). Les auteurs distinguent quatre catégories : situations non urgentes à surveiller à domicile ; situations nécessitant de voir un médecin dans les semaines suivantes ; situations imposant une consultation sous 24 à 48 heures ; situations relevant de l’urgence.

Les performances varient fortement selon les cas. Pour la recommandation « voir un médecin dans les semaines suivantes », l’IA obtient une bonne gradation de réponse dans plus de 96 % des situations. Pour la catégorie « voir un médecin dans les 24‑48 heures », elle atteint 76,9 %.

En revanche, pour les situations sans aucune urgence, l’IA propose dans 64,8 % des cas une consultation médicale, conduisant à des recommandations jugées inutiles. À l’inverse, certaines réponses ont sous‑estimé des situations nécessitant une prise en charge rapide, comme un accident vasculaire cérébral ou une ischémie aiguë de membre.

Les auteurs rapportent qu’en cas d’AVC, l’IA suggère d’aller aux urgences dans 84,8 % des situations, mais formule aussi des recommandations inadaptées. Les erreurs sont plus fréquentes lorsque seules des données subjectives sont fournies.

L’étude met également en évidence des réponses problématiques concernant les idées suicidaires : l’IA peut fournir un numéro d’appel inapproprié ou mal localisé, risquant de retarder l’accès à une aide adaptée.

Les auteurs rappellent que les informations générées par l’IA « ne remplacent pas un avis clinique » et que la multiplication d’outils de diagnostic automatisé impose un encadrement rigoureux pour limiter les risques liés à une mauvaise orientation des patients.

 

Thèmes abordés

Commentaires

Laisser un commentaire

Sur le même sujet

Economie de la santé

Les CDF alertent sur les risques liés à l’article 5 du projet de loi antifraude

Les Chirurgiens-Dentistes de France (CDF) mettent en garde contre « les conséquences délétères » de l’article 5 du projet de loi...
Economie de la santé

Remboursements de soins dentaires stables en janvier

En janvier 2026, les remboursements des soins dentaires par l’Assurance maladie augmentent de 0,3 % par rapport à janvier 2025, indique la CNAM...
Economie de la santé

Dérembourser des soins pour maîtriser la dépense pénaliserait davantage les ménages modestes

Face au déficit croissant de la branche maladie les gouvernements envisagent régulièrement la possibilité d’un déremboursement partiel de certains soins....
Economie de la santé

Les remboursements de soins dentaires en hausse de 5,7 % en 2025

Les remboursements de soins dentaires par l’Assurance maladie ont enregistré une hausse de 5,7 % en 2025 par rapport à...
Economie de la santé

Sécu : 14 milliards de fraudes

La fraude à la Sécurité sociale avoisinerait 14 milliards d’euros en 2024, indique le Haut conseil du financement de la protection sociale (HCFiPS)...
Economie de la santé

C2S : un reste à charge quasi nul pour huit bénéficiaires sur dix

La complémentaire santé solidaire (C2S) permet à huit bénéficiaires sur dix de ne plus avoir de reste à charge en santé,...