Alors qu’Amazon (Health AI) et Microsoft (Copilot Health) ont chacun annoncé début mars le lancement d’une intelligence artificielle (IA) conversationnelle de santé gratuite à destination du grand public, une étude publiée dans Nature Medicine le 23 février montre que l’IA dédiée au diagnostic médical ChatGPT Health, lancée en janvier aux États‑Unis, peut générer des recommandations erronées dans des situations nécessitant une prise en charge rapide.
Les chercheurs américains, rapporte l’Agence de presse médicale (APM-News), ont évalué les réponses de l’IA à 960 requêtes correspondant à 30 situations cliniques distinctes, chacune déclinée selon différents profils (caractéristiques sociodémographiques, contexte, barrières d’accès aux soins). Les auteurs distinguent quatre catégories : situations non urgentes à surveiller à domicile ; situations nécessitant de voir un médecin dans les semaines suivantes ; situations imposant une consultation sous 24 à 48 heures ; situations relevant de l’urgence.
Les performances varient fortement selon les cas. Pour la recommandation « voir un médecin dans les semaines suivantes », l’IA obtient une bonne gradation de réponse dans plus de 96 % des situations. Pour la catégorie « voir un médecin dans les 24‑48 heures », elle atteint 76,9 %.
En revanche, pour les situations sans aucune urgence, l’IA propose dans 64,8 % des cas une consultation médicale, conduisant à des recommandations jugées inutiles. À l’inverse, certaines réponses ont sous‑estimé des situations nécessitant une prise en charge rapide, comme un accident vasculaire cérébral ou une ischémie aiguë de membre.
Les auteurs rapportent qu’en cas d’AVC, l’IA suggère d’aller aux urgences dans 84,8 % des situations, mais formule aussi des recommandations inadaptées. Les erreurs sont plus fréquentes lorsque seules des données subjectives sont fournies.
L’étude met également en évidence des réponses problématiques concernant les idées suicidaires : l’IA peut fournir un numéro d’appel inapproprié ou mal localisé, risquant de retarder l’accès à une aide adaptée.
Les auteurs rappellent que les informations générées par l’IA « ne remplacent pas un avis clinique » et que la multiplication d’outils de diagnostic automatisé impose un encadrement rigoureux pour limiter les risques liés à une mauvaise orientation des patients.
Commentaires