L'IA dépasse les médecins urgentistes en précision diagnostique, selon Harvard
Une étude menée par la Harvard Medical School et le Beth Israel Deaconess Medical Center, publiée dans la revue Science, conclut que le modèle d'IA o1 d'OpenAI surpasse les médecins urgentistes en précision diagnostique. Sur 76 dossiers patients réels, o1 a atteint 67 % de diagnostics exacts ou proches du bon résultat au moment du triage, contre 55 % et 50 % pour deux internistes évalués en parallèle. Pour les hôpitaux français, cette publication pose une question concrète : à quel horizon ces outils pourraient-ils intégrer les urgences ?
Le test
Les chercheurs ont utilisé des données d'électronique médicale sans pré-traitement : l'IA et les médecins disposaient exactement des mêmes informations à chaque étape clinique. Deux autres médecins, ne sachant pas quelle réponse venait d'un humain ou d'une machine, ont ensuite évalué les diagnostics à l'aveugle. Le modèle o1 a égalé ou dépassé les médecins à chaque étape, avec l'écart le plus marqué au triage — le moment où l'information est la plus fragmentaire et la décision la plus urgente. o1 s'est également distingué sur les maladies rares et les raisonnements complexes, comme les décisions d'antibiothérapie ou de soins palliatifs.
Les auteurs insistent sur un point : ces résultats ne signifient pas que l'IA est prête à décider seule. Ils appellent à des essais prospectifs en conditions réelles avant tout déploiement clinique, selon Harvard Magazine.
En France, le cadre réglementaire d'abord
Avant d'envisager un déploiement dans les services d'urgence français, plusieurs obstacles réglementaires restent à franchir. L'AI Act européen classe les outils d'aide au diagnostic comme systèmes à haut risque, soumis à des obligations strictes de transparence et de supervision humaine. La date limite de mise en conformité pour les dispositifs médicaux intégrant de l'IA a été repoussée à août 2028 via le Digital Omnibus, selon G_NIUS. En France, la CNIL et l'ANSM coordonnent l'application conjointe de l'AI Act et du RGPD pour les données de santé. L'Espace européen des données de santé (EHDS) devrait par ailleurs faciliter l'entraînement et la validation de ces algorithmes sur des cohortes européennes, selon la Commission européenne.
Ce que l'étude ne dit pas
L'étude repose uniquement sur des données textuelles : aucune imagerie médicale, aucun signe vital en temps réel, aucune donnée multimodale. Or la plupart des outils d'IA déjà validés en milieu hospitalier opèrent précisément sur ces données-là. La question de la responsabilité en cas d'erreur reste également sans réponse : ni l'étude ni le cadre réglementaire actuel ne précisent qui est tenu responsable lorsqu'une recommandation de l'IA diverge du jugement du médecin.
L'IA comme aide à la décision, pas comme substitut au médecin — c'est le message des auteurs. Reste à construire le cadre juridique et technique qui le rendra possible dans les hôpitaux français.