IA au bloc opératoire : le jugement humain demeure prépondérant
Divers médias et agences de presse dont Reuters rapportent que l’intégration croissante de l’intelligence artificielle (IA) dans les blocs opératoires suscite des préoccupations grandissantes en ce début de 2026 sur la fiabilité clinique, la surveillance réglementaire et la sécurité des patients. Même l’aide à la décision pose problème.
Décidément, l’IA n’en finit pas de faire parler d’elle. En mal. Pour les démiurges qui annonçaient la fin du travail des humains et la mise à la retraite forcée des médecins, on s’aperçoit au contraire que l’humain est plus utile que jamais pour… surveiller l’IA. Attention danger.
Ainsi, "des systèmes d’assistance chirurgicale intégrant des fonctions automatisées ont été liés à des erreurs d’orientation des instruments, des mauvaises reconnaissances anatomiques, voire des complications graves". On rapporte des perforations, atteintes vasculaires ou complications neurologiques dans certains hôpitaux américains dans plusieurs états américains. « Ces incidents ont poussé des services hospitaliers à lancer des revues internes des protocoles d’utilisation de l’IA au bloc opératoire, tout en rappelant que ces technologies doivent assister, et non remplacer, le jugement clinique des chirurgiens », indique Reuters.
Régulation et responsabilité
Un point d’achoppement est la régulation. Les autorités sanitaires n’arrivent pas à suivre tellement la diffusion de ces systèmes « intelligents » est rapide. Lorsque l’IA participe à la décision, qui est responsable, le médecin ou la machine ?
Parallèlement aux préoccupations de terrain, un article dans Nature publié début février 2026 aborde les défis éthiques majeurs posés par l’introduction des technologies autonomes en salle d’opération.
L’IA multiplie les erreurs
Reuters, repris par 7sur7, rapporte le cas d’Acclarent, une filiale du géant pharmaceutique Johnson & Johnson spécialisée dans les logiciels d’imagerie médicale. La firme propose un système de navigation « TruDi » dorénavant doté d’une IA. Elle est censée guider les chirurgiens pour des opérations de précision (sinus, nez, gorge) et est dotée d’un algorithme d’apprentissage automatique. On rapporte le cas d’un patient blessé légèrement avec l’utilisation de cette technologie. TruDi semble donner des informations erronées sur la position exacte des instruments. Ce qui peut s’avérer dangereux voire fatal si l’on touche à une artère.
La FDA aurait rappelé au moins 182 produits utilisant l'IA et concernant 60 dispositifs médicaux. Près de la moitié des cas présentaient des dysfonctionnements, soit le double du taux moyen de rappel des dispositifs médicaux habituellement.
Relations médecin-patient
Mais l’utilisation d’une médecine hybride humaine/IA pose la question du rapport avec le patient. La machine pouvant prendre partiellement ses propres décisions, le médecin devra s’expliquer en one-to-one avec son patient – peu de chance que l’IA le fasse à sa place. C’est aussi toute l’éthique médicale (« primum non nocere ») qui en est bouleversée.
Le cursus médical que d’aucuns estiment désormais - à tort - inutile doit également s’adapter rapidement à cette révolution technologique. Il faut préparer les étudiants à évoluer dans un monde médical hybride humain-machine. Or les universités sont plutôt lentes à la détente…