L'IA dans les soins de santé présente plusieurs risques pour les patients (CSNPH)
L'utilisation de l'intelligence artificielle (IA) dans le secteur des soins de santé présente plusieurs risques pour les patients. Il manque également un cadre juridique solide pour les protéger suffisamment, ressort-il d'une note du Conseil supérieur national des personnes handicapées (CSNPH) publiée jeudi.

Tout d'abord, le CSNPH rappelle que la relation de soin doit rester "un lien d'humain à humain". Si, pour l'instant, le recours à l'IA reste sous la responsabilité du médecin, il existe un risque que ce recours devienne une norme, ajoute le Conseil.
Afin de ne pas mettre à mal la relation de confiance entre le patient et son prestataire de soin, et de garantir une information correcte, le CSNPH plaide pour la mise en place de mécanismes de validation centralisés des IA médicales et de tests de biais obligatoires. Ces derniers doivent permettre de s'assurer que la programmation de l'IA n'est pas de nature à discriminer certains types de patients. L'organe recommande aussi l'élaboration d'une charte déontologique.
L'importance de la diversité
Sur le plan technique ensuite, le CSNPH évoque l'importance de la qualité méthodologique du développement des systèmes d'IA. Le Conseil insiste sur l'importance de la diversité des échantillons utilisés pour entraîner l'IA et sur la transparence au niveau des méthodes. Il est également nécessaire de former les prestataires de soins afin de garantir un bon usage de ces nouvelles technologies.
Par ailleurs, le rapport se penche sur la question de la gestion des données des patients. L'Espace Européen des données de santé, en instaurant le partage sans limite des données médicales à l'échelle européenne, balaie le droit à consentir des patients, estime le Conseil. À l'issue de son analyse, le CSNPH estime d'ailleurs qu'il est nécessaire de compléter l'AI-Act de l'Union européenne en y intégrant des contraintes adaptées au secteur de la santé.