L’IA en santé au service de la personne et de la société ?

Tribune rédigée par Christian Roux (directeur de la recherche et de l’innovation à l’IMT), Patrick Duvaut (directeur de l’innovation à l’IMT), et Eric Vibert (professeur à l’Université Paris-Sud / Université Paris Saclay, et chirurgien à l’Hôpital Paul Brousse (AP-HP) de Villejuif).

Comment bâtir une intelligence artificielle humaniste, explicable et éthique ? Cette question est au cœur des réflexions sur l’avenir des technologies d’IA en santé. Celles-ci doivent apporter des compétences complémentaires aux humains, sans pour autant se substituer aux acteurs du système de santé. Autour du concept de « digital durable », cette tribune reprend les idées clés développées par ses auteurs dans un long format publié par la revue Télécom Alumni. 

 

L’intelligence artificielle (IA) n’en est qu’aux balbutiements. Mono-tâche, ayant besoin d’énormément d’exemples, elle n’a ni conscience, ni empathie, ni sens commun. Dans le domaine médical, le type de lien entre un soigné et un soignant augmenté, ou un assistant virtuel médical est pourtant central. L’IA est en quête d’un comportement social apprenant et personnalisé entre les machines et les patients. Autre limitation de nature technologique et scientifique : l’absence « d’explicabilité » de l’IA. Les méthodes comme le deep learning opèrent comme des boîtes noires. Le seul verdict issu du processus « données massives à l’entrée à résultats en sortie » ne peut suffire ni au praticien, ni au patient. Il en va d’un côté de la responsabilité dans l’accompagnement, la compréhension et la maîtrise du parcours thérapeutique du patient, et de l’autre de l’adhésion à une démarche de soin et de l’observance thérapeutique, clés de l’implication du patient dans sa propre prise en charge.

Toutefois, les plus grands défis de l’IA ne sont pas technologiques, mais liés à ses usages, sa gouvernance, son éthique… Passer de technologies « cognitives » et « sociales » à des technologies décisionnaires est un acte fort. Il s’agit d’un transfert complet de responsabilités au numérique. Les ressorts méthodologiques existent pour une telle transition, mais les activer influerait considérablement sur la nature de la coévolution humain-IA. Pour les médecins, le rapport du Conseil national de l’ordre des médecins (CNOM) de janvier 2018 est très clair : les praticiens souhaitent conserver la maîtrise des décisions. « La machine doit servir l’homme, et non l’asservir » lit-on ainsi dans le rapport. La machine devrait se cantonner à augmenter la décision ou le diagnostic, comme le fait IBM Watson. « L’IA ne se pose pas de questions, c’est l’Homme qui doit les lui poser » écrit très justement Miguel Benasayag, philosophe et essayiste.

Laisser l’humain aux commandes de décisions augmentées par l’IA est d’autant plus crucial que la société connaît depuis 2016 la plus grave crise de confiance dans les réseaux sociaux et les plateformes de service numériques depuis l’avènement de l’ère numérique en 1990 et la création du « World Wide Web ». Après près de 30 ans d’existence, la société numérique change de paradigme. Sous la pression des citoyens, impulsée par une crise de confiance, elle s’arme de nouveaux outils, comme le nouveau règlement européen sur les Données personnelles (RGPD). L’ère du digital aliénant qui a opéré librement pendant trois décennies comme un colonisateur cognitif, social et politique cède la place au « digital durable » qui met le citoyen au centre de la cyber-sphère en lui donnant le contrôle de ses données et de ses vies numériques. En bref : l’empowerment citoyen.

Cette tendance se traduit dans la santé par « l’empowerment du patient ». Ainsi, le rapport de l’Ordre national des médecins et le rapport Santé rendu au Conseil général de l’économie préconisent un nouveau modèle de santé sous forme de « démocratie sanitaire ». Celle-ci est incarnée par une « santé 6P » : Préventive ; Prédictive ; Personnalisée ; Participative ;  de Précision ; et centrée sur le Patient.

Une « IA Humaniste » pour le nouveau parcours thérapeutique

L’extrait suivant du rapport du CNOM de janvier 2018 affirme la nécessité de centrer les augmentations apportées par l’IA en médecine sur le patient, l’éthique et la relation de confiance entre soigné et soignant : « Le respect des secrets des personnes est la base même de la confiance qu’elles portent aux médecins. Il faut donc mettre cette exigence éthique dans le traitement massif des data lors de la construction des algorithmes ». Il en va de même des préconisations du rapport de Cédric Villani sur l’Intelligence Artificielle. Très concrètement, une intelligence artificielle humaniste au service de la santé et de la société se doterait de trois composantes, garantes « d’augmentations responsables » : la responsabilité, la mesurabilité, et l’éthique native.

La complexité des processus médicaux et des dispositifs de santé, la multiplicité des acteurs impliqués, et la nécessité d’accéder instantanément à des quantités phénoménales de données hautement sécurisées, requièrent l’usage de plateformes d’IA de confiance (AI as a Trusted Service, AIaaTS, qui intègrent nativement toutes les vertus du « digital durable ». L’AIaaTS, intègre, autour d’un coffre-fort à données, toutes les fonctionnalités du triptyque cognitif numérisé perception – raisonnement – action, et ne se limite pas seulement au deep ou au machine learning.

Les preuves de confiance, d’éthique, de mesurabilité et de responsabilité reposeraient sur des caractéristiques exploitant des outils de la nouvelle société numérique. Une conformité native au RGPD, couplée à des systèmes d’authentification forte des usagers, permettrait d’assurer la sécurité des patients. La blockchain, grâce à ses smart contracts, peut également jouer un rôle en permettant une notarisation augmentée des prises en charge administratives et des actes médicaux. Des indicateurs d’éthique et d’explicabilité existent aujourd’hui pour éviter au mieux un effet boîte noire. D’autres indicateurs, semblables au modèle de Value Based Healthcare du Pr Michael Porter de l’université de Harvard, permettent de mesurer les résultats d’une IA en santé et sa valeur ajoutée auprès du patient.

Les pistes ouvertes par une telle réflexion invitent à penser le futur de l’IA. Les augmentations cognitives et fonctionnelles promises doivent être de véritables augmentations responsables. Elles ne doivent pas se faire au prix d’une aliénation de l’individu et de la société. Si l’IA est une machine à augmentation, alors l’IA humaniste est une machine à augmentation responsable.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *