Partager

Peut-on faire confiance à l’Intelligence Artificielle pour garantir l’égalité d’accès aux soins ?

time to read 4 min de lecture

L’apprentissage autonome des machines, le deep learning, propose une intelligence artificielle de plus en plus performante mais également de plus en plus obscure quant à son fonctionnement. Une opacité parfois anxiogène, en particulier dans le monde de la santé, du fait de la sensibilité des données, des enjeux de prise en charge et de la responsabilité des médecins. Le recours à des machines peut-il garantir une égalité d’accès aux soins ? Comment faire confiance à une technologie que l’on ne comprend pas ? Une réflexion éthique et un encadrement juridique s’imposent.

Intelligence Artificielle : le biais de discrimination est dans les données

On entend souvent parler de biais d’algorithme dans l’intelligence artificielle. En réalité le biais n’est pas lié aux algorithmes mais aux données utilisées pour l’apprentissage des algorithmes. Dans le monde médical, ces biais peuvent conduire à des situations de discrimination. Une première catégorie de discriminations concerne le risque d’exacerbation de certains biais dans les données d’apprentissage d’une intelligence artificielle. En effet, comme dans d’autres domaines, les données de santé sont empreintes de biais de société. Ainsi, une étude a mis en évidence un lien entre la gestion de la douleur par des antalgiques et l’origine ethnique des patients. Des algorithmes entraînés à partir des données utilisées pour cette étude reproduiraient les biais voire les renforceraient. La prise en charge des patients, guidée par une telle intelligence artificielle pourrait être discriminatoire et créer une inégalité d’accès aux soins. 1

Un deuxième biais concerne la représentativité des données d’apprentissage : si un sous-groupe est sous représenté, la prévision le concernant sera de moins bonne qualité. Ce biais concerne particulièrement les bases de données génomiques qui, en 2016, comptaient encore 81 % d’individus d’ascendance blanche européenne. Les patients ne seraient donc pas tous égaux devant une médecine de précision qui personnaliserait les traitements à partir de considérations génétiques. 1 Détecter les différentes sources de biais est donc indispensable pour garantir une égalité de prise en charge. En France, depuis 2019, la Haute Autorité de Santé est chargée d’évaluer les systèmes d’intelligence artificielle intervenant dans les procédures médicales.

Algorithme obscur versus consentement éclairé

Le rôle du médecin ne se cantonne pas à informer le patient du recours à l’intelligence artificielle . Sa déontologie implique de lui fournir une information claire et adaptée, afin de recevoir un consentement éclairé et garantir une relation de confiance, pour une prise en charge médicale vertueuse. Pour cela, le médecin doit comprendre le fonctionnement de la machine, pour avoir confiance en ses capacités et prendre des décisions en connaissance de cause. Une exigence difficile, voire impossible à satisfaire face à une intelligence artificielle qui, gagnant en performance, repose sur des algorithmes de plus en plus complexes. 1

Pour éclairer leurs patients, les professionnels de santé devraient donc être formés à la bonne utilisation de ces outils, informés sur le processus de prise de décision et alertés sur les risques d’erreur de la machine. Les médecins ont toujours eu entre leurs mains des outils comportant des risques, qu’ils ont appris à maîtriser : bistouri, molécules chimiques, rayons X… La responsabilité du médecin ne peut être engagée que s’il reste au centre de la relation de confiance avec le patient, qu’il continue d’assumer une obligation d’information et reste maître de ses choix et de ses décisions. 1

Pour aller plus loin : Intelligence artificielle en santé, une révolution pour votre pratique (replay)

Quel avenir pour la transparence de l’intelligence artificielle dans le monde de la santé ?

Le big data et les progrès de l’algorithmie promettent une intelligence artificielle toujours plus performante, capable de répondre aux enjeux de santé de demain: inégalités d’accès à une consultation sur les territoires, accessibilité des populations aux campagnes de prévention, renoncement d’accès aux urgences…

La compréhension et donc l’adhésion des médecins et des patients à l’intelligence artificielle passent par une transparence dans les données d’apprentissage et dans le processus de prise de décision pour garantir un usage éclairé de la machine. La complexification des structures d’intelligence artificielle accroît la performance mais opacifie le fonctionnement auprès des différents acteurs. L’absence de transparence de ces outils est-elle compatible avec la pratique médicale ? Un cadre juridique et des solutions pratiques doivent être mises en place pour rendre compatible performance et déontologie médicale.

L’intelligence artificielle en santé a fait ses premiers pas législatifs très récemment afin de donner une orientation. Son entrée dans le code de la santé publique date de la révision de la loi relative à la bioéthique en août 2021. Cette loi contraint les concepteurs de dispositifs d’intelligence artificielle à assurer l’explicabilité de leur fonctionnement aux usagers. Quant aux professionnels de santé qui choisissent de les utiliser, ils ont l’obligation d’en informer les patients et, le cas échéant, les avertir de l’interprétation qui en résulte. 2 Bien que ces éléments semblent prendre en compte l’exigence d’une « garantie humaine », en assurant aux professionnels de santé une capacité minimale de maîtrise de ces dispositifs, un long chemin reste à parcourir pour encadrer le fonctionnement de ces machines afin de garantir une égalité d’accès aux soins et de prestation médicale.

Pour aller plus loin : Enjeux éthiques de l’IA (replay)

Définitions

Deep learning : aussi appelé apprentissage profond est un type d’intelligence artificielle dérivé du machine learning (apprentissage automatique) où la machine possède la faculté d’apprendre par soi-même, contrairement à l’exécution d’un programme précis établi.


(1) Philippe Besse, Aurèle Besse-Patin, Céline Castets-Renard. Implications juridiques et éthiques des algorithmes d’intelligence artificielle dans le domaine de la santé. Statistique et Société, Société française de statistique, 2021.
(2) LOI n° 2021-1017 du 2 août 2021 relative à la bioéthique [En ligne]. Disponible sur : https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000043884384. Consulté le 14/01/2022.

Ces contenus peuvent vous intéresser