L'IA responsable en médecine : Assurer la validation clinique et la mise en œuvre éthique
"Nous devons commencer à réfléchir à la manière de mesurer la précision, non seulement de l'IA, mais aussi de l'IA et de l'utilisateur final.
Les progrès rapides des technologies d'intelligence artificielle (IA) ont suscité à la fois enthousiasme et inquiétude dans le domaine de la médecine. D'une part, ces puissants algorithmes ont un immense potentiel pour révolutionner les soins de santé, de l'accélération des diagnostics à l'optimisation des plans de traitement. Cependant, l'intégration de l'IA dans la pratique médicale réelle pose également des défis importants qui doivent être relevés avec soin.
Alors que des centaines de dispositifs médicaux alimentés par l'IA ont reçu une approbation réglementaire ces dernières années, des appels de plus en plus nombreux se font entendre en faveur d'une validation clinique plus rigoureuse pour s'assurer que ces outils profitent réellement aux patients. Un déploiement aléatoire de l'IA pourrait non seulement ne pas améliorer les résultats, mais aussi, dans le pire des cas, nuire aux patients. Le développement et la mise en œuvre responsables de l'IA médicale requièrent une approche à multiples facettes, abordant des questions complexes relatives aux essais cliniques, aux biais algorithmiques, à l'interaction entre l'homme et l'IA et au consentement du patient.
Les dangers d'un déploiement précipité
L'histoire de Devin Singh, un résident en pédiatrie qui a été témoin d'un cas tragique d'arrêt cardiaque au service des urgences, met en évidence le besoin urgent d'une évaluation approfondie des systèmes d'IA avant leur utilisation clinique. Dévasté par la mort de l'enfant, Devin Singh a été contraint de mettre à profit sa double expertise en pédiatrie et en informatique pour étudier comment l'IA pouvait contribuer à réduire les temps d'attente et à accélérer les soins. Grâce à ses recherches, M. Singh et ses collègues ont mis au point une série de modèles d'IA capables de fournir des diagnostics rapides et de recommander les tests appropriés pour les patients pédiatriques.
Si l'analyse rétrospective des données a montré des résultats prometteurs, avec la possibilité d'accélérer les soins pour plus de 20 % des visites aux urgences, il ne s'agit que de la première étape de la vérification de l'impact réel d'une telle intervention de l'IA. Tester correctement l'IA médicale est un processus complexe, en plusieurs phases, qui va bien au-delà des performances algorithmiques initiales.
Malheureusement, le paysage actuel présente des lacunes importantes en matière de validation clinique. Une étude récente a révélé que seuls 65 essais contrôlés randomisés portant sur des interventions d'IA ont été publiés entre 2020 et 2022 - un nombre dérisoire par rapport aux centaines de dispositifs médicaux alimentés par l'IA dont l'utilisation a été approuvée par des organismes de réglementation tels que la Food and Drug Administration (FDA) des États-Unis.
Le cardiologue David Ouyang, du Cedars-Sinai Medical Center de Los Angeles, ne mâche pas ses mots : "Les organismes de soins de santé voient de nombreux dispositifs approuvés qui n'ont pas été validés sur le plan clinique. Cette absence de tests rigoureux signifie que les hôpitaux et les cliniques sont souvent amenés à prendre des décisions très importantes concernant l'adoption de ces technologies, avec peu de preuves de leur impact dans le monde réel.
Les structures incitatives du marché de l'IA médicale peuvent exacerber ce problème. Aux États-Unis, les programmes d'assurance maladie remboursent déjà les hôpitaux pour l'utilisation de certains dispositifs d'IA, ce qui crée une motivation financière pour adopter ces outils même si leurs avantages pour les soins aux patients n'ont pas été prouvés. Selon M. Ouyang, cela pourrait décourager les entreprises d'investir dans le processus coûteux et chronophage des essais cliniques, car l'obtention d'une autorisation de remboursement pourrait être une priorité plus importante que la démonstration d'une amélioration des résultats en matière de santé.
La situation peut être différente dans les systèmes de soins de santé bénéficiant d'un financement gouvernemental centralisé, où la barre des preuves est plus élevée avant que les technologies puissent être acquises. Mais dans l'ensemble, l'environnement réglementaire actuel semble avoir placé la barre trop bas, les dispositifs présentant des risques potentiels élevés pour les patients ne nécessitant souvent que des données cliniques limitées pour être approuvés.
Prise en compte des facteurs humains
Même lorsqu'un système d'IA a démontré des résultats prometteurs dans une étude contrôlée, ses performances dans le monde réel peuvent être fortement influencées par la façon dont les professionnels de la santé interagissent avec la technologie et y réagissent. Ce facteur "humain dans la boucle" est une considération cruciale qui est souvent négligée.
L'expérience du centre médical universitaire d'Amsterdam en est un excellent exemple. Des chercheurs y ont mené un essai randomisé pour tester un algorithme développé par Edwards Lifesciences qui pouvait prédire l'apparition d'une pression artérielle basse pendant une opération, une condition dangereuse connue sous le nom d'hypotension peropératoire. L'essai initial a montré que l'algorithme, associé à un protocole de traitement clair, était efficace pour réduire la durée des épisodes d'hypotension.
Cependant, un essai ultérieur mené par une autre institution n'a pas réussi à reproduire ces avantages. La principale différence ? Dans le premier essai réussi, les chercheurs avaient soigneusement préparé les anesthésistes à réagir aux alertes de l'algorithme. Mais dans le second essai, "les médecins de chevet n'ont pas respecté les consignes pour faire quelque chose lorsque l'alarme se déclenchait", comme l'explique l'anesthésiste Denise Veelo.
Ce facteur humain est crucial. Un algorithme d'IA parfaitement bon échouera si les prestataires de soins de santé qui l'utilisent choisissent d'ignorer ou de mal interpréter ses recommandations. Des facteurs tels que la "fatigue de l'alerte", où les cliniciens deviennent désensibilisés à un volume élevé d'avertissements générés par l'IA, peuvent également compromettre le potentiel de la technologie.
Il est essentiel de combler le fossé entre les développeurs d'IA et les utilisateurs finaux. Comme l'a constaté Barbara Barry, chercheuse à la Mayo Clinic, lors de l'essai d'un algorithme de détection des troubles cardiaques, les prestataires de soins de santé souhaitaient davantage de conseils sur la manière de communiquer efficacement les résultats de l'outil aux patients. L'intégration de ces idées de conception centrées sur l'utilisateur est essentielle pour garantir une intégration harmonieuse de l'IA dans les flux de travail cliniques.
Au-delà des cliniciens, le rôle du patient doit également être pris en compte. De nombreuses applications médicales actuelles d'IA opèrent en coulisses, aidant les prestataires dans le dépistage, le diagnostic et la planification du traitement. Mais comme l'illustre le projet du service des urgences pédiatriques de Singh, il existe une classe croissante d'outils d'IA qui visent à responsabiliser directement les patients, en automatisant certains processus de prise de décision.
Dans ce cas, le système d'IA prendrait les données de triage, ferait une prédiction et demanderait ensuite l'approbation directe du parent ou du soignant pour procéder au test - ce qui aurait pour effet d'éliminer le clinicien de la boucle. Cela soulève des questions éthiques et réglementaires sans précédent concernant le consentement du patient, la responsabilité et l'obligation de rendre des comptes. Comment pouvons-nous garantir un consentement véritablement éclairé et authentique de la part des familles dans de tels scénarios automatisés ? Quelles sont les implications juridiques en cas de problème ?
Il s'agit là de terres inconnues, et l'équipe de M. Singh s'associe à des experts juridiques et à des régulateurs pour y naviguer. Mais plus généralement, la communauté de l'IA médicale doit faire face à l'évolution du rôle du patient en tant que source de données et utilisateur final de ces technologies. Une communication transparente, des processus de consentement significatifs et de solides cadres de gouvernance des données seront essentiels.
Lutte contre les biais algorithmiques
Un autre défi majeur dans le test et le déploiement de l'IA médicale est de s'assurer que ces outils fonctionnent de manière équitable parmi les diverses populations de patients. Le biais algorithmique, lorsqu'un système d'IA présente des résultats biaisés ou discriminatoires en fonction de facteurs tels que la race, le sexe ou le statut socio-économique, est un problème bien documenté dans le domaine des soins de santé.
Les populations d'essais cliniques ne sont souvent pas représentatives des populations de patients plus larges auxquelles ces technologies s'adresseront. Comme le fait remarquer Xiaoxuan Liu, chercheur clinicien à l'université de Birmingham au Royaume-Uni, "on sait simplement que les algorithmes d'IA sont très fragiles lorsqu'ils sont utilisés sur des données différentes de celles sur lesquelles ils ont été formés : "C'est un fait avéré que les algorithmes d'IA sont très fragiles lorsqu'ils sont utilisés sur des données différentes de celles sur lesquelles ils ont été formés."
L'exemple de l'algorithme de Google Health pour la détection de la rétinopathie diabétique illustre ce risque. Alors que l'outil a fait preuve d'une grande précision lors des tests menés à Palo Alto, en Californie, siège de l'entreprise, ses performances ont chuté de manière significative lorsqu'il a été déployé dans des cliniques en Thaïlande. Une étude d'observation a révélé que les différences de conditions d'éclairage et de qualité d'image en Thaïlande réduisaient l'efficacité de l'algorithme.
Ces cas soulignent la nécessité d'évaluer les systèmes d'IA médicale non seulement dans des contextes de recherche idéalisés, mais aussi dans l'ensemble des environnements cliniques du monde réel et des populations de patients où ils seront utilisés. Des tests rigoureux de partialité doivent être au cœur du processus de validation clinique, afin de garantir que ces technologies n'exacerbent pas les disparités existantes en matière de soins de santé.
Renforcer les capacités de validation locale
Compte tenu des défis multiples que pose l'évaluation de l'IA médicale, la question se pose de savoir qui doit être responsable de ce travail crucial. Certains estiment que chaque établissement de santé devrait procéder à ses propres évaluations avant d'adopter des outils d'IA. Mais comme le souligne Shauna Overgaard, spécialiste de l'IA, cela représente une charge importante, en particulier pour les petits organismes de santé.
Pour remédier à cette situation, des efforts de collaboration se font jour pour créer des approches plus centralisées et normalisées de la validation de l'IA médicale. La Coalition for Health AI, qui comprend des représentants de l'industrie, du monde universitaire et de groupes de patients, a proposé la création d'un réseau de "laboratoires d'assurance de l'IA médicale" qui pourraient évaluer les modèles à l'aide d'un ensemble de principes convenus.
Par ailleurs, le Health AI Partnership, financé par la Gordon and Betty Moore Foundation, vise à mettre en place une assistance technique et des capacités de validation locales au sein de toute organisation de soins de santé souhaitant tester des modèles d'IA par ses propres moyens. Comme l'explique Mark Sendak, spécialiste des données cliniques à l'université Duke, "chaque établissement doit disposer de ses propres capacités et infrastructures internes pour effectuer ces tests".
Nina Kottler, de Radiology Partners, reconnaît que la validation locale est cruciale, mais elle souligne également l'importance d'éduquer les utilisateurs finaux, c'est-à-dire les cliniciens qui utiliseront ces outils d'IA dans la pratique. "Il n'y a pratiquement pas d'IA autonome dans le domaine des soins de santé", fait-elle remarquer. "Nous devons commencer à réfléchir à la manière de nous assurer que nous mesurons la précision, non seulement de l'IA, mais aussi de l'IA et de l'utilisateur final.
Vers un avenir d'IA médicale responsable
La prolifération rapide des dispositifs médicaux alimentés par l'IA a dépassé le développement de cadres solides pour leur validation clinique et leur mise en œuvre éthique. En conséquence, les organismes de soins de santé sont souvent laissés à eux-mêmes pour naviguer dans ces eaux inexplorées, avec des conseils et un soutien limités.
Cependant, la communauté de l'IA médicale s'accorde de plus en plus sur la nécessité d'une approche plus rigoureuse, plus collaborative et plus centrée sur le patient. Les principales priorités sont les suivantes :
1. Renforcer les exigences en matière de validation clinique : Les organismes de réglementation doivent placer la barre plus haut en ce qui concerne les preuves de l'impact sur le monde réel, en allant au-delà de la simple performance algorithmique pour évaluer les résultats cliniques, la sécurité et l'équité au sein de diverses populations.
2. Favoriser la collaboration entre les différentes parties prenantes : L'industrie, les universités, les prestataires de soins de santé et les défenseurs des patients doivent travailler ensemble pour établir des principes et des processus normalisés pour les essais et le déploiement de l'IA médicale.
3. Renforcer les capacités de validation locales : Les organismes de santé, quelle que soit leur taille, ont besoin des ressources techniques et de l'expertise nécessaires pour évaluer de manière approfondie les outils d'IA dans leurs propres environnements cliniques et flux de travail.
4. Centrer l'élément humain : Les interactions entre les systèmes d'IA et les professionnels de la santé, ainsi que les patients et leurs familles, doivent être soigneusement conçues et étudiées pour garantir une intégration harmonieuse et la confiance.
5. Prendre en compte les considérations éthiques : Les questions relatives au consentement du patient, à la gouvernance des données, aux biais algorithmiques et à la responsabilité doivent être abordées de manière proactive afin de garantir que l'IA médicale est mise en œuvre de manière éthique et équitable.
En adoptant cette approche multidimensionnelle du développement et du déploiement responsables de l'IA, la communauté médicale peut exploiter le pouvoir de transformation de ces technologies tout en atténuant les risques. Les enjeux sont importants, car la vie et le bien-être des patients sont en jeu. Mais avec de la diligence, de la collaboration et un engagement ferme en faveur de la validation clinique et de la mise en œuvre éthique, la promesse de l'IA en médecine peut être réalisée à son plein potentiel.
Cliquez sur TAGS pour voir les articles connexes :