Les oncologues expriment leurs préoccupations éthiques concernant l’IA dans les soins contre le cancer

Les oncologues expriment leurs préoccupations éthiques concernant l’IA dans les soins contre le cancer

LIGNE SUPÉRIEURE :

Une enquête récente a mis en lumière les préoccupations éthiques des oncologues américains concernant l’utilisation de l’intelligence artificielle (IA) pour aider à prendre des décisions en matière de traitement du cancer et a révélé des points de vue contradictoires sur la meilleure façon d’intégrer ces outils dans la pratique. La plupart des personnes interrogées, par exemple, ont déclaré que les patients ne devraient pas être censés comprendre le fonctionnement des outils d’IA, mais beaucoup ont également estimé que les patients pouvaient prendre des décisions de traitement basées sur les recommandations générées par l’IA. La plupart des oncologues se sentaient également responsables de la protection des patients contre une IA biaisée, mais rares étaient ceux qui étaient convaincus de pouvoir le faire.

MÉTHODOLOGIE:

  • La Food and Drug Administration des États-Unis a approuvé des centaines d’outils d’IA pour une utilisation dans diverses spécialités médicales au cours des dernières décennies, et de plus en plus, les outils d’IA sont intégrés dans les soins contre le cancer.
  • Cependant, l’adoption de ces outils en oncologie a soulevé des questions et des préoccupations éthiques, notamment des problèmes liés aux biais, aux erreurs ou à l’utilisation abusive de l’IA, ainsi que des problèmes expliquant comment un modèle d’IA est parvenu à un résultat.
  • Dans la présente étude, les chercheurs ont demandé à 204 oncologues de 37 États leur point de vue sur les implications éthiques de l’utilisation de l’IA pour les soins contre le cancer.
  • Parmi les répondants à l’enquête, 64 % étaient des hommes et 63 % étaient des Blancs non hispaniques ; 29 % provenaient de cabinets universitaires, 47 % avaient reçu une formation sur l’utilisation de l’IA dans les soins de santé et 45 % connaissaient les modèles de décision clinique.
  • Les chercheurs ont évalué les réponses des répondants à diverses questions, notamment s’il fallait fournir un consentement éclairé pour l’utilisation de l’IA et comment les oncologues aborderaient un scénario dans lequel le modèle d’IA et l’oncologue recommanderaient un schéma thérapeutique différent.
Lire aussi  "Moment révolutionnaire" : comment Lorraine Kelly a contribué à faire évoluer le débat sur la ménopause | Ménopause

EMPORTER:

  • Dans l’ensemble, 81 % des oncologues étaient favorables au consentement du patient pour utiliser un modèle d’IA lors des décisions de traitement, et 85 % estimaient que les oncologues devaient être en mesure d’expliquer un modèle de décision clinique basé sur l’IA pour l’utiliser en clinique ; cependant, seulement 23 % pensaient que les patients devaient également être capables d’expliquer un modèle d’IA.
  • Lorsqu’un modèle de décision d’IA recommandait un schéma thérapeutique différent de celui de l’oncologue traitant, la réponse la plus courante (36,8 %) était de présenter les deux options au patient et de le laisser décider. Les oncologues des milieux universitaires étaient environ 2,5 fois plus susceptibles que ceux des autres milieux de laisser le patient décider. Environ 34 % des personnes interrogées ont déclaré qu’elles présenteraient les deux options mais recommanderaient le régime de l’oncologue, tandis qu’environ 22 % ont déclaré qu’elles présenteraient les deux mais recommanderaient le régime de l’IA. Un petit pourcentage présenterait uniquement le régime de l’oncologue (5 %) ou celui de l’IA (environ 2,5 %).
  • Environ trois répondants sur quatre (76,5 %) étaient d’accord sur le fait que les oncologues devraient protéger les patients contre les outils d’IA biaisés ; cependant, seulement un sur quatre environ (27,9 %) se sentait sûr de pouvoir identifier les modèles d’IA biaisés.
  • La plupart des oncologues (91 %) estiment que les développeurs d’IA sont responsables des problèmes médico-légaux associés à l’utilisation de l’IA ; moins de la moitié (47 %) ont déclaré que les oncologues ou les hôpitaux (43 %) partageaient cette responsabilité.

EN PRATIQUE:

« Ensemble, ces données caractérisent les obstacles qui peuvent entraver l’adoption éthique de l’IA dans les soins contre le cancer. Les résultats suggèrent que la mise en œuvre de l’IA en oncologie doit inclure des évaluations rigoureuses de son effet sur les décisions en matière de soins, ainsi que la responsabilité décisionnelle en cas de problèmes liés à l’IA. l’usage survient”, ont conclu les auteurs.

Lire aussi  Nouvelle norme de soins pour le cancer colorectal métastatique réfractaire

SOURCE:

L’étude, menée avec le premier auteur Andrew Hantel, MD, du Dana-Farber Cancer Institute de Boston, a été publié le mois dernier à Réseau JAMA ouvert.

LIMITES:

L’étude avait une taille d’échantillon et un taux de réponse modérés, bien que les données démographiques des oncologues participants semblent être représentatives à l’échelle nationale. La conception de l’étude transversale a limité la généralisabilité des résultats au fil du temps, à mesure que l’IA est intégrée aux soins contre le cancer.

DIVULGATIONS :

L’étude a été financée par le National Cancer Institute, le Dana-Farber McGraw/Patterson Research Fund et le Mark Foundation Emerging Leader Award. Hantel a déclaré avoir reçu des honoraires personnels d’AbbVie, d’AstraZeneca, du Journal américain des soins gérésGenentech et GSK.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick