L’IA a-t-elle besoin de “Nutrition Facts” ?

L’IA a-t-elle besoin de “Nutrition Facts” ?

Un modèle de notice plus long laisserait également de la place pour des informations utiles aux différentes personnes impliquées dans le processus d’approvisionnement, comme les cliniciens, le personnel informatique et autres.

Cela dit, Shah n’est pas encore convaincu qu’une étiquette de style pharmaceutique soit la meilleure approche. C’est juste une idée qu’il veut voir l’industrie de la santé considérer.

Il existe un potentiel de surcharge d’informations, en particulier s’il existe des dizaines de variables qui empêchent les fournisseurs de passer au crible et d’identifier ce dont ils ont réellement besoin.

« Combien de patients et de médecins lisent cette fine notice qui accompagne chaque ordonnance ? » Shah a dit. “C’est bien de rapporter tout ça… mais qu’est-ce qu’on va en faire ?”

Chez Stanford Health Care, Shah a déclaré qu’ils travaillaient à la mise en place d’un environnement de test virtuel, afin que les chercheurs puissent exécuter des algorithmes d’IA sur des données médicales historiques détenues dans le système de santé. De cette façon, l’organisation peut évaluer si l’outil fonctionne comme prévu avec ses patients et avoir une idée de la rentabilité d’un déploiement.

Il s’agit essentiellement d’un scénario “essayez avant d’acheter”, a déclaré Shah à propos du processus, qu’il appelle un déploiement de modèle virtuel.

Le rôle de l’hôpital

Le Dr Atul Butte, scientifique en chef des données à l’Université de Californie à la santé, a déclaré qu’il suggérerait aux hôpitaux de prendre une page de la façon dont ils pensent déjà aux médicaments sur ordonnance.

Aujourd’hui, les hôpitaux disposent généralement d’un groupe, tel qu’un comité de pharmacie et thérapeutique, qui supervise le formulaire pharmaceutique de l’organisation, prenant en charge des tâches telles que les évaluations de l’utilisation des médicaments, la surveillance des événements indésirables liés aux médicaments et les efforts de sécurité des médicaments. Cette approche pourrait également fonctionner pour les algorithmes d’IA.

Lire aussi  Un agresseur antisémite crie "Kanye 2024" dans l'attaque de Central Park, selon la police

Butte a suggéré que les hôpitaux mettent en place un comité axé sur la gérance algorithmique pour superviser l’inventaire des algorithmes d’IA déployés dans l’organisation. Ces comités, composés d’intervenants comme les directeurs de l’information, les directeurs de l’informatique médicale, les médecins spécialistes et le personnel dédié à l’équité en santé, détermineraient s’il convient d’adopter de nouveaux algorithmes et surveilleraient régulièrement les performances des algorithmes.

Tout comme les organismes d’accréditation tels que la Commission mixte exigent des évaluations de l’utilisation des médicaments pour l’accréditation des hôpitaux, un processus similaire pourrait être établi pour évaluer l’utilisation des algorithmes.

“Au lieu d’inventer – ou de réinventer – tout un processus d’examen, pourquoi ne pas emprunter ce que nous faisons déjà ?” Butte dit.

Ce processus de gestion pourrait aller de pair avec une étiquette de type pharmaceutique qui explique les sous-populations sur lesquelles un algorithme a été formé, les résultats des essais cliniques et même les types d’équipements et de logiciels avec lesquels l’outil s’associe bien, par exemple, s’il y a un développeur qui est n’a testé son logiciel d’analyse d’images que sur des radiographies de certains fournisseurs.

“Je peux voir qu’un jour une étiquette compliquée sera nécessaire”, a déclaré Butte. “Il va falloir être sophistiqué.”

Cela fait partie du rôle que les hôpitaux peuvent assumer pour s’assurer que les cliniciens disposent d’outils d’IA de haute qualité qu’ils savent utiliser dans le cadre des soins aux patients.

Les régulateurs, les développeurs d’IA, les comités de gouvernance des hôpitaux et les utilisateurs cliniciens ont tous la responsabilité partagée de surveiller l’IA et de vérifier qu’elle fonctionne comme prévu, a déclaré Suchi Saria, professeur et directeur du Machine Learning and Healthcare Lab de l’Université Johns Hopkins et PDG de Bayesian Health. , une entreprise qui développe une IA d’aide à la décision clinique.

Lire aussi  Comment aider les enfants à se faire et à garder des amis

Les hôpitaux et les fournisseurs d’IA devraient permettre aux cliniciens de signaler lorsqu’une recommandation d’IA est différente de leur jugement afin qu’ils puissent évaluer s’il y a une raison à cela, a-t-elle déclaré.

“Ils ont chacun un rôle à jouer pour s’assurer qu’il y a une surveillance de bout en bout”, a déclaré Saria, notamment en mesurant les performances au fil du temps. “Ce n’est pas sur un seul corps.”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick