Une nouvelle recherche insuffle des principes d’équité dans le processus de développement d’algorithmes – –

Aux États-Unis, le lieu de naissance, le milieu social et économique, les quartiers dans lesquels on passe ses années de formation et où l’on vieillit sont des facteurs qui représentent un quart à 60 % des décès au cours d’une année donnée, en partie parce que ces forces jouent un rôle important dans l’occurrence et les résultats des maladies cardiaques, du cancer, des blessures non intentionnelles, des maladies chroniques des voies respiratoires inférieures et des maladies cérébrovasculaires – les cinq principales causes de décès.

Alors que les données sur ces facteurs « macro » sont essentielles au suivi et à la prévision des résultats pour la santé des individus et des communautés, les analystes qui appliquent des outils d’apprentissage automatique aux résultats en matière de santé ont tendance à s’appuyer sur des données « micro » limitées à des contextes purement cliniques et fondées sur des données de santé et processus à l’intérieur de l’hôpital, laissant des facteurs qui pourraient faire la lumière sur les disparités en matière de soins de santé dans l’obscurité.

Des chercheurs de la NYU Tandon School of Engineering et de la NYU School of Global Public Health (NYU GPH), dans une nouvelle perspective, “Machine learning and algorithmic fairness in public and population health”, dans Nature Machine Intelligence, visent à activer la communauté de l’apprentissage automatique pour prendre en compte les facteurs « macro » et leur impact sur la santé. Pensant en dehors de la « boîte » clinique et au-delà des limites strictes des facteurs individuels, Rumi Chunara, professeur agrégé d’informatique et d’ingénierie à NYU Tandon et de biostatistiques au NYU GPH, a trouvé une nouvelle approche pour incorporer le plus grand réseau de données pertinentes pour modélisation prédictive des résultats de santé individuels et communautaires.

Lire aussi  Le brouillard cérébral et les effets neuropsychologiques varient en durée et en cause

« La recherche sur les causes et la réduction de l’équité montre que pour éviter de créer davantage de disparités, il est essentiel de prendre également en compte les facteurs en amont », a expliqué Chunara. Elle a noté, d’une part, le grand nombre de travaux sur la mise en œuvre de l’IA et de l’apprentissage automatique dans les soins de santé dans des domaines tels que l’analyse d’images, la radiographie et la pathologie, et d’autre part la forte sensibilisation et le plaidoyer axés sur des domaines tels que le racisme structurel, la police la brutalité et les disparités en matière de soins de santé qui sont apparues autour de la pandémie de COVID-19.

« Notre objectif est de tirer parti de ce travail et de l’explosion de l’apprentissage automatique riche en données dans les soins de santé, et de créer une vue holistique au-delà du cadre clinique, en incorporant des données sur les communautés et l’environnement. »

Chunara, ainsi que ses doctorants Vishwali Mhasawade et Yuan Zhao, respectivement à NYU Tandon et NYU GPH, ont tiré parti du modèle écologique social, un cadre permettant de comprendre comment la santé, les habitudes et le comportement d’un individu sont affectés par des facteurs tels que les politiques publiques. au niveau national et international et la disponibilité des ressources de santé au sein d’une communauté et d’un quartier. L’équipe montre comment les principes de ce modèle peuvent être utilisés dans le développement d’algorithmes pour montrer comment les algorithmes peuvent être conçus et utilisés de manière plus équitable.

Lire aussi  Les facteurs de risque d'athérosclérose peuvent inclure une consommation excessive de boissons sucrées et al

Les chercheurs ont organisé les travaux existants en une taxonomie des types de tâches pour lesquelles l’apprentissage automatique et l’IA sont utilisés qui couvrent la prédiction, les interventions, l’identification des effets et les allocations, pour montrer des exemples de la façon dont une perspective à plusieurs niveaux peut être exploitée. Dans l’article, les auteurs montrent également comment le même cadre est applicable aux considérations de confidentialité des données, de gouvernance et de meilleures pratiques pour déplacer le fardeau des soins de santé des individus vers l’amélioration de l’équité.

À titre d’exemple de telles approches, les membres de la même équipe ont récemment présenté à la conférence AAAI/ACM sur l’intelligence artificielle, l’éthique et la société une nouvelle approche pour utiliser « l’équité causale à plusieurs niveaux », le réseau plus vaste de données pertinentes pour évaluer l’équité de algorithmes. Ce travail s’appuie sur le domaine de « l’équité algorithmique », qui, à ce jour, est limité par son accent exclusif sur les attributs au niveau individuel tels que le sexe et la race.

Dans ce travail, Mhasawade et Chunara ont formalisé une nouvelle approche pour comprendre les relations d’équité en utilisant des outils d’inférence causale, synthétisant un moyen par lequel un enquêteur pourrait évaluer et expliquer les effets des macro-attributs sensibles et pas seulement des facteurs individuels. Ils ont développé l’algorithme pour leur approche et ont fourni les paramètres dans lesquels il est applicable. Ils ont également illustré leur méthode sur des données montrant comment les prédictions basées uniquement sur des points de données associés à des étiquettes telles que la race, le revenu et le sexe ont une valeur limitée si les attributs sensibles ne sont pas pris en compte ou sont pris en compte sans contexte approprié.

Lire aussi  L'interdiction de l'avortement en Arizona est pire que ses origines au 19ème siècle

“Comme dans les soins de santé, l’équité algorithmique a tendance à se concentrer sur les étiquettes – hommes et femmes, Noirs contre blancs, etc. – sans tenir compte des multiples couches d’influence d’un point de vue causal pour décider de ce qui est juste et injuste dans les prédictions”, a déclaré Chunara. . “Notre travail présente un cadre pour réfléchir non seulement à l’équité dans les algorithmes, mais aussi aux types de données que nous utilisons dans ceux-ci.”

.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick