Google crée l’IA avec le même niveau de précision et de biais que les médecins | Actualités scientifiques et techniques

Google crée l’IA avec le même niveau de précision et de biais que les médecins |  Actualités scientifiques et techniques

L’intelligence artificielle produit de la désinformation lorsqu’on lui demande de répondre à des questions médicales, mais il est possible de l’affiner pour aider les médecins, selon une nouvelle étude.

Des chercheurs de Google testé les performances d’un grand modèle de langage, similaire à celui qui alimente ChatGPTsur ses réponses aux sondages à choix multiples et aux questions médicales fréquemment posées.

Ils ont découvert que le modèle incorporait des biais sur les patients qui pourraient exacerber les disparités en matière de santé et produire des réponses inexactes aux questions médicales.

Cependant, une version du modèle développée par Google pour se spécialiser en médecine a supprimé certains de ces effets négatifs et enregistré un niveau de précision et de biais plus proche d’un groupe de médecins suivis.

Les chercheurs croient que intelligence artificielle pourraient être utilisés pour accroître la capacité de la médecine en aidant les cliniciens à prendre des décisions et à accéder plus rapidement aux informations, mais il faut plus de développement avant de pouvoir les utiliser efficacement.

Veuillez utiliser le navigateur Chrome pour un lecteur vidéo plus accessible

Comment Sky News a créé un journaliste IA

Un panel de cliniciens a jugé que seulement 61,9 % des réponses fournies par le modèle non spécialisé étaient conformes au consensus scientifique, contre 92,6 % des réponses produites par le modèle centré sur la médecine.

Ce dernier résultat est conforme aux 92,9 % de réponses rapportées par les cliniciens.

Le modèle non spécialisé était beaucoup plus susceptible de produire des réponses jugées potentiellement susceptibles d’entraîner des résultats néfastes à 29,7 %, contre 5,8 % pour le modèle spécialisé et 6,5 % pour les réponses générées par les cliniciens.

Lire aussi  Le réseau ferroviaire britannique frappé par une nouvelle grève pour un différend salarial

En savoir plus
La Chine risque de prendre encore plus de retard sur les États-Unis dans la course à l’IA avec une réglementation “lourde”
Tony Blair : l’impact de l’IA à égalité avec la révolution industrielle

Les grands modèles de langage sont généralement formés sur des textes Internet, des livres, des articles, des sites Web et d’autres sources pour développer une large compréhension du langage humain.

James Davenport, professeur de technologie de l’information à l’Université de Bath, a déclaré que “l’éléphant dans la pièce” est la différence entre répondre à des questions médicales et pratiquer la médecine.

Cliquez pour vous abonner au Sky News Daily partout où vous obtenez vos podcasts

“Pratiquer la médecine ne consiste pas à répondre à des questions médicales – s’il s’agissait uniquement de questions médicales, nous n’aurions pas besoin d’hôpitaux universitaires et les médecins n’auraient pas besoin d’années de formation après leurs études universitaires”, a-t-il déclaré.

Lire aussi  Coincé dans un travail mal payé ? Vous êtes également plus susceptible de devenir trop malade pour travailler | Torsten-Bell

Anthony Cohn, professeur de raisonnement automatisé à l’Université de Leeds, a déclaré qu’il y aura toujours un risque que les modèles produisent de fausses informations en raison de leur nature statistique.

Veuillez utiliser le navigateur Chrome pour un lecteur vidéo plus accessible

Programme spécial : Avenir de l’IA

“Ainsi [large language models] doivent toujours être considérés comme des assistants plutôt que comme des décideurs finaux, en particulier dans des domaines critiques tels que la médecine ; en effet, les considérations éthiques rendent cela particulièrement vrai en médecine où la question de la responsabilité légale est toujours présente », a-t-il déclaré.

Le professeur Cohn a ajouté : « Un autre problème est que les meilleures pratiques médicales changent constamment et la question de savoir comment [large language models] peuvent être adaptés pour prendre en compte ces nouvelles connaissances reste un problème difficile, en particulier lorsqu’ils nécessitent d’énormes quantités de temps et d’argent pour se former.”

#Google #crée #lIA #avec #même #niveau #précision #biais #les #médecins #Actualités #scientifiques #techniques
2023-07-12 15:06:00

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick