L’intelligence artificielle produit de la désinformation lorsqu’on lui demande de répondre à des questions médicales, mais il est possible de l’affiner pour aider les médecins, selon une nouvelle étude.
Des chercheurs de Google testé les performances d’un grand modèle de langage, similaire à celui qui alimente ChatGPTsur ses réponses aux sondages à choix multiples et aux questions médicales fréquemment posées.
Ils ont découvert que le modèle incorporait des biais sur les patients qui pourraient exacerber les disparités en matière de santé et produire des réponses inexactes aux questions médicales.
Cependant, une version du modèle développée par Google pour se spécialiser en médecine a supprimé certains de ces effets négatifs et enregistré un niveau de précision et de biais plus proche d’un groupe de médecins suivis.
Les chercheurs croient que intelligence artificielle pourraient être utilisés pour accroître la capacité de la médecine en aidant les cliniciens à prendre des décisions et à accéder plus rapidement aux informations, mais il faut plus de développement avant de pouvoir les utiliser efficacement.
Veuillez utiliser le navigateur Chrome pour un lecteur vidéo plus accessible
1:31
Un panel de cliniciens a jugé que seulement 61,9 % des réponses fournies par le modèle non spécialisé étaient conformes au consensus scientifique, contre 92,6 % des réponses produites par le modèle centré sur la médecine.
Ce dernier résultat est conforme aux 92,9 % de réponses rapportées par les cliniciens.
Le modèle non spécialisé était beaucoup plus susceptible de produire des réponses jugées potentiellement susceptibles d’entraîner des résultats néfastes à 29,7 %, contre 5,8 % pour le modèle spécialisé et 6,5 % pour les réponses générées par les cliniciens.
En savoir plus
La Chine risque de prendre encore plus de retard sur les États-Unis dans la course à l’IA avec une réglementation “lourde”
Tony Blair : l’impact de l’IA à égalité avec la révolution industrielle
Les grands modèles de langage sont généralement formés sur des textes Internet, des livres, des articles, des sites Web et d’autres sources pour développer une large compréhension du langage humain.
James Davenport, professeur de technologie de l’information à l’Université de Bath, a déclaré que “l’éléphant dans la pièce” est la différence entre répondre à des questions médicales et pratiquer la médecine.
Ce contenu est fourni par Haut-parleur, qui peuvent utiliser des cookies et d’autres technologies. Pour vous montrer ce contenu, nous avons besoin de votre permission pour utiliser des cookies. Vous pouvez utiliser les boutons ci-dessous pour modifier vos préférences afin d’activer Haut-parleur cookies ou pour autoriser ces cookies une seule fois. Vous pouvez modifier vos paramètres à tout moment via le Options de confidentialité.
Malheureusement, nous n’avons pas été en mesure de vérifier si vous avez consenti à Haut-parleur biscuits. Pour voir ce contenu, vous pouvez utiliser le bouton ci-dessous pour autoriser Haut-parleur cookies pour cette session uniquement.
Cliquez pour vous abonner au Sky News Daily partout où vous obtenez vos podcasts
“Pratiquer la médecine ne consiste pas à répondre à des questions médicales – s’il s’agissait uniquement de questions médicales, nous n’aurions pas besoin d’hôpitaux universitaires et les médecins n’auraient pas besoin d’années de formation après leurs études universitaires”, a-t-il déclaré.
Anthony Cohn, professeur de raisonnement automatisé à l’Université de Leeds, a déclaré qu’il y aura toujours un risque que les modèles produisent de fausses informations en raison de leur nature statistique.
Veuillez utiliser le navigateur Chrome pour un lecteur vidéo plus accessible
49:02
“Ainsi [large language models] doivent toujours être considérés comme des assistants plutôt que comme des décideurs finaux, en particulier dans des domaines critiques tels que la médecine ; en effet, les considérations éthiques rendent cela particulièrement vrai en médecine où la question de la responsabilité légale est toujours présente », a-t-il déclaré.
Le professeur Cohn a ajouté : « Un autre problème est que les meilleures pratiques médicales changent constamment et la question de savoir comment [large language models] peuvent être adaptés pour prendre en compte ces nouvelles connaissances reste un problème difficile, en particulier lorsqu’ils nécessitent d’énormes quantités de temps et d’argent pour se former.”
#Google #crée #lIA #avec #même #niveau #précision #biais #les #médecins #Actualités #scientifiques #techniques
2023-07-12 15:06:00