L’IA LaMDA de Google n’est pas sensible, mais a des préjugés raciaux et sexistes

L’IA LaMDA de Google n’est pas sensible, mais a des préjugés raciaux et sexistes

Bien qu’une IA sensible soit un concept complètement bizarre, ce n’est pas (encore) une réalité. Mais une IA raciste et sexiste ? Malheureusement, bien une réalité.

Dans une récente interview avec Filaire, ingénieur et prêtre chrétien mystique Blake Lemoine a expliqué pourquoi il pense que le grand modèle de langage de Google nommé LaMDA est devenu sensible, doté d’une âme. Bien que cette affirmation ait été réfutée par de nombreux membres de la communauté de l’intelligence artificielle et ait entraîné le placement de Lemoine en congé administratif payé par Google, Lemoine a également expliqué comment il avait commencé à travailler sur LaMDA.

Son voyage avec l’IA a commencé par un problème beaucoup plus réel : examiner le modèle des préjugés préjudiciables liés à l’orientation sexuelle, au genre, à l’identité, à l’ethnicité et à la religion.

“Je ne crois pas qu’il existe une telle chose comme un système impartial”, a déclaré Lemoine à Câblé. “La question était de savoir si oui ou non [LaMDA] avait l’un des préjugés nuisibles que nous voulions éliminer. La réponse courte est oui, j’en ai trouvé plein.”

Lemoine a également expliqué que l’équipe de Google a fait du bon travail en réparant ces “bogues” biaisés, pour autant qu’il puisse en juger. Lorsqu’on lui a demandé si LaMDA avait des tendances racistes ou sexistes, Lemoine a répondu prudemment, déclarant qu’il “n’utiliserait pas ce terme”. Au lieu de cela, il affirme que “la vraie question est de savoir si les stéréotypes qu’il utilise seraient ou non approuvés par les personnes qui [LaMDA is] parler de.”

VOIR ÉGALEMENT:

Amazon a utilisé l’IA pour promouvoir la diversité. Dommage qu’il soit en proie à des préjugés sexistes.

L’hésitation de Lemoine à étiqueter les “bugs” de LaMDA comme carrément racistes ou sexistes met en évidence une bataille en cours au sein de la communauté de l’IA, où beaucoup ont dénoncé les stéréotypes nuisibles que les systèmes d’IA perpétuent souvent. Mais lorsque ceux qui parlent de ces problèmes sont en grande partie des femmes noires – et que ces femmes sont par la suite licenciées d’entreprises comme Google – beaucoup pensent qu’il incombe aux hommes de la technologie comme Lemoine de continuer à attirer l’attention sur les problèmes de biais actuels de l’IA, plutôt que confondre la durée d’attention des chercheurs et du public avec les allégations de sensibilité de l’IA.

Lire aussi  Les avocats peuvent avoir retenu des informations dans le procès de Fox, Dominion

“Je ne veux pas parler de robots sensibles, car à toutes les extrémités du spectre, il y a des humains qui font du mal à d’autres humains, et c’est là que j’aimerais que la conversation se concentre”, a déclaré Timnit, ancien co-chef de l’équipe Google Ethical AI. Gebru à Filaire.

L’intelligence artificielle est confrontée à une longue histoire de stéréotypes nuisibles, et Google n’est pas nouveau ou inconscient de ces problèmes.

En 2015, Jacky Alciné a tweeté à propos de Google Photos étiquetant 80 photos d’un homme noir sur un album intitulé “gorilles”. Google Photos a appris à le faire en utilisant un réseau de neurones, qui a analysé d’énormes ensembles de données afin de catégoriser des sujets comme les personnes et les gorilles – clairement, de manière incorrecte.

Il incombait aux ingénieurs de Google de s’assurer que les données utilisées pour former son photosystème IA étaient correctes et diversifiées. Et en cas d’échec, il leur incombait de rectifier le problème. Selon le New York Timesla réponse de Google a été d’éliminer “gorille” en tant que catégorie photo, plutôt que de recycler son réseau de neurones.

Des entreprises comme Microsoft, IBM et Amazon sont également confrontées aux mêmes problèmes d’IA biaisés. Dans chacune de ces entreprises, l’IA utilisée pour alimenter la technologie de reconnaissance faciale rencontre des taux d’erreur significativement plus élevés lors de l’identification du sexe des femmes à la peau plus foncée que par rapport à l’identification du sexe de la peau plus claire, comme l’a rapporté le Fois.

En 2020, Gebru a publié un article avec six autres chercheurs, dont quatre travaillaient également chez Google, critiquant les grands modèles de langage comme LaMDA et leur propension à répéter les mots en fonction des ensembles de données dont ils apprennent. Si ces ensembles de données contiennent un langage biaisé et/ou des stéréotypes racistes ou sexistes, alors les IA comme LaMDA répéteraient ces biais lors de la génération du langage. Gebru a également critiqué les modèles de langage de formation avec des ensembles de données de plus en plus volumineux, permettant à l’IA d’apprendre à imiter encore mieux le langage et à convaincre le public de progrès et de sensibilité, comme Lemoine est tombé dans.

Après une dispute sur ce papier, Gebru dit que Google l’a licenciée en décembre 2020 (la société maintient qu’elle a démissionné). Quelques mois plus tard, Google a également licencié le Dr Margaret Mitchell, fondatrice de l’équipe d’IA éthique, co-auteur de l’article et défenseur de Gebru.

Malgré un engagement supposé en faveur d’une “IA responsable”, Google est toujours confronté à des problèmes d’IA éthique, ne laissant pas de temps pour les revendications d’IA sensible

Après le drame et a admis avoir porté atteinte à sa réputation, Google a promis de doubler son personnel de recherche responsable en IA à 200 personnes. Et selon Recoder, le PDG Sundar Pichai a promis son soutien pour financer des projets d’IA plus éthiques. Et pourtant, le petit groupe de personnes qui font encore partie de l’équipe d’IA éthique de Google pense que l’entreprise pourrait ne plus écouter les idées du groupe.

Lire aussi  Le mari de la présidente de la Chambre Pelosi a été réservé pour suspicion de conduite avec facultés affaiblies

Après le départ de Gebru et Mitchell en 2021, deux autres membres éminents de l’équipe d’IA éthique sont partis un an plus tard. Alex Hanna et Dylan Baker ont quitté Google pour travailler pour l’institut de recherche de Gebru, DAIR, ou Distributed Artificial Intelligence Research. L’équipe déjà petite est devenue encore plus petite et explique peut-être pourquoi Lemoine, qui ne fait pas partie de l’équipe d’IA éthique, a été invitée à intervenir et à rechercher les préjugés de LaMDA en premier lieu.

Alors que de plus en plus de fonctions sociétales se tournent vers les systèmes d’IA dans leur progression, il est plus important que jamais de continuer à examiner comment les fondements de l’IA affectent ses fonctions. Dans une société déjà souvent raciste et sexiste, nous ne pouvons pas nous permettre que nos systèmes de police, nos moyens de transport, nos services de traduction, etc., reposent sur une technologie qui intègre le racisme et le sexisme dans ses fondements. Et, comme le souligne Gebru, lorsque (principalement) les hommes blancs dans la technologie choisissent de se concentrer sur des questions telles que la sensibilité de l’IA plutôt que sur ces préjugés existants – en particulier lorsque c’était leur objectif initial, comme l’implication de Lemoine avec LaMDA – les préjugés continueront à proliférer, caché sous le tapage de la sensibilité robotique.

“Il existe un écart assez important entre le récit actuel de l’IA et ce qu’elle peut réellement faire”, a déclaré Giada Pistilli, éthicienne chez Hugging Face, à Filaire. “Ce récit provoque simultanément la peur, l’étonnement et l’excitation, mais il est principalement basé sur des mensonges pour vendre des produits et profiter du battage médiatique.”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick