Sexisme : lorsque les gens disent “personnes” en ligne, ils pensent peut-être surtout aux hommes

Sexisme : lorsque les gens disent « personnes » en ligne, ils pensent peut-être surtout aux hommes

Une analyse de 630 milliards de mots publiés en ligne suggère que les gens ont tendance à penser aux hommes lorsqu’ils utilisent des termes non sexistes, un biais sexiste qui pourrait être appris par les modèles d’IA

La technologie


1 avril 2022

Les mots inclusifs utilisés dans le texte en ligne peuvent toujours être biaisés

Agata Gladykowska/Alay

Lorsque les gens utilisent des mots non sexistes comme «peuple» et «humanité», ils ont tendance à penser aux hommes plutôt qu’aux femmes, reflétant le sexisme présent dans de nombreuses sociétés, selon une analyse de milliards de mots publiée en ligne. Les chercheurs à l’origine des travaux avertissent que ce biais sexiste est transmis à des modèles d’intelligence artificielle qui ont été entraînés sur le même texte.

April Bailey de l’Université de New York et ses collègues ont utilisé un algorithme statistique pour analyser une collection de 630 milliards de mots contenus dans 2,96 milliards de pages Web rassemblées en 2017, y compris des textes informels de blogs et de forums de discussion ainsi que des textes plus formels écrits par les médias, les entreprises et les gouvernements, principalement en anglais. Ils ont utilisé une approche appelée intégration de mots qui dérive le sens voulu d’un mot par la fréquence à laquelle il apparaît dans le contexte avec d’autres mots.

Ils ont constaté que des mots comme « personne », « peuple » et « humanité » sont utilisés dans des contextes qui correspondent mieux au contexte de mots comme « hommes », « il » et « homme » que ceux de mots comme « femmes », « elle ». ” et elle”. L’équipe dit que parce que ces mots inclusifs de genre ont été utilisés de manière plus similaire à ceux qui se réfèrent aux hommes, les gens peuvent les voir comme plus masculins dans leur sens conceptuel – un reflet de la société dominée par les hommes. Ils ont tenu compte du fait que les hommes peuvent être surreprésentés en tant qu’auteurs dans leur ensemble de données et ont constaté que cela n’affectait pas le résultat.

Lire aussi  Influenceurs IA : une aubaine ou un fléau pour le marketing ?

Une question ouverte est de savoir dans quelle mesure cela dépend de l’anglais, explique l’équipe – d’autres langues telles que l’espagnol incluent des informations explicites sur le genre qui pourraient modifier les résultats. L’équipe n’a pas non plus pris en compte les identités de genre non binaires ni fait de distinction entre les aspects biologiques et sociaux du sexe et du genre.

Bailey dit qu’il n’est pas surprenant de trouver des preuves de préjugés sexistes en anglais, car des études antérieures ont montré que des mots comme “scientifique” et “ingénieur” sont également considérés comme plus étroitement liés à des mots comme “homme” et “homme” qu’à “femme”. » et « féminin ». Mais elle dit que cela devrait être préoccupant car la même collection de textes parcourus par cette recherche est utilisée pour former une gamme d’outils d’IA qui hériteront de ce biais, des sites Web de traduction linguistique aux robots conversationnels.

“Il apprend de nous, puis nous en apprenons”, déclare Bailey. « Et nous sommes en quelque sorte dans cette boucle réciproque, où nous le reflétons dans les deux sens. C’est inquiétant parce que cela suggère que si je devais claquer des doigts en ce moment et me débarrasser comme par magie du biais cognitif individuel de chacun pour penser à une personne comme un homme plus qu’une femme, nous aurions toujours ce biais dans notre société parce qu’il est intégré dans les outils d’IA.

Référence de la revue : Avancées scientifiquesDOI : 10.1126 / sciadv.abm2463

En savoir plus sur ces sujets :

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick