Photo d’archive du logo Twitter | Crédit photo : REUTERS
Le compte officiel Twitter Safety a partagé mercredi les résultats d’une évaluation indépendante qui a conclu que la portée du contenu toxique sur la plate-forme était inférieure aux propres estimations de Twitter.
Le compte Twitter Safety a déclaré qu’il s’était associé à la plate-forme unifiée de gestion de l’expérience client Sprinklr, qui a utilisé un modèle alimenté par l’IA afin d’analyser chaque tweet en anglais publié publiquement entre janvier et février 2023 tout en étant armé d’une liste de 300 mots insultants en anglais. .
Qu’est-ce qui fait la différence ? Le contexte de la conversation et la façon dont nous déterminons la toxicité.
Sprinklr définit le discours de haine plus étroitement en évaluant les insultes dans le contexte nuancé de leur utilisation. Twitter a, jusqu’à présent, adopté une vision plus large de la toxicité potentielle de l’utilisation des insultes.
– Sécurité Twitter (@TwitterSafety) 21 mars 2023
Environ 5 50 000 tweets contenant au moins un mot de la liste ont été trouvés. L’analyse n’a pas rendu compte des résultats liés aux images ou symboles haineux. Twitter a également souligné que la définition de Sprinklr du discours de haine était plus étroite que la sienne.
“Notre métrique focale est les impressions de discours de haine, pas le nombre de Tweets contenant des insultes. La plupart des insultes ne sont pas des propos haineux, mais quand c’est le cas, nous nous efforçons d’en réduire la portée. L’analyse de Sprinklr a révélé que le discours de haine reçoit 67 % d’impressions en moins par Tweet que les Tweets insultants non toxiques », a déclaré le compte Twitter Safety.
(Pour les dernières nouvelles technologiques du jour, abonnez-vous à notre newsletter technique Today’s Cache)
La nouvelle survient alors que le Washington Post a rapporté lundi les résultats d’une étude distincte qui affirmait que les tweets antisémites avaient plus que doublé sur Twitter dans les mois qui ont suivi la prise de contrôle du PDG Elon Musk.