Surabondance de publications sur les réseaux sociaux, la division politique est un défi pour les modérateurs de contenu

Surabondance de publications sur les réseaux sociaux, la division politique est un défi pour les modérateurs de contenu

TORONTO-

Leigh Adams a vu une augmentation constante du matériel à examiner depuis qu’elle a commencé à modérer les commentaires des utilisateurs sur les sites Web il y a environ 14 ans, mais elle dit que le volume n’a explosé qu’au cours des dernières années, car la nature du contenu est devenue si source de division qu’il n’y a qu’un seul mot pour cela : “Les fous.”

La désinformation, la pêche à la traîne et pire ont toujours existé en ligne, mais Adams dit qu’elle a vu un changement après que les États-Unis ont élu le président Donald Trump en 2016 qui a atteint un nouveau sommet lorsque George Floyd, un homme noir à Minneapolis, a été tué en garde à vue en mai 2020, alimentant les tensions raciales au moment même où le monde était confiné en raison de la pandémie de COVID-19.

“C’était vraiment la tempête parfaite… Internet se débattait déjà à ce moment-là avec ‘Comment concilier anonymat et responsabilité ? Comment s’assurer d’amplifier les voix de ceux qui pourraient ne pas être entendus ?” , directeur des services de modération chez Viafoura, une entreprise torontoise qui examine le contenu des utilisateurs pour les éditeurs.

“Nous n’avions pas résolu cela et nous ne l’avons toujours pas résolu, mais vous avez ces (événements) en plus, cela n’a fait qu’aggraver la situation.”

Adams a remarqué que Trump était absent du bureau et le retour des activités pré-pandémiques a légèrement étouffé la “rhétorique enflammée” vue par plus de 800 clients de Viafoura, qui comprennent les marques de médias CBC, Postmedia et Sportsnet.

Mais elle s’attend à un “gonflement” futur et d’autres sociétés de modération de contenu disent n’avoir détecté aucun signe significatif de recul de l’assaut. Il est probable que suivre le rythme impliquera de s’attaquer à une série de défis en constante évolution.

Les modérateurs prévoient que la désinformation sur la santé continue de se répandre de manière effrénée, des affiches douteuses devenant encore plus sophistiquées dans leurs tentatives de perturber les plateformes et une multitude de nouvelles réglementations ciblant les méfaits en ligne au Canada et à l’étranger.

“Je ne vois pas la demande diminuer de si tôt, malgré tous les discours sur la récession”, a déclaré Siobhan Hanna, directrice générale de Telus International et vice-présidente mondiale de l’intelligence artificielle.

Lire aussi  21 Américains infectés par le monkeypox, rapporte le CDC

“Pour le meilleur ou pour le pire, ce besoin de modération de contenu continuera de croître, mais il faudra des solutions plus intelligentes, efficaces, réfléchies, représentatives et atténuant les risques pour gérer la demande accrue.”

Hanna dit que la vidéo devient l’un des domaines les plus difficiles parce que les modérateurs ne se contentent plus de revoir des clips illustrant la violence, l’indécence ou d’autres préjudices qui peuvent être difficiles à regarder.

Maintenant, il y a aussi ce qu’on appelle des contrefaçons profondes – des vidéos où le visage ou le corps de quelqu’un a été épissé numériquement dans le cadre afin qu’il semble faire ou dire des choses qu’il n’a jamais faites.

La technologie a fait son apparition sur TikTok, lorsque l’artiste d’effets visuels Chris Ume a diffusé des clips prétendant être l’acteur Tom Cruise jouant des tours de cartes, mangeant une sucette remplie de gomme et interprétant la chanson de Dave Matthews Band “Crash Into Me”.

“Je ne pense pas que quiconque va être blessé par … les vidéos qu’il crée, mais cela nous habitue également tous à ces contrefaçons profondes et détourne peut-être notre attention des applications les plus sinistres, où cela pourrait affecter le cours de une élection, ou cela pourrait affecter les résultats des soins de santé ou les décisions prises concernant les crimes », a déclaré Hanna.

En Irlande par exemple, des vidéos censées montrer les candidates politiques Diane Forsythe et Cara Hunter commettant des actes sexuels ont été diffusées alors qu’elles se présentaient aux élections plus tôt cette année.

“Je ne cesse d’être surpris”, a déclaré Adams. “Vous voyez la pire chose et puis quelque chose d’autre arrive, vous pensez, ‘qu’est-ce qui pourrait arriver ensuite?”‘

Son équipe a récemment trouvé une photo qui semblait être un coucher de soleil à première vue, mais 17 couches en arrière, montrait une femme nue.

“Si nous n’avions pas eu cinq personnes qui regardaient cela, cela aurait été en direct et là-haut”, a-t-elle déclaré.

“Cela devient de plus en plus sophistiqué et vous devez donc trouver de nouveaux outils d’intelligence artificielle (IA) qui vont continuer à creuser plus profondément.”

Lire aussi  Southern Water condamné à une amende record de 90 millions de livres sterling pour avoir délibérément déversé des eaux usées dans la mer | la pollution

La plupart des entreprises s’appuient sur un mélange de modérateurs humains et de systèmes basés sur l’IA pour examiner le contenu, mais beaucoup comme Google ont concédé que les systèmes basés sur des machines “ne sont pas toujours aussi précis ou granulaires dans leur analyse du contenu que les examinateurs humains”.

Adams voit les folies de l’IA lorsque les gens inventent et popularisent de nouveaux termes – “seggs” au lieu de sexe, “non vivant” au lieu de mort et “ne pas voir” au lieu de “nazi” – pour éviter d’être signalés par les modérateurs, les filtres de sécurité et controle parental.

“Pendant le temps qu’il faudra aux machines pour apprendre cela, ce cycle de nouvelles est terminé et nous passons à autre chose car ils ont trouvé une nouvelle façon de le dire”, a déclaré Adams.

Mais les humains ne sont pas non plus parfaits et ne peuvent souvent pas suivre seuls les volumes de contenu.

Two Hat, une société de modération de Kelowna, en Colombie-Britannique, utilisée par les marques de jeux Nintendo Switch et Rovio et détenue par Microsoft, est passée du traitement de 30 milliards de commentaires et de conversations un mois avant la crise sanitaire à 90 milliards en avril 2020. Microsoft Canada n’a pas fourni de données plus récentes. chiffres, la porte-parole Lisa Gibson affirmant que la société n’est pas en mesure de discuter des tendances pour le moment.

Facebook, Instagram, Twitter, YouTube et Google ont averti les utilisateurs en 2020 qu’ils mettaient plus de temps à supprimer les publications nuisibles au début de la pandémie et que le personnel se retirait chez lui, où la visualisation de contenu sensible était plus difficile et dans certains cas, interdite pour des raisons de sécurité.

Lorsqu’on lui a demandé si les arriérés avaient été éliminés, Twitter a refusé de commenter et Facebook et Instagram n’ont pas répondu. Google s’est temporairement appuyé sur plus de technologie pour supprimer le contenu violant ses directives au début de la pandémie, ce qui a entraîné une augmentation du nombre total de suppressions de vidéos, a déclaré le porte-parole Zaitoon Murji. La société s’attend à voir une baisse des suppressions de vidéos alors qu’elle réduit cette technologie à mesure que de plus en plus de modérateurs reviennent au bureau, a-t-elle ajouté.

Lire aussi  Examen de la banque d'alimentation magnétique Baseus : une véritable portabilité avec de l'énergie à revendre

Au fur et à mesure que les arriérés se formaient, les pays ont durci leur position sur les contenus préjudiciables.

L’UE a récemment conclu un accord historique exigeant la suppression rapide des contenus préjudiciables en ligne, tandis que le Canada promet de déposer prochainement un projet de loi contre la haine en ligne, après qu’une version précédente ait été mise de côté lors d’élections fédérales.

Adams dit que la convergence de COVID-19, la montée de Trump et le meurtre de Floyd ont rendu les éditeurs plus disposés à prendre position contre les contenus problématiques tels que les discours de haine et la désinformation sur la santé. La législation, qui peut varier d’un pays à l’autre et souvent être laissée à l’interprétation, pourrait amener les entreprises à avoir encore moins de tolérance et à supprimer tout ce qui risque d’être considéré comme problématique, a-t-elle déclaré.

Les enjeux sont importants car laisser trop de contenu problématique sur une plate-forme peut la rendre dangereuse, mais en supprimer trop peut également interférer avec la liberté d’expression, a déclaré Anatoliy Gruzd, professeur de gestion des technologies de l’information à l’Université métropolitaine de Toronto.

“Du côté des utilisateurs, cela peut donner l’impression qu’il n’y a pas assez d’efforts pour faire des plates-formes un endroit accueillant et sûr pour tout le monde, et c’est en partie parce que les plates-formes deviennent si énormes, avec des millions et des milliards d’utilisateurs à la fois”, a-t-il déclaré.

Gruzd ne voit pas l’équilibre entre la sécurité et la liberté devenir plus facile à mesure que le patchwork politique évolue, mais pense que la société évoluera vers la prise en compte des limites et de ce à quoi il est acceptable ou non d’être exposé.

Il a déclaré: “Certaines personnes voteront avec leur utilisation, qu’elles cessent d’utiliser Facebook ou Twitter pour certaines choses, elles pourraient décider d’aller sur d’autres plateformes avec ou sans trop de modération ou elles peuvent décider d’arrêter complètement d’utiliser les médias sociaux.”

Ce rapport de La Presse canadienne a été publié pour la première fois le 22 mai 2022.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick