Pourquoi un groupe de surveillance Facebook encourage une loi qui pourrait nuire aux journalistes

Le Real Facebook Oversight Board veut la modération du contenu, et il le veut maintenant. Que se passe-t-il lorsque les journalistes sont ciblés ?

Dernière mise à jour le 10 septembre 2021 à 20 h 29 HE

Publié le 10 septembre 2021 à 15 h 42 HE

Samir Hussein / Getty Images pour le business de la mode

Dans l’univers étendu du techlash, le Real Facebook Oversight Board se présente comme les Avengers.

Les membres du groupe, décrit sur son site Internet comme un « ‘Brains Trust’ pour répondre aux menaces critiques posées par le pouvoir incontrôlé de Facebook », ont été convoqués aux quatre coins d’Internet par Carole Cadwalladr, la journaliste britannique militante qui a brisé le Scandale de Cambridge Analytica.

(Le groupe n’est pas affilié à Facebook et a été créé l’année dernière dans une opposition au nom confus à la création par Facebook de son conseil de surveillance officiel, ou, familièrement, « Cour suprême de Facebook. »)

Ils incluent certains des plus grands noms et des voix les plus fortes du mouvement pour tenir les plateformes technologiques responsables de leur influence : des gens comme Shoshana Zuboff, qui a inventé l’idée de « capitalisme de surveillance » ; Roger McNamee, le premier investisseur de Facebook qui a publiquement critiqué l’entreprise ; Yaël Eisenstat, l’ex-officier de la CIA et ancien responsable des opérations d’intégrité électorale pour les publicités politiques sur Facebook ; et Timothy Snyder, l’historien du fascisme de Yale.

C’était donc étrange de voir cette super équipe mercredi cheerleading une décision de la Haute Cour australienne (version du pays de la Cour suprême) qui ne fait rien directement pour contrôler le pouvoir de Facebook tout en nuisant aux intérêts de la presse :

BOOM???????????? Les entreprises de médias en Australie peuvent être tenues responsables des commentaires diffamatoires laissés sur leurs pages de médias sociaux par des membres du public, la Haute Cour du pays a statué https://t.co/5y7UHEfTNv via @Verge


Twitter : @FBoversight

La décision 5-2, rendue plus tôt cette semaine, jette les bases des poursuites en diffamation contre les utilisateurs de Facebook pour les commentaires laissés sur leurs pages. Cela signifie que les agences de presse australiennes – et potentiellement tous les Australiens sur les réseaux sociaux, bien que ce ne soit pas clair pour le moment – ​​pourraient être responsables des commentaires diffamatoires laissés sous leurs publications sur la plate-forme, même s’ils ne sont pas au courant de l’existence du contenu.

Pour éviter des poursuites judiciaires, ces salles de rédaction devront peut-être fermer les commentaires sur leurs pages Facebook ou déplacer des ressources de la collecte d’informations vers le financement de la modération de contenu à grande échelle. C’est à peu près aussi loin que possible du régime juridique permissif des États-Unis pour le contenu Internet – celui que de nombreux critiques de l’influence des médias sociaux détestent. Il s’agit, comme l’a écrit Mike Masnick pour Techdirt, de « l’anti-230 », l’article 230 étant la partie controversée du Communications Decency Act qui, à quelques exceptions près, protège les sites Web contre les poursuites aux États-Unis pour le contenu créé par ses utilisateurs. . « Cela dit que si vous jouez un rôle dans la publication d’informations diffamatoires, vous pouvez être traité comme l’éditeur. »

La décision, quant à elle, ne dit rien sur la responsabilité de Facebook pour l’hébergement de contenu diffamatoire.

Le Real Facebook Oversight Board n’a écrit qu’un mot en réponse à la nouvelle, « BOOM », suivi de trois emojis à la bombe. Mais ce mot est révélateur, non seulement de l’état d’esprit de certains critiques technologiques selon lequel la suppression du contenu indésirable crée intrinsèquement un impact positif, mais aussi de la réalité que les intérêts des journalistes ne sont pas toujours alignés – comme cela a été largement supposé – avec les plus importants. critiques des plateformes.

Dans un communiqué, un porte-parole du Real Facebook Oversight Board a contesté la caractérisation par BuzzFeed News du tweet « BOOM », écrivant : « Nous n’avons fait aucun commentaire sur la loi et n’avons pas pris position à son sujet. La position qui nous est attribuée dans cette colonne est tout simplement fausse. »

« Chaque grande entreprise Internet a maintenant un groupe de haineux qui ne seront jamais satisfaits. »

« Chaque grande entreprise Internet a désormais un groupe de haineux qui ne seront jamais satisfaits », a déclaré Eric Goldman, codirecteur du High Tech Law Institute de la faculté de droit de l’Université de Santa Clara. « Ils sont opposés à tout ce qui pourrait profiter à leur cible. Cela conduit à des situations farfelues.

Une de ces situations farfelues : Fox News et le Wall Street Journal ont passé des années à attaquer l’article 230 pour protéger les plateformes qu’ils prétendent avoir des préjugés contre les conservateurs. Désormais, leur propriétaire, Rupert Murdoch, est potentiellement confronté à un nouvel univers de poursuites en diffamation dans son pays de naissance, où il possède toujours un empire médiatique.

Un autre : un groupe de surveillance technologique qui comprend Laurence Tribe, la spécialiste du droit constitutionnel, et Maria Ressa, la journaliste philippine qui a été traquée par le régime de Duterte à travers les lois du pays sur la diffamation, a publié une déclaration publique favorable sur l’extension de la responsabilité en matière de diffamation – une expansion qui, comme l’a suggéré Joshua Benton au Nieman Lab, présente un modèle tentant pour les autoritaires du monde entier.

Lancé en septembre 2020, le Real Facebook Oversight Board a promis de fournir un contrepoids à l’actuel Oversight Board. Lui-même une superéquipe mondiale de professeurs de droit, de technologues et de journalistes, le conseil officiel est l’endroit où Facebook envoie désormais des décisions épineuses de modération publique. Sa décision la plus importante à ce jour, de maintenir temporairement l’interdiction de Facebook de l’ancien président Trump tout en demandant à l’entreprise de réévaluer la décision, a été considérée paradoxalement à la fois comme un signe de son indépendance et une confirmation de sa fonction de soupape de surpression pour la critique du entreprise.

Sur son site Web et ailleurs, le Real Facebook Oversight Board critique le conseil d’administration d’origine pour ses « pouvoirs limités pour décider si un contenu qui a été supprimé doit être réactivé » et son calendrier pour prendre des décisions : « Une fois qu’une affaire lui a été renvoyée. , cette soi-disant « Cour suprême » peut prendre jusqu’à 90 jours pour rendre un verdict. Cela ne commence même pas à effleurer la surface des nombreux risques urgents que pose la plate-forme. » En d’autres termes : nous voulons une modération de contenu plus forte et plus rapide.

Compte tenu du rôle que beaucoup prétendent que Facebook a joué dans le monde en sapant les élections, en diffusant de la propagande, en encourageant l’extrémisme et en érodant la vie privée, cela peut sembler une évidence. Mais il est de plus en plus reconnu que la modération est un problème sans solution unique, et qu’une modération radicale s’accompagne de son propre ensemble de coûts élevés.

Dans une chronique de juin pour Wired, Evelyn Douek, professeur de droit à Harvard, a écrit que «la modération du contenu fait maintenant boule de neige et que les dommages collatéraux sur son chemin sont trop souvent ignorés». Les définitions de mauvais contenu sont politiques et incohérentes. La modération de contenu à grande échelle a le potentiel de porter atteinte à la vie privée que de nombreux critiques technologiques veulent protéger, en particulier la vie privée des minorités raciales et religieuses. Et peut-être plus important encore, il est difficile de prouver que les décisions de modération de contenu font autre chose que supprimer les problèmes préexistants de la vue du public.

Des journalistes du monde entier ont condamné la décision de la cour australienne, elle-même en fonction des lois de diffamation notoirement douces de ce pays. Mais la déclaration du Real Facebook Oversight Board rappelle que les impulsions des groupes de surveillance technologique les plus en vue peuvent être en contradiction avec une profession qui dépend de la liberté d’expression pour prospérer. Une fois que vous avez dépassé les cas extrêmement évidents de modération – images d’abus sexuels sur des enfants, incitations à la violence – la suppression des mauvaises formes de contenu implique inévitablement des jugements politiques sur ce qui, exactement, est mauvais. Partout dans le monde, ces jugements ne profitent pas toujours, ni même habituellement, aux journalistes.

« Quiconque prend ce paradigme de responsabilité au sérieux ne relie pas les points », a déclaré Goldman.

METTRE À JOUR

11 sept. 2021 à 00h29

Le message a été mis à jour avec un commentaire du Real Facebook Oversight Board. Le message a également été mis à jour pour refléter le fait que le co-fondateur du Lincoln Project, Reed Galen, n’est plus membre du Real Facebook Oversight Board.

Lire aussi  Une ville de Floride voulait s'éloigner des combustibles fossiles. L'État a juste fait en sorte qu'il ne le puisse pas.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Recent News

Editor's Pick