Les décisions de Meta de supprimer 2 vidéos de la guerre Israël-Hamas annulées

Les décisions de Meta de supprimer 2 vidéos de la guerre Israël-Hamas annulées

PARC MENLO, Californie –

Un comité d’examen quasi-indépendant a statué que la société mère de Facebook, Meta, devrait annuler deux décisions prises cet automne visant à supprimer les publications « informant le monde sur les souffrances humaines des deux côtés » de la guerre entre Israël et le Hamas.

Dans les deux cas, Meta a fini par rétablir les messages – l’un montrant des victimes palestiniennes et l’autre, un otage israélien – tout seul, bien qu’il ait ajouté des écrans d’avertissement aux deux en raison de leur contenu violent. Cela signifie que l’entreprise n’est pas obligée de faire quoi que ce soit concernant la décision du conseil d’administration.

Cela dit, le conseil d’administration a également déclaré qu’il n’était pas d’accord avec la décision de Meta d’interdire que les publications en question soient recommandées par Facebook et Instagram, “même dans les cas où il avait déterminé que les publications étaient destinées à sensibiliser”. Et il a déclaré que l’utilisation par Meta d’outils automatisés pour supprimer les contenus « potentiellement dangereux » augmentait la probabilité de supprimer des « messages précieux » qui non seulement sensibilisent au conflit mais peuvent contenir des preuves de violations des droits de l’homme. Il a exhorté l’entreprise à préserver ce contenu.

Le Conseil de surveillance, créé il y a trois ans par Meta, a rendu ses décisions mardi dans ce qu’il dit être sa première décision accélérée – prenant 12 jours au lieu des 90 habituels.

Dans un cas, a indiqué le comité, Instagram a supprimé une vidéo montrant ce qui semble être les conséquences d’une frappe sur ou à proximité de l’hôpital Al-Shifa dans la ville de Gaza. Le message montre des Palestiniens, y compris des enfants, blessés ou tués. Les systèmes automatisés de Meta ont supprimé la publication, affirmant qu’elle violait ses règles contre les contenus violents et graphiques. Bien que Meta soit finalement revenu sur sa décision, a déclaré le conseil d’administration, il a placé un écran d’avertissement sur la publication et l’a rétrogradé, ce qui signifie qu’il n’a pas été recommandé aux utilisateurs et que moins de personnes l’ont vu. Le conseil d’administration a déclaré qu’il n’était pas d’accord avec la décision de rétrograder la vidéo.

Lire aussi  Le gouvernement du Canada investit 6,6 millions de dollars dans l'Internet haute vitesse dans les régions rurales de la Saskatchewan

L’autre cas concerne une vidéo publiée sur Facebook d’une Israélienne suppliant ses ravisseurs de ne pas la tuer alors qu’elle est prise en otage lors des raids du Hamas sur Israël le 7 octobre.

Les utilisateurs ont fait appel de la décision de Meta de supprimer les publications et les dossiers ont été portés devant le Conseil de surveillance. Le conseil a déclaré avoir constaté une multiplication par trois de la moyenne quotidienne des appels signalés par les utilisateurs comme liés à la région du Moyen-Orient et de l’Afrique du Nord au cours des semaines suivant le 7 octobre.

Meta a déclaré qu’elle se félicitait de la décision du conseil d’administration.

“L’expression et la sécurité sont importantes pour nous et pour les personnes qui utilisent nos services. Le conseil d’administration a annulé la décision initiale de Meta de supprimer ce contenu, mais a approuvé la décision ultérieure de restaurer le contenu avec un écran d’avertissement. Meta a précédemment rétabli ce contenu, donc non d’autres mesures seront prises à ce sujet”, a indiqué la société. “Il n’y aura pas d’autres mises à jour sur cette affaire, car le conseil n’a fait aucune recommandation dans le cadre de sa décision.”

Lors d’un briefing sur ces cas, le conseil d’administration a déclaré que Meta avait confirmé qu’il avait temporairement abaissé les seuils des outils automatisés pour détecter et supprimer les contenus potentiellement en infraction.

“Tout en réduisant le risque de contenu préjudiciable, cela a également augmenté la probabilité de supprimer par erreur des contenus de valeur et non violants de ses plateformes”, a déclaré le Conseil de surveillance, ajoutant qu’au 11 décembre, Meta n’avait pas rétabli les seuils d’avant- Octobre. 7 niveaux.

Lire aussi  L'édition anniversaire de Killing Harmony est désormais disponible sur iOS et Android, 1 et 2 à prix réduit pour célébrer le lancement – ​​-

Meta, alors appelé Facebook, a lancé le Conseil de surveillance en 2020 en réponse aux critiques selon lesquelles il n’agissait pas assez vite pour supprimer la désinformation, les discours de haine et les campagnes d’influence de ses plateformes. Le conseil d’administration compte 22 membres, un groupe multinational composé de juristes, d’experts en droits de l’homme et de journalistes.

Les décisions du conseil d’administration, comme dans ces deux cas, sont contraignantes, mais ses conclusions politiques plus larges sont consultatives et Meta n’est pas obligé de les suivre.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick