Facebook et Instagram ont utilisé des «tactiques agressives» ciblant les enfants, selon des poursuites judiciaires

Facebook et Instagram ont utilisé des «tactiques agressives» ciblant les enfants, selon des poursuites judiciaires

Meta a sciemment utilisé des «tactiques agressives» qui impliquaient de rendre les enfants accros aux médias sociaux «au nom de la croissance», selon un procès contre Meta affirmant que des enfants avaient souffert aux mains de Facebook et Instagram

Un ingénieur en logiciel Meta a affirmé que “ce n’est pas un secret” comment Facebook et Instagram ont utilisé des algorithmes méticuleux pour promouvoir une utilisation répétitive et compulsive chez les mineurs, que le contenu soit préjudiciable ou non – et qu’il “n’en ait pas fait preuve”.

Les révélations expurgées ont été divulguées dans un procès contre Meta, qui a été descellé et vu par DailyMail.com.

Bien que le PDG March Zuckerberg ait déclaré publiquement que son entreprise donne la priorité au profit plutôt qu’à la sécurité et au bien-être, ce n’est tout simplement pas vrai, les fichiers montrent l’exploitation sexuelle des enfants sur les deux plates-formes et allèguent que “l’algorithme basé sur l’engagement de Meta a exploité un contenu extrême pour susciter plus d’engagement”. lit le document.

Le document indique que 20 % des utilisateurs âgés de 9 à 13 ans sur Facebook et Instagram ont eu une expérience sexuelle avec un adulte sur les sites.

Ceci en dépit des “politiques de tolérance zéro de Meta interdisant les abus comme l’exploitation des enfants”.

DailyMail.com a obtenu une version non expurgée d’un procès contre Meta, intenté par des parents qui affirment que des enfants ont souffert aux mains de ses plateformes

DailyMail.com a contacté Meta, qui n’a pas commenté de questions spécifiques.

Un porte-parole de l’avocat principal des plaignants nommé par le tribunal a déclaré à DailyMail.com: ” Ces documents inédits montrent que les entreprises de médias sociaux traitent la crise de la santé mentale des jeunes comme un problème de relations publiques plutôt que comme un problème de société urgent provoqué par leurs produits.

“Cela comprend l’enterrement de la recherche interne documentant ces méfaits, le blocage des mesures de sécurité parce qu’elles diminuent” l’engagement “et le financement des équipes axées sur la protection de la santé mentale des jeunes.”

Le procès, déposé en Californie le 14 février, cite que plus d’un tiers des enfants de 13 à 17 ans déclarent utiliser l’une des applications des défendeurs “presque constamment” et admettent que c’est “trop”, affirment les parents impliqués dans le procès.

Lire aussi  Les États-Unis devraient mettre fin à l'exigence de test Covid pour les personnes arrivant dans le pays, selon un responsable du voyage

Les plaintes, regroupées par la suite en plusieurs recours collectifs, affirmaient que les plateformes de médias sociaux de Meta étaient conçues pour créer une dépendance dangereuse, poussant les enfants et les adolescents à consommer du contenu qui augmente le risque de troubles du sommeil, de troubles de l’alimentation, de dépression et de suicide.

L’affaire indique également que les adolescents et les enfants sont plus vulnérables aux effets néfastes des médias sociaux.

La version non expurgée a été publiée le 10 mars.

Il indique que Thorn, une organisation internationale de lutte contre la traite des êtres humains, a publié un rapport en 2021 détaillant les problèmes d’exploitation sexuelle sur Facebook et Instagram et “a fourni ces informations à Meta”.

Le rapport de Thorn ne montre « ni blocage ni signalement [offenders] protège les mineurs contre le harcèlement continu » et 55 % des participants au rapport qui ont bloqué ou signalé quelqu’un ont déclaré avoir été recontactés en ligne.

Et les jeunes garçons sont particulièrement exposés aux prédateurs.

La plainte non scellée affirme également que 80% des «violations de connexions adultes / mineurs» sur Facebook résultent de la fonctionnalité «People You May Know» de la plateforme.

.  Les fichiers affirment que la société était au courant de l'exploitation sexuelle des enfants sur Facebook et Instagram et allègue que

. Les fichiers affirment que la société était au courant de l’exploitation sexuelle des enfants sur Facebook et Instagram et allègue que “l’algorithme basé sur l’engagement de Meta a exploité un contenu extrême pour susciter plus d’engagement”.

“Une étude interne menée en juin 2020 ou vers cette période a conclu que 500 000 comptes Instagram mineurs” reçoivent IIC “- ce qui signifie” interactions inappropriées avec les enfants “- quotidiennement”, lit-on dans une déclaration expurgée aux pages 135 et 136 du document. .

‘Pourtant, à l’époque, ‘La sécurité des enfants [was] explicitement appelé comme un non-but. . . . Donc si nous faisons quelque chose ici, cool. Mais si nous ne pouvons rien faire du tout, c’est bien aussi.

Lire aussi  Les scientifiques identifient 99 villes côtières dans le monde – abritant au moins 200 millions de personnes – qui sont en train de couler... VOTRE maison est-elle en danger ?

Meta a depuis amélioré sa capacité à réduire les interactions inappropriées entre adultes et jeunes.

L’entreprise a développé une technologie qui lui permet de trouver des comptes qui ont montré un comportement potentiellement suspect et d’empêcher ces comptes d’interagir avec les comptes des jeunes.

Et Meta affirme qu’il ne montre pas les comptes des jeunes à ces adultes lorsqu’ils parcourent la liste des personnes qui ont aimé un message ou lorsqu’ils consultent la liste des abonnés ou des abonnés d’un compte.

Cependant, ces modifications ont été apportées après 2020.

La plainte indique également que Meta avait envisagé de rendre les profils des utilisateurs adolescents “privés par défaut” dès juillet 2020, mais a décidé de ne pas le faire après avoir opposé “la sécurité, la confidentialité et les politiques gagnantes” à “l’impact sur la croissance”.

À la page 135 du procès, une partie qui a été expurgée, affirme que Meta savait que permettre aux adultes de contacter des enfants sur Instagram “fait chier Apple au point de menacer de nous retirer de l’App Store”, la société n’avait pas de calendrier pour ‘ quand nous empêcherons les adultes d’envoyer des messages aux mineurs dans IG Direct.

“Cela est resté vrai même après que Meta ait reçu des informations selon lesquelles un mineur de 12 ans sollicité sur sa plateforme” était [the] fille de [an] Apple Security Exec », poursuit le communiqué.

Meta, cependant, a décidé de rendre les comptes d’utilisateurs adolescents privés par défaut en novembre 2022.

Un porte-parole de Meta a déclaré à DailyMail.com: “L’affirmation selon laquelle nous avons financé le travail pour soutenir le bien-être des gens est fausse.”

La version expurgée de la plainte se lit comme suit : “Au lieu de” prendre [this] sérieusement » et « lancer de nouveaux outils » pour protéger les enfants, Meta a fait le contraire.

«À la fin de 2019,« l’équipe de santé mentale de Meta a cessé de faire des choses », «elle a été annulée» et «complètement arrêtée». Et, comme indiqué, Meta a autorisé les outils de sécurité dont il savait qu’ils étaient défectueux à être considérés comme des correctifs.

Lire aussi  Benjamin Bratt se dévoile à 60 ans ! La star de Law & Order fait une nudité frontale dans la bande-annonce du nouveau film de Brooke Shields, Mother of the Bride

Un porte-parole de Meta a déclaré à DailyMail.com que, parce qu’il s’agit d’une priorité absolue pour l’entreprise, “nous avons en fait augmenté le financement, comme le montrent les plus de 30 outils que nous proposons pour soutenir les adolescents et les familles”. Aujourd’hui, des centaines d’employés travaillent dans toute l’entreprise pour créer des fonctionnalités à cet effet », a déclaré M.

D’autres informations “choquantes” dans la plainte non scellée rapportent l’existence du “projet de trou de lapin” de Meta.

Un porte-parole de Meta a déclaré à DailyMail.com que le projet de terrier de lapin n’existait pas.

‘Quelqu’un qui se sent mal voit un contenu qui le fait se sentir mal, il s’y engage, puis son IG est inondé w[ith] il », lit-on dans la version non expurgée.

«Meta reconnaît que les utilisateurs d’Instagram à risque de suicide ou d’automutilation sont plus susceptibles de« rencontrer des contenus de suicide et d’automutilation plus nocifs (par le biais de suggestions d’exploration, de liens et d’abonnés».

Le document cite Molly Russel, une adolescente londonienne décédée par suicide en 2017.

“Meta avait mené des recherches internes qui avertissaient qu’il y avait un risque d'”incidents similaires à ceux de Molly Russell” car les fonctionnalités algorithmiques du produit étaient”[l]diriger les utilisateurs vers un contenu pénible », lit-on à la page 84 du document.

“Nos algorithmes de recommandations commenceront à vous pousser dans un trou de lapin de contenu plus flagrant.”

«Ils ont été clairs sur les solutions potentielles: des modifications ciblées de l’algorithme entraînent une« baisse significative de l’exposition »au contenu problématique.

“Mais ils ont été réticents à apporter des changements, pour la raison explicite et soucieuse du profit que de tels ajustements” entraînaient un coût d’engagement clair “.

La poursuite affirme que la position constante de Meta sur l’importance de la sécurité des enfants n’a jamais été sérieuse et juste “tout théâtre”.

‘Nos données telles qu’elles sont actuellement affichées sont incorrectes. . . . Nous partageons de mauvaises métriques en externe. . . nous garantissons ces chiffres », selon un employé, comme indiqué dans le document.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick