Le prince William appelle à une sécurité en ligne améliorée après la décision du coroner dans la mort de Molly Russell | Nouvelles du Royaume-Uni

Le prince William appelle à une sécurité en ligne améliorée après la décision du coroner dans la mort de Molly Russell |  Nouvelles du Royaume-Uni

Le prince William a appelé à une meilleure sécurité en ligne pour les enfants après qu’un coroner a jugé que les médias sociaux avaient contribué à la mort de Molly Russell, 14 ans.

Le prince de Galles a déclaré: “Aucun parent ne devrait jamais avoir à endurer ce que Ian Russell et sa famille ont vécu. Ils ont été si incroyablement courageux. La sécurité en ligne de nos enfants et de nos jeunes doit être une condition préalable, pas une réflexion après coup.”

L’écolière de Harrow, au nord-ouest de Londres, était retrouvée morte dans sa chambre après avoir visionné du contenu lié au suicide, à la dépression et à l’anxiété en ligne.

Des dirigeants de Pinterest et de la société mère d’Instagram, Meta, qui possède également Facebook, ont été contraints d’assister en personne à son enquête.

Andrew Walker, le coroner, a déclaré qu’il ne “pensait pas qu’il serait sûr” de donner le suicide comme cause de décès de Molly, optant plutôt pour l’automutilation.

Donner ses conclusions vendrediil a déclaré: “Molly était à une période de transition dans sa jeune vie qui a rendu certains éléments de communication difficiles.”

Elle a été “exposée à du matériel qui aurait pu l’influencer de manière négative et, en plus, ce qui avait commencé comme une dépression était devenu une maladie dépressive plus grave”, a-t-il déclaré au tribunal du coroner du nord de Londres.

M. Walker a également déclaré que le contenu “particulièrement graphique” qu’elle a vu “actes romancés d’automutilation”, “a normalisé son état” et s’est concentré sur une “vision limitée et irrationnelle sans aucun contrepoids de normalité”.

Lire la suite: La piste numérique qui met en lumière les derniers mois de la vie de Molly Russell

Depuis la mort de Molly en novembre 2017, son père Ian Russell a fait campagne pour de meilleures protections contre les algorithmes de médias sociaux potentiellement dangereux.

M. Russell a déclaré après l’enquête: “Nous avons entendu un cadre supérieur de Meta décrire ce flux de contenu mortel que les algorithmes de la plate-forme ont poussé à Molly comme” sûr “et ne contrevenant pas aux politiques de la plate-forme.

“Si cette piste démentielle de contenu suceur de vie était sûre, ma fille Molly serait probablement encore en vie et au lieu d’être une famille endeuillée de quatre personnes, nous serions cinq à attendre avec impatience une vie pleine de but et de promesse qui nous attend pour notre adorable Molly.

“Il est temps que la culture d’entreprise toxique au cœur de la plus grande plateforme de médias sociaux au monde change.”

Veuillez utiliser le navigateur Chrome pour un lecteur vidéo plus accessible

Molly Russell a vu « une piste démente de contenu suceur de vie » avant de mourir

Dame Rachel de Souza, commissaire à l’enfance pour l’Angleterre, a déclaré à Sky News que les géants des médias sociaux devraient supprimer ces contenus préjudiciables de leurs plateformes à la suite des conclusions de l’enquête.

Elle a ajouté qu’il est “méprisable” que les entreprises placent “les bénéfices avant la sécurité des enfants”.

Dame Rachel a déclaré: “Il a été question à un moment donné d’imposer une amende à des dirigeants nommés, les responsables, et de les emprisonner. Je pense que cela ne peut pas aller assez loin.

Lire aussi  Comparaison des processeurs Apple : les puces Apple iPhone comparées au silicium Apple

“Pourquoi ces entreprises ne peuvent-elles pas retirer ce matériel maintenant ?

“Je rencontre les dirigeants des six grandes entreprises technologiques tous les six mois. Ils acceptent de me rencontrer et je leur demande constamment ‘combien d’enfants avez-vous en ligne ? Est-ce que vous supprimez ce matériel ?’.

“Ils essaient d’éluder mes questions. Ils n’en font pas assez. Je pense honnêtement que nous voyons des réponses mièvres.

“Comme je l’ai déjà dit, ils ont besoin d’une boussole morale et de régler cela maintenant, ils peuvent le faire.”

Veuillez utiliser le navigateur Chrome pour un lecteur vidéo plus accessible

Dame Rachel de Souza : “Les enfants ont reçu des vidéos de décapitation”

Frances Haugen, une ancienne employée de Facebook qui est devenue dénonciatrice après avoir quitté l’entreprise, a déclaré à Sky News que le géant des médias sociaux devrait envisager des décès comme celui de Molly comme évitables.

Elle a déclaré: “Ce qui est si choquant dans le cas de Molly, c’est qu’il n’est pas unique.

“La réalité est que ces plateformes peuvent détourner un enfant d’un intérêt comme une alimentation saine, et juste par la nature de la conception des algorithmes, les poussent tout le temps vers un contenu plus extrême.”

Mme Haugen a quitté le géant des médias sociaux en mai 2021 et a emporté avec elle des milliers de documents internationaux qui ont déclenché une série d’allégations – dont Facebook savait que ses produits nuisaient à la santé mentale des adolescents.

Veuillez utiliser le navigateur Chrome pour un lecteur vidéo plus accessible

“Le cas de Molly n’est pas unique” – lanceur d’alerte FB
Lire aussi  COVID-19 : la première rencontre avec le virus façonne la future réponse immunitaire du corps aux nouvelles infections, selon la recherche | Nouvelles du Royaume-Uni

Elle a poursuivi: “Je peux imaginer ce qui se passe sur Facebook maintenant. Il y a une mythologie profonde à l’intérieur de Facebook selon laquelle le bien qu’ils produisent l’emporte sur le mal, qu’il y a peut-être quelques cas tragiques, mais il y a tellement de valeur à connecter les gens qu’ils peuvent bien dormir ce soir.

“Facebook devrait se pencher sur ces décès et les traiter comme évitables. J’aimerais qu’ils assument une part de responsabilité et agissent.”

Judson Hoffman, cadre supérieur chez Pinterest, s’est excusé pour une partie du contenu que Molly a vu, admettant que lorsqu’elle a utilisé le site en 2017, il n’était “pas sûr”.

Il a déclaré que la plate-forme utilise désormais l’intelligence artificielle pour supprimer ce contenu.

Elizabeth Lagone, responsable de la politique de santé et de bien-être chez Meta, propriétaire de Facebook, Instagram et WhatsApp, a déclaré au coroner qu’une partie du contenu que Molly avait consulté avant sa mort était “sûre”, tandis que sa famille a soutenu qu’il était suicidaire. .

Dans un échange houleux, elle a déclaré que la question de la suppression du contenu suicidaire ou autodestructeur était “nuancée et compliquée” et qu’il est “important de donner aux gens cette voix” s’ils ressentent ces sentiments.

Toute personne en détresse émotionnelle ou suicidaire peut appeler Samaritains pour obtenir de l’aide au 116 123 ou par e-mail à [email protected]. Alternativement, les lettres peuvent être envoyées à: Freepost SAMARITANS LETTERS.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick