«Le plus sombre des mondes»: comment Molly Russell est tombée dans un vortex de désespoir sur les réseaux sociaux | Sécurité Internet

«Le plus sombre des mondes»: comment Molly Russell est tombée dans un vortex de désespoir sur les réseaux sociaux |  Sécurité Internet

Dans la soirée du 20 novembre 2017, Molly Russell et sa famille ont dîné ensemble puis se sont assis pour regarder un épisode de I’m a Celebrity… Get Me Out of Here!.

Un repas en famille, puis le visionnage d’une émission de télévision populaire : une scène typique de millions de familles à travers le Royaume-Uni. Comme la mère de Molly, Janet, l’a dit à la police : « Le comportement de tout le monde était normal » à l’heure du dîner.

Le lendemain, vers 7 heures du matin, Janet est allée dans la chambre de Molly et a trouvé le corps de sa fille.

Molly, 14 ans, de Harrow, au nord-ouest de Londres, s’était suicidée après être tombée, à l’insu de sa famille, dans un tourbillon de désespoir sur les réseaux sociaux. Une partie du contenu visionné au cours de la dernière année de sa vie était méconnaissable de la télévision familiale aux heures de grande écoute.

C’était, comme le père de Molly, Ian, l’a dit lors de l’enquête sur la mort de sa fille, « juste le plus sombre des mondes ».

« C’est un monde que je ne reconnais pas. C’est un ghetto du monde en ligne dans lequel une fois que vous y tombez, l’algorithme signifie que vous ne pouvez pas y échapper et il continue de recommander plus de contenu. Vous ne pouvez pas y échapper.

Vendredi, le coroner principal du tribunal du coroner du nord de Londres a statué que Molly était décédée des suites d’un acte d’automutilation alors qu’elle souffrait de dépression et “des effets négatifs du contenu en ligne”.

À bien des égards, Molly avait les intérêts et les passe-temps d’une adolescente typique: la comédie musicale Hamilton, le groupe de rock 5 Seconds of Summer, le rôle principal dans son émission scolaire. Ian Russell a souligné cette partie de la vie de Molly en lui rendant un hommage émouvant au début de l’enquête au tribunal du coroner du nord de Londres, parlant d’une “jeune femme positive, heureuse et brillante qui était en effet destinée à faire le bien”.

Ian Russell arrive au tribunal du coroner du nord de Londres à Barnet le premier jour de l’enquête sur la mort de sa fille. Photographie: Kirsty O’Connor / PA

Il a déclaré: “C’est trop facile d’oublier la personne qu’elle était vraiment: quelqu’un plein d’amour, d’espoir et de bonheur, une jeune personne pleine de promesses, d’opportunités et de potentiel.”

Mais Russell a déclaré que la famille avait remarqué un changement dans le comportement de Molly au cours des 12 derniers mois de sa vie. Elle était devenue «plus renfermée» et passait plus de temps seule dans sa chambre, a déclaré son père, mais contribuait toujours «heureusement» à la vie de famille. Les Russell attribuent son comportement à des « sautes d’humeur normales chez les adolescentes ».

Lire aussi  Un nouveau départ après 60 ans : je suis sorti de ma coquille quand j'ai pris ma retraite. Maintenant, je suis une star du podcast à 67 | La vie et le style

En septembre 2017, Russell a dit à sa fille que la famille s’inquiétait pour elle, mais elle a décrit son comportement comme “juste une phase que je traverse”. En effet, Russell a déclaré que Molly semblait être de «bonne humeur» au cours des deux derniers mois de sa vie.

Certaines activités de Molly sur les réseaux sociaux – musique, mode, bijoux, Harry Potter – reflétaient les intérêts de cette personne positive et brillante représentée par son père.

Mais le côté sombre de la vie en ligne de Molly l’a submergée. Sur 16 300 contenus enregistrés, aimés ou partagés par Molly sur Instagram au cours des six mois précédant sa mort, 2 100 étaient liés au suicide, à l’automutilation et à la dépression. Elle a utilisé son iPhone pour la dernière fois pour accéder à Instagram le jour de sa mort, à 00h45. Deux minutes auparavant, elle avait enregistré une image sur la plate-forme qui portait un slogan lié à la dépression.

C’est sur Instagram – l’application de partage de photos, d’images et de vidéos – que Molly a visionné certains des contenus les plus dérangeants, y compris un montage de vidéos graphiques contenant des clips liés au suicide, à la dépression et à l’automutilation mis en musique. Certaines vidéos contenaient des scènes tirées du cinéma et de la télévision, notamment 13 Reasons Why, un drame américain sur le suicide d’un adolescent qui contenait des épisodes classés 15 ou 18 au Royaume-Uni. Au total, Molly a regardé 138 vidéos contenant du contenu sur le suicide et l’automutilation, parfois en “se bousculant” par lots, dont une session le 11 novembre.

Un pédopsychiatre consultant a déclaré à l’audience qu’il n’avait pas bien dormi pendant des semaines après avoir visionné le contenu Instagram vu par Molly juste avant sa mort.

Alors que le tribunal parcourait les six mois de contenu Instagram, on lui a montré une succession d’images et de clips contenant des slogans liés au suicide et à la dépression, ou des images graphiques d’automutilation et de suicide. Certains contenus, tels que les clips vidéo, ont été répétés plus d’une fois devant le tribunal, donnant aux personnes présentes une idée de ce que ressentait Ian Russell lorsqu’il a déclaré que la nature “implacable” du contenu “avait un impact négatif profond sur ma santé mentale”.

Lire aussi  Chirurgie oculaire dans les parkings et scanners mammaires dans les centres commerciaux : une solution à la crise des listes d'attente ?

Le tribunal a été informé que Molly avait laissé “derrière une note qui cite” une publication dépressive sur Instagram qu’elle avait consultée, tandis qu’une note distincte commençait sur son téléphone, citant l’un des montages vidéo. Oliver Sanders KC, représentant la famille Russell, a déclaré “c’est Instagram qui donne littéralement des idées à Molly”.

Elizabeth Lagone, responsable de la politique de santé et de bien-être chez Meta, propriétaire d’Instagram et de Facebook, a reçu l’ordre du coroner de survoler les États-Unis pour témoigner et a été prise à travers de nombreux messages et vidéos de Sanders. Elle a défendu la pertinence de certains messages, affirmant qu’ils étaient “sans danger” pour les enfants, car ils représentaient une tentative de sensibilisation à l’état mental d’un utilisateur et de partage de ses sentiments. Sanders s’est demandé si on pouvait s’attendre à ce qu’un jeune de 14 ans fasse la différence entre un message de sensibilisation à l’automutilation et un autre qui l’encourageait.

Elizabeth Lagone, responsable de la santé et du bien-être de Meta, arrive au tribunal du coroner du nord de Londres
Elizabeth Lagone, responsable de la santé et du bien-être de Meta, arrive au tribunal du coroner du nord de Londres. Photographie: Beresford Hodge / PA

Certains contenus étaient clairement indéfendables, même selon les directives d’Instagram de 2017, et Lagone s’est excusée pour le fait que Molly avait visionné du contenu qui aurait dû être retiré de la plate-forme, car il glorifiait ou encourageait le suicide et l’automutilation.

Mais le contenu que Lagone cherchait à défendre – comme, par exemple, « l’expression des sentiments de quelqu’un » – a suscité chez Sanders des expressions d’exaspération. Il s’est demandé comment des messages contenant des slogans tels que “Je ne veux plus faire ça” pouvaient être appropriés pour un jeune de 14 ans.

Élevant la voix à un moment donné, il a déclaré qu’Instagram choisissait de mettre du contenu «dans les chambres d’enfants déprimés», ajoutant: «Vous n’avez pas le droit. Vous n’êtes pas leur parent. Vous n’êtes qu’une entreprise en Amérique. Instagram a une limite d’âge minimum de 13 ans, bien que Molly avait 12 ans lorsqu’elle a créé son compte.

Les images de Pinterest étaient également dérangeantes. L’enquête a été informée que Molly avait utilisé la plate-forme, où les utilisateurs collectaient des images sur des tableaux d’affichage numériques, et avait recherché des publications sous des termes tels que « depressing qoutes ». [sic] profonde » et « suicielle [sic] qoutes ».

Un tableau en particulier, que Molly a intitulé “Rien à craindre…”, contenait 469 images, dont certaines étaient liées à l’automutilation et au suicide. D’autres concernaient l’anxiété et la dépression, alors qu’il est apparu que Pinterest avait envoyé des e-mails de recommandation de contenu à Molly avec des titres tels que “10 épingles de dépression que vous pourriez aimer”.

Lire aussi  Quordle aujourd'hui : découvrez toutes les réponses et suggestions "Quordle" pour le 15 janvier

Jud Hoffman, responsable des opérations communautaires chez Pinterest, a déclaré à l’enquête qu’il “regrette profondément” ce que Molly a vu et que la plate-forme n’était pas sûre à l’époque.

Hoffman a également déclaré que la plate-forme n’était toujours “pas parfaite” et que le contenu violant ses politiques “existe toujours probablement” dessus. Les militants pour la sécurité sur Internet, comme la famille Russell, affirment que cela s’applique également à d’autres plateformes.

Jud Hoffman, responsable mondial des opérations communautaires chez Pinterest
Jud Hoffman, responsable mondial des opérations communautaires chez Pinterest. Photographie : James Manning/PA

Le tribunal a également appris que Molly avait un compte Twitter qu’elle utilisait pour contacter Salice Rose, une influenceuse qui a discuté de son expérience de la dépression en ligne, dans le but d’obtenir de l’aide. Ian Russell l’a décrit comme “un appel dans le vide” et a déclaré que c’était un “danger” pour des personnes comme Molly de rechercher le soutien d’influenceurs bien intentionnés qui ne pouvaient pas offrir un soutien spécialisé.

Il a également consulté le compte YouTube de Molly après sa mort et a trouvé un “nombre élevé de publications dérangeantes” concernant l’anxiété, la dépression, l’automutilation et le suicide.

Tout au long de l’audience, le coroner principal, Andrew Walker, a évoqué des changements potentiels dans le fonctionnement des plateformes de médias sociaux en ce qui concerne les enfants utilisateurs. Le changement est déjà arrivé avec le code de conception adapté à l’âge, qui empêche les sites Web et les applications d’utiliser à mauvais escient les données des enfants, tandis que le prochain projet de loi sur la sécurité en ligne imposera une obligation de diligence aux entreprises technologiques pour protéger les enfants contre les contenus préjudiciables.

Dans un portrait à la plume de sa fille lu à l’enquête, Ian Russell a déclaré qu’il voulait délivrer un message d’espoir parallèlement à la perte : qu’une tragédie qui s’est déroulée sur fond de plateformes de médias sociaux mal réglementées ne doit pas se répéter.

“Tout comme Molly l’aurait voulu, il est important de chercher à apprendre tout ce que nous pouvons, puis de prendre toutes les mesures nécessaires pour éviter qu’une si jeune vie ne soit à nouveau gâchée.”

Au R. @samaritans.ie. Aux États-Unis, la National Suicide Prevention Lifeline est au 800-273-8255 ou par chat pour obtenir de l’aide. Vous pouvez également envoyer un SMS à HOME au 741741 pour entrer en contact avec un conseiller de ligne de texte de crise. En Australie, le service d’assistance en cas de crise Lifeline est le 13 11 14. D’autres lignes d’assistance internationales peuvent être trouvées sur befrienders.org

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick