Les arguments en faveur de la réglementation de la conception des plates-formes

Les arguments en faveur de la réglementation de la conception des plates-formes

En été En 2017, trois adolescents du Wisconsin ont été tués dans un accident de voiture à grande vitesse. Au moment de la collision, les garçons enregistraient leur vitesse à l’aide du filtre de vitesse de Snapchat, soit 200 km/h. Ce n’était pas le premier incident de ce type : le même filtre était lié à plusieurs autres accidents entre 2015 et 2017.

Les parents des adolescents du Wisconsin ont poursuivi Snapchat, affirmant que son produit, qui décernait “des trophées, des séquences et une reconnaissance sociale” aux utilisateurs qui dépassaient 100 miles par heure, avait été conçu par négligence pour encourager la conduite dangereuse à grande vitesse. Un tribunal inférieur a initialement conclu que l’article 230 de la loi sur la décence des communications immunisait Snapchat de toute responsabilité, affirmant que l’application n’était pas responsable du contenu tiers créé par des personnes utilisant son filtre de vitesse. Mais en 2021, le neuvième circuit a annulé la décision du tribunal inférieur.

Les plates-formes sont largement à l’abri d’être tenues responsables de ce type de contenu en raison de l’article 230. Mais, dans ce cas important–Lemmon contre Snap–le neuvième circuit a fait une distinction essentielle entre la propre conception de produits nuisibles d’une plate-forme et son hébergement de contenus tiers nuisibles. L’argument n’était pas que Snapchat avait créé ou hébergé du contenu nuisible, mais plutôt qu’il avait conçu par négligence une fonctionnalité, le filtre de vitesse, qui incitait à un comportement dangereux. Le neuvième circuit a conclu à juste titre que le tribunal inférieur avait commis une erreur en invoquant l’article 230 comme moyen de défense. Ce n’était pas le bon instrument juridique. Au lieu de cela, le tribunal s’est concentré sur la conception négligente du filtre de vitesse par Snapchat, un délit courant en matière de responsabilité du fait des produits.

Lire aussi  Les footballeuses ont besoin d'un meilleur entraînement pour protéger les ischio-jambiers, selon les experts | Football féminin

Frustrant, dans les années qui ont suivi, et plus récemment lors des plaidoiries de la Cour suprême des États-Unis le mois dernier pour Gonzalez c. Google, les tribunaux n’ont pas réussi à comprendre ou à faire la distinction entre le contenu préjudiciable et les choix de conception préjudiciables. Les juges qui entendent ces affaires et les législateurs qui s’efforcent de freiner les abus en ligne et les activités nuisibles doivent garder cette distinction à l’esprit et se concentrer sur la conception de produits négligents des plateformes plutôt que de se laisser distraire par les revendications générales d’immunité de l’article 230 sur les contenus préjudiciables.

Au coeur de Gonzalez est la question de savoir si la section 230 protège YouTube non seulement lorsqu’il héberge du contenu tiers, mais également lorsqu’il fait des recommandations ciblées sur ce que les utilisateurs devraient regarder. L’avocat de Gonzalez a fait valoir que YouTube ne devrait pas bénéficier de l’immunité de l’article 230 pour recommander des vidéos, affirmant que l’acte de conserver et de recommander le matériel tiers qu’il affiche est une création de contenu à part entière. L’avocat de Google a rétorqué que son algorithme de recommandation est neutre, traitant de la même manière tous les contenus qu’il recommande aux utilisateurs. Mais ces arguments passent à côté de la plaque. Il n’est pas du tout nécessaire d’invoquer l’article 230 pour empêcher que les préjudices soient pris en compte dans cette affaire. Ce n’est pas que la fonction de recommandation de YouTube a créé un nouveau contenu, mais que les algorithmes de recommandation “neutres” sont conçus avec négligence pour ne pas différencier, par exemple, les vidéos ISIS et les vidéos de chats. En fait, les recommandations favorisent activement les contenus nuisibles et dangereux.

Lire aussi  Google ajoute un nouveau bouton au gestionnaire de mots de passe Chrome, voici ce qu'il va faire

Des fonctionnalités de recommandation telles que YouTube Watch Next et Recommended for You, qui sont au cœur de Gonzalez– contribuent matériellement à nuire parce qu’ils donnent la priorité aux contenus scandaleux et sensationnels, et qu’ils encouragent et récompensent financièrement les utilisateurs pour la création de tels contenus. YouTube a conçu ses fonctionnalités de recommandation pour augmenter l’engagement des utilisateurs et les revenus publicitaires. Les créateurs de ce système auraient dû savoir qu’il encouragerait et favoriserait les comportements nuisibles.

Bien que la plupart des tribunaux aient accepté une interprétation radicale de l’article 230 qui va au-delà de la simple immunisation des plateformes contre la responsabilité des contenus dangereux de tiers, certains juges sont allés plus loin et ont commencé à imposer un contrôle plus strict de la conception négligente en invoquant la responsabilité du fait des produits. En 2014, par exemple, Omegle, un service de chat vidéo qui associe des utilisateurs aléatoires, a mis en relation une fille de 11 ans avec un homme de 30 ans qui allait la toiletter et l’abuser sexuellement pendant des années. En 2022, le juge saisi de cette affaire, AM contre Omegle, a constaté que l’article 230 protégeait en grande partie le matériel réel envoyé par les deux parties. Mais la plate-forme était toujours responsable de son choix de conception négligent pour connecter les prédateurs sexuels avec des victimes mineures. La semaine dernière, une affaire similaire a été déposée contre Grindr. Un Canadien de 19 ans poursuit l’application parce qu’elle l’a mis en contact avec des hommes adultes qui l’ont violé pendant quatre jours alors qu’il était mineur. Encore une fois, le procès prétend que Grindr a fait preuve de négligence dans son processus de vérification de l’âge et qu’il a activement cherché à ce que des utilisateurs mineurs rejoignent l’application en ciblant sa publicité sur TikTok aux mineurs. Ces cas, comme Lemmon contre Snapaffirment l’importance de se concentrer sur les caractéristiques de conception de produits nuisibles plutôt que sur le contenu préjudiciable.

Lire aussi  Modern Warfare III et Warzone Saison 1 : Guide complet

Ces cas ont créé un précédent prometteur sur la manière de rendre les plates-formes plus sûres. Lorsque les tentatives de freiner les abus en ligne se concentrent sur le contenu de tiers et l’article 230, elles s’enlisent dans des problèmes épineux de liberté d’expression qui rendent difficile la mise en œuvre de changements significatifs. Mais si les plaideurs, les juges et les régulateurs évitent ces problèmes de contenu et se concentrent plutôt sur la responsabilité du fait des produits, ils s’attaqueront à la racine du problème. Tenir les plateformes responsables des choix de conception négligents qui encouragent et monétisent la création et la prolifération de contenus préjudiciables est la clé pour faire face à de nombreux dangers qui persistent en ligne.


Avis filaire publie des articles rédigés par des contributeurs externes représentant un large éventail de points de vue. Lire plus d’avis iciet consultez nos consignes d’envoi ici. Soumettez un éditorial à [email protected].

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick