Si la technologie ne parvient pas à concevoir pour les plus vulnérables, elle nous échoue tous

Si la technologie ne parvient pas à concevoir pour les plus vulnérables, elle nous échoue tous

Qu’est-ce que le russe les manifestants ont en commun avec les utilisateurs de Twitter paniqués par Elon Musk lisant leurs DM et les gens inquiets de la criminalisation de l’avortement ? Il leur serait utile à tous d’être protégés par un ensemble plus robuste de pratiques de conception d’entreprises développant des technologies.

Revenons en arrière. Le mois dernier, la police russe a contraint les manifestants à déverrouiller leurs téléphones pour rechercher des preuves de dissidence, ce qui a entraîné des arrestations et des amendes. Pire encore, Telegram, l’une des principales applications de chat utilisées en Russie, est vulnérable à ces recherches. Même le simple fait d’avoir l’application Telegram sur un appareil personnel pourrait impliquer que son propriétaire ne soutient pas la guerre du Kremlin. Mais les créateurs de Telegram n’ont pas réussi à concevoir l’application en tenant compte de la sécurité personnelle dans les environnements à haut risque, et pas seulement dans le contexte russe. Telegram peut ainsi être armé contre ses utilisateurs.

De même, au milieu des allers-retours concernant le projet d’Elon Musk d’acheter Twitter, de nombreuses personnes qui utilisent la plate-forme ont exprimé des inquiétudes quant à sa tentative de mettre en avant la modération de contenu algorithmique et d’autres changements de conception au gré de sa fantaisie de 44 milliards de dollars. Apporter des recommandations de quelqu’un sans cadre de risque et de préjudices pour les personnes très marginalisées conduit à des proclamations de “authentifier tous les humains.” Cela semble être une poussée pour supprimer l’anonymat en ligne, quelque chose sur lequel j’ai écrit très personnellement. Il est mal pensé, nocif pour les personnes les plus à risque et ne s’appuie sur aucune méthodologie ou preuve réelle. Au-delà de ses explosions peu claires de changements, les actions précédentes de Musk combinées aux dommages existants des structures actuelles de Twitter ont clairement indiqué que nous nous dirigeons vers d’autres impacts sur les groupes marginalisés, tels que les utilisateurs de Twitter noirs et POC et les personnes trans. Pendant ce temps, le manque d’infrastructures de sécurité frappe durement aux États-Unis depuis la fuite du projet d’avis de la Cour suprême en Dobbs contre Jackson montrant que les protections prévues en vertu Roe contre Wade sont mortellement menacés. Avec la criminalisation prévue de ceux qui demandent ou fournissent des services d’avortement, il est devenu de plus en plus évident que les outils et les technologies les plus utilisés pour accéder aux données vitales sur les soins de santé sont peu sûrs et dangereux.

Lire aussi  OpenAI a formé avec succès un bot Minecraft en utilisant 70 000 heures de vidéos de gameplay

Les mêmes étapes pourraient protéger les utilisateurs dans tous ces contextes. Si les créateurs de ces outils avaient conçu leurs applications en se concentrant sur la sécurité dans les environnements à haut risque – pour les personnes qui sont souvent considérées comme les cas les plus « extrêmes » ou « marginaux » et donc ignorées – la militarisation que les utilisateurs craignent ne serait pas possible. , ou à tout le moins ils auraient des outils pour gérer leur risque.

La réalité est que la fabrication de technologies meilleures, plus sûres et moins nocives nécessite une conception basée sur les réalités vécues par ceux qui sont les plus marginalisés. Ces « cas extrêmes » sont souvent ignorés car ils sortent du cadre des expériences probables d’un utilisateur typique. Pourtant, ce sont des indicateurs puissants pour comprendre les failles de nos technologies. C’est pourquoi je qualifie ces cas – de personnes, de groupes et de communautés les plus impactés et les moins soutenus – de « décentrés ». Les décentrés sont les plus marginalisés et souvent les plus criminalisés. En comprenant et en établissant qui est le plus touché par des cadres sociaux, politiques et juridiques distincts, nous pouvons comprendre qui serait le plus susceptible d’être victime de la militarisation de certaines technologies. Et, comme avantage supplémentaire, la technologie qui a recentré les extrêmes toujours être généralisable à l’ensemble des utilisateurs.

De 2016 au début de cette année, j’ai mené un projet de recherche au sein de l’organisation de défense des droits humains Article 19 en collaboration avec des organisations locales en Iran, au Liban et en Égypte, avec le soutien d’experts internationaux. Nous avons exploré les expériences vécues de personnes queer qui ont été persécutées par la police en raison de l’utilisation de technologies personnelles spécifiques. Prenez l’expérience d’un réfugié syrien queer au Liban qui a été arrêté à un point de contrôle de la police ou de l’armée pour des papiers. Ils ont fait fouiller arbitrairement leur téléphone. L’icône d’une application queer, Grindr, est visible et l’agent détermine que la personne est queer. D’autres zones du téléphone du réfugié sont ensuite vérifiées, révélant ce qui est considéré comme du “contenu queer”. Le réfugié est emmené pour un nouvel interrogatoire et soumis à des violences verbales et physiques. Ils risquent désormais d’être condamnés en vertu de l’article 534 du Code pénal libanais et risquent l’emprisonnement, des amendes et/ou la révocation de leur statut d’immigration au Liban. C’est un cas parmi tant d’autres.

Lire aussi  L'Italie transpire pendant la campagne électorale d'été – POLITICO

Mais que se passerait-il si ce logo était caché et qu’une application indiquant la sexualité d’un individu n’était pas facilement accessible ? Tout en laissant l’individu conserver l’application et la connexion avec d’autres personnes queer ? Sur la base de la recherche et de la collaboration avec le Guardian Project, Grindr a travaillé pour implémenter un mode furtif sur son produit.

La société a également mis en œuvre nos autres recommandations avec un succès similaire. Des modifications telles que l’icône d’application discrète ont permis aux utilisateurs de faire apparaître l’application comme un utilitaire commun, tel qu’un calendrier ou une calculatrice. Ainsi, lors d’une première recherche policière, les utilisateurs peuvent contourner ce risque d’être démasqués par le contenu ou les visuels des applications qu’ils possèdent. Bien que cette fonctionnalité ait été créée uniquement sur la base des résultats de cas extrêmes, tels que le réfugié syrien queer, elle s’est avérée populaire auprès des utilisateurs du monde entier. En effet, il est devenu si populaire qu’il est passé d’être entièrement disponible uniquement dans les pays «à haut risque» à être disponible gratuitement à l’échelle internationale en 2020, avec le populaire Fonction PIN qui a également été introduite dans le cadre de ce projet. C’était la première fois qu’une application de rencontres prenait des mesures de sécurité aussi radicales pour ses utilisateurs. de nombreux concurrents de Grindr ont emboîté le pas.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick