La décision d’Apple de supprimer son outil de numérisation de photos CSAM suscite une nouvelle controverse

La décision d’Apple de supprimer son outil de numérisation de photos CSAM suscite une nouvelle controverse

En décembre, Apple a dit que c’était tuer un effort concevoir un Outil de numérisation de photos iCloud préservant la confidentialité pour détecter les matériels pédopornographiques (CSAM) sur la plateforme. Initialement annoncé en août 2021, le projet faisait polémique depuis ses débuts. Apple l’avait suspendu pour la première fois en septembre en réponse aux inquiétudes des groupes de défense des droits numériques et des chercheurs selon lesquelles un tel outil serait inévitablement abusé et exploité pour compromettre la confidentialité et la sécurité de tous les utilisateurs d’iCloud. Cette semaine, un nouveau groupe de sécurité des enfants connu sous le nom de Heat Initiative a déclaré à Apple qu’il organisait une campagne pour exiger que l’entreprise « détecte, signale et supprime » le matériel d’abus sexuel sur des enfants d’iCloud et offre davantage d’outils permettant aux utilisateurs de signaler les CSAM au entreprise.

Aujourd’hui, dans un geste rare, Apple a répondu à Heat Initiative, expliquant les raisons pour lesquelles il a abandonné le développement de sa fonction d’analyse iCloud CSAM et s’est plutôt concentré sur un ensemble d’outils et de ressources sur l’appareil pour les utilisateurs connus collectivement sous le nom de fonctionnalités de sécurité des communications. La réponse de l’entreprise à Heat Initiative, qu’Apple a partagée avec WIRED ce matin, offre un rare aperçu non seulement de la raison pour laquelle elle s’est orientée vers la sécurité des communications, mais aussi de sa vision plus large de la création de mécanismes permettant de contourner les protections de la vie privée des utilisateurs, telles que le cryptage, pour surveiller données. Cette position est pertinente dans le débat plus large sur le chiffrement, d’autant plus que des pays comme le Royaume-Uni envisagent d’adopter des lois qui obligeraient les entreprises technologiques à pouvoir accéder aux données des utilisateurs pour se conformer aux demandes des forces de l’ordre.

Lire aussi  La scène déchirante de Ted Lasso, lauréat d'un Emmy, qui résonne avec tous les amoureux des chiens

“Les images d’abus sexuels sur des enfants sont odieuses et nous nous engageons à briser la chaîne de coercition et d’influence qui rend les enfants vulnérables”, a écrit Erik Neuenschwander, directeur de la confidentialité des utilisateurs et de la sécurité des enfants d’Apple, dans la réponse de l’entreprise à Heat Initiative. Il a cependant ajouté qu’après avoir collaboré avec un ensemble de chercheurs en matière de confidentialité et de sécurité, de groupes de défense des droits numériques et de défenseurs de la sécurité des enfants, la société a conclu qu’elle ne pouvait pas poursuivre le développement d’un mécanisme d’analyse CSAM, même s’il était spécialement conçu pour préserver la vie privée. .

“L’analyse des données iCloud stockées en privé de chaque utilisateur créerait de nouveaux vecteurs de menace que les voleurs de données pourraient trouver et exploiter”, a écrit Neuenschwander. “Cela entraînerait également le risque d’une pente glissante de conséquences involontaires. La recherche d’un type de contenu, par exemple, ouvre la porte à une surveillance massive et pourrait susciter le désir de rechercher d’autres systèmes de messagerie cryptés sur différents types de contenu.

WIRED n’a pas pu joindre immédiatement Heat Initiative pour commenter la réponse d’Apple. Le groupe est dirigé par Sarah Gardner, ancienne vice-présidente des affaires extérieures de l’association à but non lucratif Thorn, qui travaille à utiliser les nouvelles technologies pour lutter contre l’exploitation des enfants en ligne et le trafic sexuel. En 2021, Thorn a salué le plan d’Apple pour développer une fonctionnalité d’analyse iCloud CSAM. Gardner a déclaré dans un e-mail adressé au PDG Tim Cook le mercredi 30 août, qu’Apple a également partagé avec WIRED, que Heat Initiative avait trouvé la décision d’Apple de supprimer la fonctionnalité « décevante ».

Lire aussi  Test pratique de la version hongkongaise de Vision Pro | Quel est l'effet du test à la maison et dans une voiture ?Est-ce que ça vaut la peine d'acheter ?

“Nous croyons fermement que la solution que vous avez dévoilée a non seulement positionné Apple comme un leader mondial en matière de confidentialité des utilisateurs, mais a également promis d’éradiquer des millions d’images et de vidéos d’abus sexuels sur des enfants d’iCloud”, a écrit Gardner à Cook. «Je fais partie d’une initiative en développement impliquant des experts et des défenseurs de la sécurité des enfants qui ont l’intention de dialoguer avec vous et votre entreprise, Apple, sur votre retard continu dans la mise en œuvre d’une technologie critique… L’abus sexuel sur les enfants est une question difficile dont personne ne veut parler. à propos, c’est pourquoi il est réduit au silence et laissé de côté. Nous sommes là pour faire en sorte que cela n’arrive pas.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick