L’acte de l’UE “doit donner aux personnes concernées par les systèmes d’IA les moyens d’agir”

L’acte de l’UE « doit donner aux personnes concernées par les systèmes d’IA les moyens d’agir »

L’organisation de recherche indépendante Ada Lovelace Institute a publié une série de propositions sur la manière dont l’Union européenne (UE) peut modifier sa prochaine loi sur l’intelligence artificielle (AIA) pour responsabiliser les personnes concernées par la technologie à la fois au niveau individuel et collectif.

Les modifications proposées visent également à élargir et à remodeler le sens du «risque» dans le règlement, qui, selon l’Institut, devrait être fondé sur un objectif «raisonnablement prévisible» et s’étendre au-delà de son objectif actuel sur les droits individuels et la sécurité pour inclure également les risques systémiques et environnementaux. des risques.

“La réglementation de l’IA est un défi juridique difficile, il convient donc de féliciter l’UE d’avoir été la première à proposer un cadre complet”, a déclaré Alexandru Circiumaru, responsable des politiques publiques européennes à l’Institut Ada Lovelace. “Cependant, les propositions actuelles peuvent et doivent être améliorées, et il existe une opportunité pour les décideurs politiques de l’UE de renforcer considérablement la portée et l’efficacité de cette législation historique.”

Dans son état actuel, l’AIA, qui a été publiée par la Commission européenne (CE) le 21 avril 2021, adopte une approche fondée sur les risques et axée sur le marché pour réglementer la technologie, en se concentrant sur l’établissement de règles concernant l’utilisation de « produits à haut risque ». » et les pratiques d’IA « interdites ».

Cependant, des experts et des organisations des droits civils numériques ont affirmé que la proposition de réglementation est empilée en faveur des organisations – publiques et privées – qui développent et déploient des technologies d’IA, qui sont essentiellement chargées d’exercices de coche, tandis que les gens ordinaires se voient offrir peu dans le sens d’une protection ou d’une réparation.

Ils ont affirmé qu’en fin de compte, la proposition ne fera pas grand-chose pour atténuer les pires abus de la technologie de l’IA et agira essentiellement comme un feu vert pour un certain nombre de cas d’utilisation à haut risque en raison de l’accent mis sur les normes techniques et de la manière dont elle aborde l’atténuation des risques.

Publiées le 31 mars 2022, les propositions d’amendements de l’Institut Ada Lovelace pour traiter ces questions incluent la reconnaissance des « personnes concernées » comme des acteurs distincts dans le texte de l’AIA, qui ne reconnaît actuellement que les « fournisseurs » – ceux qui mettent un système d’IA sur le marché – et « utilisateurs » – ceux qui déploient le système d’IA.

Lire aussi  Journée internationale de la femme : Journée internationale de la femme : ce que ces modèles ont à dire

Il a déclaré que l’AIA devrait également être utilisée pour créer un cadre de recours complet autour des «personnes affectées», y compris un droit pour les individus de porter plainte, un droit d’intenter une action collective et un droit à l’information pour compléter ce qui est déjà prévu en vertu de l’Accord général. Règlement sur la protection des données (RGPD).

« La loi européenne sur l’IA, une fois adoptée, sera le premier cadre réglementaire complet sur l’IA au monde. Cela en fait un texte législatif d’importance mondiale avec un impact historique bien au-delà de sa compétence légale », a déclaré Imogen Parker, directrice associée de l’Institut.

“Les enjeux pour tout le monde sont élevés avec l’IA, c’est pourquoi il est si vital que l’UE obtienne ce droit et s’assure que la loi fonctionne vraiment pour les gens et la société.”

L’Institut Ada Lovelace recommande en outre de renommer les « utilisateurs » en « déployeurs » pour souligner davantage la distinction entre ceux qui utilisent la technologie et ceux sur lesquels elle est utilisée, ainsi que pour déterminer le risque en fonction du « but raisonnablement prévisible » du système, plutôt que du « destination » telle que définie par le fournisseur lui-même.

“L’approche actuelle peut ne pas offrir une clarté suffisante sur le moment où un déployeur a dépassé l’objectif prévu”, a déclaré l’Institut. « Changer le langage en ‘objectif raisonnablement prévisible’ obligerait les fournisseurs à considérer plus complètement l’éventail des utilisations potentielles de leur technologie. Cela encouragerait également une plus grande clarté dans la définition des limites des systèmes que les fournisseurs mettent sur le marché quant à la mesure dans laquelle les déployeurs peuvent expérimenter un système d’IA sans encourir d’obligations supplémentaires.

Dans le cadre des propositions actuelles, les systèmes à haut risque ne sont également soumis qu’à des exigences ex ante, ce qui signifie qu’ils s’appliquent aux systèmes d’IA avant leur déploiement, ce qui, selon l’Institut, reflète une approche de «sécurité des produits» de l’IA qui «ne parvient pas à saisir» comment ils sont utilisé dans le monde réel.

Lire aussi  Le canal carpien affecte toujours des millions de personnes – voici comment vous pouvez le gérer

Pour y faire face, il recommande de soumettre les systèmes à haut risque à des évaluations ex post et d’établir un processus pour ajouter de nouveaux types d’IA à la liste à haut risque.

En termes de catégorisation biométrique et de reconnaissance des émotions, l’Institut recommande d’ajouter les deux à la liste des “risques inacceptables” de l’article 5 de l’AIA, en disant : “Leur utilisation pourrait conduire à une discrimination sur la base de caractéristiques protégées par le droit de l’UE”.

D’autres groupes de la société civile ont également appelé à des changements majeurs à l’AIA à plusieurs reprises depuis sa publication.

En septembre 2021, par exemple, European Digital Rights (EDRi) a critiqué l’approche “technocratique” de l’UE en matière de réglementation de l’IA, qui, selon elle, était trop étroitement axée sur la mise en œuvre de mesures techniques d’atténuation des biais – autrement connues sous le nom de “débiaisage” – pour être efficaces pour prévenir toute la gamme des méfaits liés à l’IA.

Il a ajouté qu’en adoptant une approche techno-centrée de “débiaisage”, les décideurs politiques réduisent les problèmes sociaux, politiques et économiques complexes à de simples questions techniques de qualité des données, cédant ainsi un pouvoir et un contrôle importants sur une série de problèmes aux entreprises technologiques.

Le même mois, le groupe non gouvernemental Fair Trials a déclaré que l’UE devrait interdire catégoriquement l’utilisation de l’IA pour “prédire” les comportements criminels au motif que son utilisation finira par renforcer la discrimination et porter atteinte aux droits humains fondamentaux, y compris le droit à un procès équitable et la présomption d’innocence.

L’appel à interdire les systèmes de police prédictive a été réitéré en mars 2022 par une coalition de 38 organisations de la société civile, dont Fair Trials et EDRi.

Ils ont déclaré que, parce que les données sous-jacentes utilisées pour créer, former et exploiter de tels systèmes reflètent souvent des préjugés structurels historiques et des inégalités dans la société, leur déploiement « conduirait à ce que les personnes, les communautés et les zones géographiques racialisées soient sur-surveillées et surveillées de manière disproportionnée, interrogé, détenu et emprisonné dans toute l’Europe ».

Et en novembre 2021, 114 organisations ont signé une lettre ouverte appelant les institutions européennes à veiller à ce que l’AIA « traite les impacts structurels, sociétaux, politiques et économiques de l’utilisation de l’IA, soit à l’épreuve du temps et donne la priorité aux valeurs démocratiques et à la protection des droits fondamentaux”.

Lire aussi  Inondations NSW: Scott Morrison déclarera «l'urgence nationale» lors de la visite de Lismore | Inondations de la côte est de l'Australie 2022

Plus précisément, les organisations – qui comprenaient Access Now, Fair Trials, Algorithm Watch, Homo Digitalis et Privacy International – ont recommandé : d’imposer davantage d’obligations aux utilisateurs de systèmes d’IA à haut risque afin de faciliter une plus grande responsabilité ; créer des exigences d’accessibilité obligatoires afin que les personnes handicapées puissent facilement obtenir des informations sur les systèmes d’IA ; et interdire l’utilisation de tout système qui présente un risque inacceptable pour les droits fondamentaux.

Les organisations ont ajouté que l’AIA ne contient actuellement aucune disposition ou mécanisme de recours individuel ou collectif et, en tant que tel, “ne traite pas pleinement la myriade de préjudices résultant de l’opacité, de la complexité, de l’échelle et du déséquilibre de pouvoir dans lesquels les systèmes d’IA sont déployé ».

Sans s’adresser directement à l’AIA, Michelle Bachelet, haut-commissaire des Nations Unies aux droits de l’homme, a également appelé à un moratoire sur la vente et l’utilisation de systèmes d’IA qui présentent un risque grave pour les droits de l’homme, au moins jusqu’à ce que des garanties adéquates soient mises en œuvre, comme ainsi que pour une interdiction pure et simple des applications d’IA qui ne peuvent pas être utilisées conformément au droit international des droits de l’homme.

“L’intelligence artificielle atteint désormais presque tous les recoins de notre vie physique et mentale et même de nos états émotionnels”, a déclaré Bachelet. “Les systèmes d’IA sont utilisés pour déterminer qui obtient les services publics, décider qui a une chance d’être recruté pour un emploi, et bien sûr, ils affectent les informations que les gens voient et peuvent partager en ligne.

“Compte tenu de la croissance rapide et continue de l’IA, combler l’immense écart de responsabilité dans la manière dont les données sont collectées, stockées, partagées et utilisées est l’une des questions les plus urgentes en matière de droits de l’homme auxquelles nous sommes confrontés.”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick