Quand l’Européen La Commission de l’Union a publié sa proposition de réglementation sur l’intelligence artificielle le mois dernier, une grande partie de la communauté politique américaine a célébré. Leur éloge était au moins en partie fondé sur la vérité: les États démocratiques les plus puissants du monde n’ont pas suffisamment réglementé l’IA et les autres technologies émergentes, et le document a marqué un pas en avant. La plupart du temps, cependant, la proposition et les réponses à celle-ci soulignent la rhétorique confuse des démocraties sur l’IA.
Au cours de la dernière décennie, les objectifs déclarés de haut niveau concernant la réglementation de l’IA sont souvent en conflit avec les spécificités des propositions de réglementation, et ce à quoi les états finaux devraient ressembler n’est pas bien articulé dans les deux cas. Des progrès cohérents et significatifs dans le développement d’une réglementation démocratique de l’IA internationalement attrayante, même si cela peut varier d’un pays à l’autre, commencent par la résolution des nombreuses contradictions et des caractérisations peu subtiles du discours.
La Commission européenne a présenté sa proposition comme un point de repère en matière de réglementation sur l’IA. La vice-présidente exécutive, Margrethe Vestager, a déclaré lors de sa sortie: «Nous pensons que c’est urgent. Nous sommes les premiers sur cette planète à proposer ce cadre juridique. » Thierry Breton, un autre commissaire, a déclaré que les propositions «visent à renforcer la position de l’Europe en tant que pôle mondial d’excellence en IA du laboratoire au marché, à garantir que l’IA en Europe respecte nos valeurs et nos règles, et à exploiter le potentiel de l’IA à des fins industrielles. . »
C’est certainement mieux que de nombreux gouvernements nationaux, en particulier les États-Unis, qui stagnent sur le code de la route des entreprises, des agences gouvernementales et d’autres institutions. L’IA est déjà largement utilisée dans l’UE malgré une surveillance et une responsabilité minimales, que ce soit pour la surveillance à Athènes ou pour l’exploitation de bus à Malaga, en Espagne.
Mais qualifier la réglementation de l’UE de «leader» simplement parce qu’elle premier ne masque que les nombreux problèmes de la proposition. Ce genre de saut rhétorique est l’un des premiers défis de la stratégie démocratique d’IA.
Parmi les nombreux «Détails» dans la proposition de 108 pages, son approche de la réglementation de la reconnaissance faciale est particulièrement conséquente. «L’utilisation de systèmes d’IA pour l’identification biométrique à distance« en temps réel »de personnes physiques dans des espaces accessibles au public à des fins d’application de la loi», lit-on, «est considérée comme particulièrement intrusive dans les droits et libertés des personnes concernées», comme elle peut affecter la vie privée, «évoquer un sentiment de surveillance constante» et «dissuader indirectement l’exercice de la liberté de réunion et d’autres droits fondamentaux». À première vue, ces mots peuvent indiquer un alignement avec les préoccupations de nombreux militants et éthiciens de la technologie concernant les méfaits que la reconnaissance faciale peut infliger aux communautés marginalisées et les graves risques de surveillance de masse.
La commission déclare ensuite: «L’utilisation de ces systèmes à des fins d’application de la loi devrait donc être interdite.» Cependant, il autoriserait des exceptions dans «trois situations énumérées de manière exhaustive et étroitement définies». C’est là que les échappatoires entrent en jeu.
Les exceptions incluent les situations qui «impliquent la recherche de victimes potentielles de crimes, y compris des enfants disparus; certaines menaces à la vie ou à la sécurité physique des personnes physiques ou d’une attaque terroriste; et la détection, la localisation, l’identification ou la poursuite des auteurs ou des suspects des infractions pénales. » Ce langage, pour autant que les scénarios soient décrits comme «étroitement définis», offre une myriade de justifications aux forces de l’ordre pour déployer la reconnaissance faciale comme elles le souhaitent. Permettre son utilisation pour «l’identification» des «auteurs ou suspects» d’infractions pénales, par exemple, permettrait précisément le type d’utilisation discriminatoire d’algorithmes de reconnaissance faciale souvent racistes et sexistes contre lesquels les militants mettent en garde depuis longtemps.
Le chien de garde de l’UE en matière de protection de la vie privée, le contrôleur européen de la protection des données, a rapidement sauté sur cette question. «Une approche plus stricte est nécessaire étant donné que l’identification biométrique à distance, où l’IA peut contribuer à des développements sans précédent, présente des risques extrêmement élevés d’intrusion profonde et non démocratique dans la vie privée des individus», indique le communiqué du CEPD. Sarah Chander, de l’organisation à but non lucratif European Digital Rights, a décrit la proposition au Verge comme «un vernis de protection des droits fondamentaux». D’autres ont noté que ces exceptions reflétaient la législation des États-Unis qui, à première vue, semble restreindre l’utilisation de la reconnaissance faciale, mais qui comporte en fait de nombreuses exceptions générales.
.