Dans le cadre de son rôle émergent en tant que chien de garde réglementaire mondial, la Commission européenne a publié le 21 avril une proposition de réglementation régissant l’utilisation de l’intelligence artificielle dans l’Union européenne.
Les enjeux économiques sont importants: la Commission prédit Les investissements publics et privés européens dans l’IA atteignant 20 milliards d’euros par an cette décennie, et c’était avant l’affectation supplémentaire de 134 milliards d’euros allouée aux transitions numériques dans le fonds européen de relance de la pandémie Covid-19, dont certains, selon la Commission, financeront L’IA aussi. Ajoutez à cela le comptage des investissements dans l’IA en dehors de l’UE mais qui ciblent les résidents de l’UE, car ces règles s’appliqueront à toute utilisation de l’IA dans l’UE, pas seulement par les entreprises ou les gouvernements basés dans l’UE.
Les choses ne vont pas changer du jour au lendemain: la proposition de règles d’IA de l’UE est le résultat de trois années de travail de bureaucrates, d’experts du secteur et de consultations publiques et doit passer par le Parlement européen – qui l’a demandé – avant qu’elle ne devienne loi. Les États membres de l’UE mettent alors souvent des années à transposer les réglementations au niveau de l’UE dans leurs codes juridiques nationaux.
La proposition définit quatre niveaux pour les activités liées à l’IA et différents niveaux de surveillance pour chacun. Le premier niveau est risque inacceptable: certaines utilisations de l’IA seraient carrément interdites dans les espaces publics, avec des exceptions spécifiques accordées par les lois nationales et soumises à une surveillance supplémentaire et à une exploitation forestière et humaine plus stricte. L’activité d’intelligence artificielle à interdire qui a probablement attiré le plus d’attention est l’identification biométrique à distance en temps réel, c’est-à-dire la reconnaissance faciale. La proposition interdit également la modification de comportement subliminale et les applications de notation sociale. La proposition suggère des amendes pouvant atteindre 6% des revenus annuels mondiaux des contrevenants commerciaux.
La proposition définit ensuite un risque élevé catégorie, déterminée par le but du système et le potentiel et la probabilité de préjudice. Les exemples énumérés dans la proposition comprennent le recrutement de postes, les vérifications de crédit et le système judiciaire. Les règles exigeraient que ces applications d’IA utilisent des ensembles de données de haute qualité, documentent leur traçabilité, partagent des informations avec les utilisateurs et tiennent compte de la surveillance humaine. L’UE créerait un registre central de ces systèmes conformément aux règles proposées et exigerait une approbation avant leur déploiement.
Risque limité les activités, telles que l’utilisation de chatbots ou de deepfakes sur un site Web, auront moins de surveillance, mais nécessiteront une étiquette d’avertissement, pour permettre aux utilisateurs de s’inscrire ou de se désinscrire. Enfin, il y a un niveau pour les applications jugées présenter risque minimal.
Comme cela arrive souvent lorsque les gouvernements proposent de nouveaux manuels de règles denses (celui-ci fait 108 pages), les premières réactions de l’industrie et des groupes de la société civile semblent porter davantage sur l’existence et la portée de la surveillance de l’industrie que sur le contenu spécifique des règles. Un groupe de réflexion financé par la technologie a déclaré au Wall Street Journal qu’il pourrait devenir «impossible de créer une IA en Europe». À leur tour, des groupes de la société civile axés sur la protection de la vie privée tels que European Digital Rights (EDRi) ont déclaré dans un communiqué que «le règlement permet une trop large marge d’autorégulation par les entreprises».
«Je pense que l’une des idées qui sous-tendent ce règlement consistait à essayer d’équilibrer les risques, d’intéresser les gens à l’IA et de regagner leur confiance», déclare Lisa-Maria Neudert, chercheuse en gouvernance de l’IA à l’Université d’Oxford, en Angleterre, et au Weizenbaum Institut à Berlin, en Allemagne. Un sondage de 2019 de la Lloyds Register Foundation a révélé que le public mondial est à peu près partagé entre la peur et l’excitation à propos de l’IA.
«Je peux imaginer que cela pourrait aider si vous avez une grande équipe juridique expérimentée,» pour aider à la conformité, dit Neudert, et cela peut être «un équilibre difficile à trouver» entre des règles qui restent favorables aux startups et réussissent à maîtriser les méga – les sociétés.
Les chercheurs en IA Mona Sloane et Andrea Renda écrivent dans VentureBeat que les règles sont plus faibles sur la surveillance du fonctionnement de l’IA après l’approbation et le lancement, négligeant «une caractéristique cruciale du risque lié à l’IA: qu’il est omniprésent, et qu’il est émergent, souvent en évolution. de manière imprévisible après son développement et son déploiement. »
L’Europe a déjà appris de l’impact de son vaste règlement général sur la protection des données (RGPD) de 2018 sur la technologie mondiale et la confidentialité. Oui, certains sites Web externes fournissent toujours aux Européens une page leur indiquant que les propriétaires de sites Web ne peuvent pas être dérangés de se conformer au RGPD, de sorte que les Européens ne peuvent voir aucun contenu. Mais la plupart ont trouvé un moyen de s’adapter pour atteindre ce marché unifié de 448 millions de personnes.
«Je ne pense pas que nous devrions généraliser [from GDPR to the proposed AI rules], mais il est juste de supposer qu’une mesure législative aussi importante aura des effets au-delà de l’UE », déclare Neudert. Il sera plus facile pour les législateurs d’autres pays de suivre un modèle que de reproduire le lourd investissement de l’UE dans la recherche, l’engagement communautaire et la rédaction de règles.
Alors que les entreprises de technologie et leurs groupes industriels peuvent se plaindre de la nécessité de se conformer aux règles naissantes de l’IA, le chroniqueur de Register Rupert Goodwin suggère qu’ils feraient mieux de se concentrer sur la formation des groupes industriels qui façonneront la mise en œuvre et l’application des règles à l’avenir. : «Vous êtes peut-être déjà dans l’une des organisations de l’industrie pour l’éthique ou l’évaluation de l’IA; sinon, considérez-les comme les graines à partir desquelles l’influence se développera. »