Les règles européennes en matière d’intelligence artificielle, parmi les meilleures au monde, sont confrontées à un moment décisif

Les règles européennes en matière d’intelligence artificielle, parmi les meilleures au monde, sont confrontées à un moment décisif

Saluées comme une première mondiale, les règles de l’Union européenne en matière d’intelligence artificielle sont confrontées à un moment décisif alors que les négociateurs tentent de régler les derniers détails cette semaine – des discussions compliquées par la montée soudaine de l’IA générative qui produit un travail semblable à celui des humains.

Proposée pour la première fois en 2019, la loi de l’UE sur l’IA devait être la première réglementation globale sur l’IA au monde, renforçant ainsi la position du bloc de 27 pays en tant que pionnier mondial en matière de contrôle de l’industrie technologique.

Mais le processus a été entravé par une bataille de dernière minute sur la manière de gouverner les systèmes qui sous-tendent les services d’IA à usage général comme ChatGPT d’OpenAI et le chatbot Bard de Google. Les grandes entreprises technologiques font pression contre ce qu’elles considèrent comme une réglementation excessive qui étouffe l’innovation, tandis que les législateurs européens souhaitent des garanties supplémentaires pour les systèmes d’IA de pointe que ces entreprises développent.

Pendant ce temps, les États-Unis, le Royaume-Uni, la Chine et des coalitions mondiales comme le Groupe des 7 grandes démocraties se sont joints à la course pour élaborer des garde-fous pour cette technologie en développement rapide, soulignés par les avertissements des chercheurs et des groupes de défense des droits de l’homme. les dangers existentiels que représente l’IA générative représente pour l’humanité ainsi que les risques pour la vie quotidienne.

(Pour les principales nouvelles technologiques du jour, s’abonner à notre newsletter technique Today’s Cache)

“Plutôt que la loi sur l’IA ne devienne la référence mondiale en matière de réglementation de l’IA, il y a une petite chance, mais une chance croissante, qu’elle ne soit pas adoptée avant les élections du Parlement européen” l’année prochaine, a déclaré Nick Reiners, analyste des politiques technologiques chez Eurasia Group. une société de conseil en risques politiques.

Lire aussi | L’Allemagne, la France et l’Italie parviennent à un accord sur la future réglementation de l’IA

Il a déclaré qu’« il y avait tout simplement tellement de choses à régler » lors de ce que les responsables espèrent être un dernier cycle de négociations mercredi. Même s’ils travaillent tard dans la nuit comme prévu, ils devront peut-être se démener pour terminer au cours de la nouvelle année, a déclaré Reiners.

Lire aussi  La "crise climatique" est entrée dans l'Oxford English Dictionary

Lorsque la Commission européenne, l’organe exécutif de l’UE, a dévoilé le projet en 2021, elle mentionnait à peine les systèmes d’IA à usage général comme les chatbots. La proposition de classer les systèmes d’IA selon quatre niveaux de risque – de minime à inacceptable – était essentiellement conçue comme une législation sur la sécurité des produits.

Bruxelles souhaitait tester et certifier les informations utilisées par les algorithmes qui alimentent l’IA, à l’instar des contrôles de sécurité des consommateurs sur les cosmétiques, les voitures et les jouets.

Cela a changé avec l’essor de l’IA générative, qui a suscité l’émerveillement en composant de la musique, en créant des images et en écrivant des essais ressemblant au travail humain. Cela a également alimenté les craintes que cette technologie puisse être utilisée pour lancer des cyberattaques massives ou créer de nouvelles armes biologiques.

Ces risques ont conduit les législateurs européens à renforcer la loi sur l’IA en l’étendant aux modèles de fondation. Également connus sous le nom de grands modèles de langage, ces systèmes sont formés sur de vastes quantités d’œuvres écrites et d’images récupérées sur Internet.

Les modèles de base donnent aux systèmes d’IA générative tels que ChatGPT la capacité de créer quelque chose de nouveau, contrairement à l’IA traditionnelle, qui traite les données et accomplit les tâches en utilisant des règles prédéterminées.

Chaos le mois dernier à OpenAI, soutenu par Microsoftqui a construit l’un des modèles de base les plus célèbres, GPT-4, a renforcé pour certains dirigeants européens les dangers de permettre à quelques entreprises dominantes d’IA de se contrôler elles-mêmes.

Alors que le PDG Sam Altman a été licencié et rapidement réembauché, certains membres du conseil d’administration, profondément réservés quant aux risques de sécurité posés par l’IA, ont quitté l’entreprise, signalant que la gouvernance d’entreprise de l’IA pourrait devenir la proie de la dynamique des conseils d’administration.

“Au moins, les choses sont désormais claires” : des entreprises comme OpenAI défendent leurs entreprises et non l’intérêt public, a déclaré le commissaire européen Thierry Breton lors d’une conférence sur l’IA en France quelques jours après le tumulte.

Lire aussi  Les plus grandes actualités scientifiques de 2023, choisies par New Scientist

La résistance aux règles gouvernementales concernant ces systèmes d’IA est venue d’un endroit improbable : la France, l’Allemagne et l’Italie. Les trois plus grandes économies de l’UE ont réagi avec un document de position plaidant en faveur de l’autorégulation.

Ce changement d’avis a été considéré comme une mesure visant à aider les acteurs locaux de l’IA générative tels que la startup française Mistral AI et l’allemand Aleph Alpha.

Derrière cela, “il y a une détermination à ne pas laisser les entreprises américaines dominer l’écosystème de l’IA comme elles l’ont fait dans les vagues précédentes de technologies telles que le cloud (informatique), le commerce électronique et les médias sociaux”, a déclaré Reiners.

Un groupe d’informaticiens influents a publié une lettre ouverte avertissant qu’un tel affaiblissement de la loi sur l’IA serait « un échec historique ». Pendant ce temps, les dirigeants de Mistral se sont disputés en ligne avec un chercheur d’une organisation à but non lucratif soutenue par Elon Musk qui vise à prévenir le « risque existentiel » lié à l’IA.

L’IA est « trop importante pour ne pas être réglementée, et trop importante pour ne pas être bien réglementée », a déclaré Kent Walker, directeur juridique de Google, dans un discours prononcé à Bruxelles la semaine dernière. “La course devrait porter sur les meilleures réglementations en matière d’IA, et non sur les premières réglementations en matière d’IA.”

Les modèles de fondation, utilisés pour un large éventail de tâches, s’avèrent être la question la plus épineuse pour les négociateurs de l’UE, car leur réglementation “va à l’encontre de la logique de l’ensemble de la loi”, qui repose sur les risques posés par des utilisations spécifiques, a déclaré Iverna McGowan, directrice du Bureau européen du Centre pour la démocratie et la technologie, organisation à but non lucratif spécialisée dans les droits numériques.

La nature des systèmes d’IA à usage général signifie que « vous ne savez pas comment ils sont appliqués », a-t-elle déclaré. Dans le même temps, des réglementations sont nécessaires « parce que sinon, tout au long de la chaîne alimentaire, il n’y a aucune responsabilité » lorsque d’autres entreprises construisent des services avec elles, a déclaré McGowan.

Altman a proposé une agence américaine ou mondiale qui accorderait des licences aux systèmes d’IA les plus puissants. Il a suggéré cette année qu’OpenAI pourrait quitter l’Europe s’il ne pouvait pas se conformer aux règles de l’UE, mais il est rapidement revenu sur ces commentaires.

Lire aussi  La FTC porte plainte pour arrêter l'achat d'Activision de 69 milliards de dollars par Microsoft

Aleph Alpha a déclaré qu’une « approche équilibrée est nécessaire » et a soutenu l’approche européenne basée sur les risques. Mais elle n’est « pas applicable » aux modèles de fondation, qui nécessitent des réglementations « plus flexibles et plus dynamiques », a déclaré la société allemande d’IA.

Lire aussi | L’Inde se tourne vers l’IA pour capturer ses 121 langues

Les négociateurs de l’UE doivent encore résoudre quelques autres points controversés, notamment une proposition visant à interdire complètement la reconnaissance faciale publique en temps réel. Les pays souhaitent une exemption afin que les forces de l’ordre puissent l’utiliser pour retrouver des enfants disparus ou des terroristes, mais les groupes de défense des droits craignent que cela ne crée effectivement une base juridique pour la surveillance.

Les trois branches du gouvernement de l’UE sont confrontées mercredi à l’une de leurs dernières chances de parvenir à un accord.

Même s’ils le font, les 705 législateurs du bloc doivent encore approuver la version finale. Ce vote doit avoir lieu d’ici avril, avant de commencer la campagne pour les élections européennes de juin. La loi n’entrerait pas en vigueur avant une période de transition, généralement de deux ans.

S’ils ne peuvent pas arriver à temps, la législation sera suspendue jusqu’à la fin de l’année prochaine, après l’entrée en fonction de nouveaux dirigeants européens, qui pourraient avoir des points de vue différents sur l’IA.

“Il y a de fortes chances que ce soit effectivement le dernier, mais il y a également des chances que nous ayons encore besoin de plus de temps pour négocier”, a déclaré Dragos Tudorache, un législateur roumain co-dirigeant les négociations sur la loi sur l’IA au Parlement européen, lors d’un panel. discussion la semaine dernière.

Son bureau a indiqué qu’il n’était pas disponible pour un entretien.

“C’est encore une conversation très fluide”, a-t-il déclaré lors de l’événement à Bruxelles. “Nous allons vous laisser deviner jusqu’au tout dernier moment.”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick