L’UE veut mettre les entreprises sur le compte de l’IA nuisible

L’UE veut mettre les entreprises sur le compte de l’IA nuisible

Le nouveau projet de loi, appelé directive sur la responsabilité en matière d’IA, ajoutera du mordant à la loi de l’UE sur l’IA, qui devrait devenir une loi de l’UE à peu près au même moment. La loi sur l’IA exigerait des vérifications supplémentaires pour les utilisations «à haut risque» de l’IA qui ont le plus de potentiel de nuire aux personnes, y compris les systèmes de police, de recrutement ou de soins de santé.

Le nouveau projet de loi sur la responsabilité donnerait aux particuliers et aux entreprises le droit de poursuivre en dommages-intérêts après avoir été lésés par un système d’IA. L’objectif est de responsabiliser les développeurs, les producteurs et les utilisateurs des technologies et de leur demander d’expliquer comment leurs systèmes d’IA ont été construits et formés. Les entreprises technologiques qui ne respectent pas les règles s’exposent à des recours collectifs à l’échelle de l’UE.

Par exemple, les demandeurs d’emploi qui peuvent prouver qu’un système d’IA pour filtrer les CV les a discriminatoires peuvent demander à un tribunal de forcer la société d’IA à leur donner accès aux informations sur le système afin qu’ils puissent identifier les responsables et découvrir ce qui n’a pas fonctionné. Armés de ces informations, ils peuvent poursuivre.

La proposition doit encore se frayer un chemin à travers le processus législatif de l’UE, ce qui prendra au moins quelques années. Il sera amendé par les membres du Parlement européen et des gouvernements de l’UE et fera probablement l’objet d’un intense lobbying de la part des entreprises technologiques, qui prétendent que de telles règles pourraient avoir un effet « paralysant » sur l’innovation.

Lire aussi  ChatGPT a aidé à gagner un hackathon

Qu’elle réussisse ou non, cette nouvelle législation européenne aura un effet d’entraînement sur la manière dont l’IA est réglementée dans le monde.

En particulier, le projet de loi pourrait avoir un impact négatif sur le développement de logiciels, déclare Mathilde Adjutor, responsable des politiques européennes pour le groupe de lobbying technologique CCIA, qui représente des entreprises telles que Google, Amazon et Uber.

Selon les nouvelles règles, “les développeurs risquent non seulement d’être tenus responsables des bogues logiciels, mais aussi de l’impact potentiel des logiciels sur la santé mentale des utilisateurs”, dit-elle.

Imogen Parker, directrice associée des politiques à l’Ada Lovelace Institute, un institut de recherche sur l’IA, affirme que le projet de loi déplacera le pouvoir des entreprises vers les consommateurs – une correction qu’elle considère comme particulièrement importante étant donné le potentiel de discrimination de l’IA. Et le projet de loi garantira que lorsqu’un système d’IA cause des dommages, il existe un moyen commun de demander une indemnisation dans toute l’UE, déclare Thomas Boué, responsable de la politique européenne pour le lobby technologique BSA, dont les membres incluent Microsoft et IBM.

Cependant, certaines organisations de défense des droits des consommateurs et des militants affirment que les propositions ne vont pas assez loin et placeront la barre trop haut pour les consommateurs qui souhaitent porter plainte.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick