Comment la convention européenne sur l’IA équilibre l’innovation et les droits de l’homme | Expliqué

Comment la convention européenne sur l’IA équilibre l’innovation et les droits de l’homme |  Expliqué

L’histoire jusqu’ici: La gouvernance mondiale de l’intelligence artificielle (IA) devient de plus en plus complexe alors même que les pays tentent de gouverner l’IA au sein de leurs frontières de diverses manières, allant des actes de loi aux décrets. De nombreux experts (ainsi que le Pape) ont élaboré un traité mondial à cet effet, mais les obstacles sur son chemin sont redoutables.

Qu’est-ce que la convention européenne sur l’IA ?

Bien qu’il existe de nombreuses lignes directrices éthiques, outils de « droit non contraignant » et principes de gouvernance inscrits dans de nombreux documents, aucun d’entre eux n’est contraignant ou n’est susceptible de déboucher sur un traité mondial. Il n’y a pas non plus de négociations en cours pour un traité sur l’IA aux niveaux mondial ou régional.

Dans ce contexte, le Conseil de l’Europe (COE) a fait un grand pas en adoptant le 17 mai la Convention-cadre sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit — également appelée « Convention sur l’IA ». organisation créée en 1949, qui compte aujourd’hui 46 membres, dont le Saint-Siège, le Japon et les États-Unis, ainsi que des pays du bloc européen et d’autres.

L’accord est une convention globale couvrant la gouvernance de l’IA et ses liens avec les droits de l’homme, la démocratie et l’utilisation responsable de l’IA. La convention-cadre sera ouverte à la signature à Vilnius, en Lituanie, le 5 septembre.

Qu’est-ce qu’une convention-cadre ?

Une « convention-cadre » est un traité juridiquement contraignant qui précise les engagements et les objectifs plus larges de la Convention et établit les mécanismes pour les atteindre. La tâche de fixer des objectifs spécifiques, si nécessaire, est laissée aux accords ultérieurs.

Les accords négociés dans le cadre de la convention-cadre seront appelés protocoles. Par exemple, la Convention sur la diversité biologique est une convention-cadre tandis que le Protocole de Cartagena sur la biosécurité est un protocole qui traite des organismes vivants modifiés. De même, à l’avenir, il pourrait y avoir un « Protocole sur les risques liés à l’IA » dans le cadre de la convention européenne sur l’IA.

Lire aussi  Annonce de GTA VI dès cette semaine, selon Bloomberg

L’approche de la convention-cadre est utile car elle permet une certaine flexibilité même si elle code les principes et processus fondamentaux par lesquels les objectifs doivent être réalisés. Les parties à la Convention ont toute latitude pour décider des moyens d’atteindre les objectifs, en fonction de leurs capacités et de leurs priorités.

La convention sur l’IA peut catalyser la négociation de conventions similaires au niveau régional dans d’autres endroits. Là encore, comme les États-Unis sont également membres du COE, la convention peut également affecter indirectement la gouvernance de l’IA aux États-Unis, ce qui est important car le pays est actuellement un foyer d’innovation en matière d’IA. Un inconvénient connexe (en quelque sorte) de la convention sur l’IA est qu’elle pourrait être perçue comme étant davantage influencée par les valeurs et les normes européennes en matière de gouvernance technologique.

Quelle est la portée de la convention ?

L’article 1 de la convention stipule :

« Les dispositions de cette Convention visent à garantir que les activités au cours du cycle de vie des systèmes d’intelligence artificielle soient pleinement compatibles avec les droits de l’homme, la démocratie et l’État de droit ».

La définition de l’IA est similaire à celle de l’EU AI Act, qui est basée sur la définition de l’IA de l’OCDE : « Un système d’IA est un système basé sur une machine qui, pour des objectifs explicites ou implicites, déduit, à partir des informations qu’il reçoit , comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels.

Lire aussi  Comment la structure bizarre d'OpenAI a donné à 4 personnes le pouvoir de licencier Sam Altman

L’article 3 stipule :

« Le champ d’application de cette Convention couvre les activités au cours du cycle de vie des systèmes d’intelligence artificielle qui sont susceptibles d’interférer avec les droits de l’homme, la démocratie et l’État de droit comme suit :

un. Chaque partie applique la présente convention aux activités menées au cours du cycle de vie des systèmes d’intelligence artificielle par les autorités publiques ou des acteurs privés agissant en leur nom.

b. Chaque Partie traite les risques et les impacts découlant des activités menées par des acteurs privés au cours du cycle de vie des systèmes d’intelligence artificielle dans la mesure non couverte par le sous-paragraphe a, d’une manière conforme à l’objet et au but de la présente Convention.

Comment le texte aborde-t-il la sécurité nationale ?

Exclure le secteur privé du champ d’application de la convention était une question controversée, et le texte reflète le compromis qui a dû être trouvé entre deux positions contrastées : une exemption totale pour le secteur privé et aucune exemption. L’article 3(b) accorde aux Parties une certaine flexibilité en la matière, mais sans leur permettre d’exempter complètement le secteur privé.

En outre, les exemptions prévues aux articles 3.2, 3.3 et 3.4 sont larges et concernent respectivement la protection des intérêts de sécurité nationale, la recherche, le développement et les essais, et la défense nationale. En conséquence, les applications militaires de l’IA ne sont pas couvertes par la convention sur l’IA. Bien que ce soit un sujet de préoccupation, il s’agit d’une décision pragmatique étant donné l’absence de consensus sur la réglementation de telles applications. En fait, les exemptions des articles 3.2 et 3.3 – bien que larges – n’excluent pas complètement l’applicabilité de la convention en matière de sécurité nationale et pour les tests, respectivement.

Enfin, les « obligations générales » de la convention concernent la protection des droits de l’homme (article 4), l’intégrité des processus démocratiques et le respect de l’État de droit (article 5). Bien que la désinformation et les deep fakes n’aient pas été spécifiquement abordées, les parties à la convention sont censées prendre des mesures à leur encontre en vertu de l’article 5 – tout comme elles sont censées évaluer l’utilisation de l’IA et son atténuation.

Lire aussi  Comment ces chatbots alimentés par l'IA continuent de s'améliorer

En fait, la convention indique également (à l’article 22) que les Parties peuvent aller au-delà des engagements et obligations spécifiés.

Pourquoi avons-nous besoin de la convention sur l’IA ?

La Convention sur l’IA ne crée pas de droits humains nouveaux et/ou substantiels spécifiques à l’IA. Au lieu de cela, il affirme que les droits humains et fondamentaux existants qui sont protégés par les lois internationales et nationales devront également rester protégés pendant l’application des systèmes d’IA. Les obligations s’adressent principalement aux gouvernements, qui sont censés mettre en place des recours efficaces (article 14) et des garanties procédurales (article 15).

Dans l’ensemble, la convention adopte une approche globale pour atténuer les risques liés à l’application et à l’utilisation des systèmes d’IA pour les droits de l’homme, la démocratie et l’État de droit. Sa mise en œuvre comportera forcément de nombreux défis, en particulier à une époque où les régimes de réglementation de l’IA ne sont pas encore pleinement établis et où la technologie continue de devancer la loi et la politique.

Cependant – et bien que la notion européenne d’État de droit puisse être discutée – la convention elle-même est une nécessité du moment en raison de l’équilibre qu’elle codifie entre l’innovation dans l’IA et les risques pour les droits de l’homme.

Krishna Ravi Srinivas est professeur adjoint de droit à l’Université de droit NALSAR d’Hyderabad et chercheur associé au CeRAI de l’IIT Madras.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick