Le PDG d’OpenAI témoigne devant le sous-comité judiciaire du Sénat américain et appelle à la réglementation de l’IA

Le PDG d’OpenAI témoigne devant le sous-comité judiciaire du Sénat américain et appelle à la réglementation de l’IA

Des experts en intelligence artificielle, dont le développeur de ChatGPT et un responsable de la confidentialité chez IBM, ont appelé le gouvernement américain à réglementer l’industrie, notamment en créant éventuellement une agence de surveillance internationale, pour s’assurer que la technologie naissante est contrôlée.

“Nous pensons que les avantages des outils que nous avons déployés jusqu’à présent l’emportent largement sur les risques”, a déclaré Sam Altman, PDG du développeur ChatGPT OpenAi, lors d’une audience du comité du Sénat américain ce matin. Mais, a-t-il ajouté, “si cette technologie tourne mal, elle peut mal tourner.”

Les États-Unis “pourraient envisager une combinaison d’exigences en matière de licences et de tests pour le développement et la publication de modèles d’IA au-dessus d’un seuil de capacités”, a-t-il déclaré. Les modèles d’IA les plus puissants doivent respecter un ensemble d’exigences de sécurité, ce qui peut nécessiter une coopération mondiale, a-t-il ajouté.

“Nous pouvons et devons travailler ensemble pour identifier et gérer les inconvénients potentiels afin que nous puissions tous profiter des énormes avantages.”

Gary Marcus, professeur de psychologie et fondateur de plusieurs sociétés d’IA, qui craignait que les criminels “ne créent des personnes contrefaites”, a déclaré jusqu’à présent, nous ne savons pas si les avantages de l’IA l’emporteront sur les risques. “Fondamentalement, ces nouveaux systèmes seront déstabilisants”, a déclaré Marcus. “Ils peuvent et vont créer des mensonges déstabilisants à une échelle que l’humanité n’a jamais vue auparavant.

«Nous avons probablement besoin d’une organisation au niveau du cabinet aux États-Unis pour résoudre ce problème. Mon raisonnement est que le nombre de risques est important, la quantité d’informations à suivre est tellement importante, je pense que nous avons besoin de beaucoup d’expertise technique, nous avons besoin de beaucoup de coordination de ces efforts.

En plus de cela, il a suggéré la création d’une organisation internationale de sécurité de l’IA similaire au CERN, l’organisation européenne pour la recherche nucléaire. Des chercheurs indépendants devraient superviser les essais cliniques des systèmes d’IA avant qu’ils ne soient rendus publics, a-t-il déclaré.

Christina Montgomery, responsable de la confidentialité et de la confiance chez IBM, a déclaré que la société exhorte le Congrès à adopter “une approche de réglementation de précision pour l’IA”. Cela signifie établir des règles pour régir le déploiement de l’IA dans des cas d’utilisation spécifiques, et non réglementer la technologie elle-même. Cela signifierait créer les réglementations les plus strictes pour les cas d’utilisation présentant les plus grands risques pour les personnes ; définir clairement les risques élevés ; assurer la transparence afin que les consommateurs sachent quand ils interagissent avec un système d’IA ; et obliger les entreprises à mener des évaluations d’impact pour les systèmes à haut risque afin de montrer leurs performances par rapport aux tests de partialité.

Lire aussi  La star de Batgirl, Leslie Grace, remercie les fans, les réalisateurs sont "choqués" par la suppression du film

Les trois témoignaient devant le sous-comité judiciaire du Sénat sur la vie privée, la technologie et la loi. L’audience est la première de plusieurs que le sous-comité tiendra sur la réglementation éventuelle des systèmes d’IA aux États-Unis. Plusieurs sénateurs ont déclaré que le Congrès ne devrait pas commettre l’erreur qu’il a commise il y a des années en accordant l’immunité légale aux services informatiques en ligne basés aux États-Unis, tels que les médias sociaux, pour le contenu créé par les utilisateurs.

Dans son allocution d’ouverture aujourd’hui, le président du sous-comité, le sénateur Richard Blumenthal, a déclaré que le Congrès n’avait pas réussi à prendre le contrôle des médias sociaux “et le résultat est des prédateurs sur Internet, du contenu toxique, l’exploitation des enfants… Maintenant, nous avons l’obligation de le faire sur l’IA avant les menaces et les risques deviennent réels. Il a appelé à des “garanties raisonnables”, qui, a-t-il ajouté, ne sont pas un fardeau pour l’innovation.

Blumenthal avait sa propre liste de réglementations fédérales possibles, y compris la transparence (les entreprises d’IA devraient être tenues de tester leurs systèmes, de divulguer les risques connus et d’autoriser l’accès au système aux chercheurs indépendants) ; la création de tableaux de bord des biais similaires aux étiquettes nutritionnelles sur les aliments ; limiter ou interdire l’utilisation de l’IA là où elle pourrait affecter la vie privée et les moyens de subsistance des personnes ; et la responsabilité, ce qui signifie que les entreprises peuvent être légalement responsables des dommages. Ce dernier, a-t-il ajouté, “pourrait être l’outil le plus puissant de tous”

“L’industrie de l’IA n’a pas à attendre le Congrès” pour être proactive, a-t-il ajouté.

Marcus était le plus alarmiste, citant des reportages sur un système d’IA qui conseillait à un jeune de 13 ans comment mentir à ses parents pour partir en voyage avec un inconnu. « Les systèmes actuels ne sont pas transparents », s’est-il plaint, « ils ne protègent pas adéquatement notre vie privée et ils continuent de perpétuer les préjugés. Même leur créateur ne comprend pas entièrement comment ils fonctionnent. Surtout, nous ne pouvons pas garantir à distance qu’ils sont sûrs. L’espoir ici ne suffit pas. Le plan préféré des grandes entreprises technologiques consiste à dire : « Faites-nous confiance ». Mais pourquoi devrions-nous? Les sommes d’argent en jeu sont ahurissantes »

Lire aussi  L'ASX devrait augmenter à mesure que les marchés mondiaux progressent ; Wall Street fermée

L’audience a également eu lieu 12 jours après que l’administration Biden a rencontré OpenAI et les PDG d’Alphabet, Anthropic et Microsoft pour discuter des problèmes d’IA. La Maison Blanche a également publié cinq principes pour une utilisation responsable de l’IA.

Par ailleurs, un comité du Parlement canadien devrait bientôt entamer des audiences sur un projet de loi sur l’IA et le Parlement européen s’est rapproché de la création d’une loi sur l’IA.

L’audience intervient au milieu d’une division entre les chercheurs en IA et en informatique après le lancement public en novembre dernier de ChatGPT-3. [It’s now in version 4.] Certains ont été éblouis par sa capacité à répondre aux requêtes de recherche avec des paragraphes de texte ou des organigrammes, par opposition aux listes de liens émises par d’autres moteurs de recherche. D’autres, cependant, ont été consternés par les erreurs de ChatGPT et son imagination apparemment folle, et son potentiel à être utilisé pour aider les étudiants à tricher, les cybercriminels à écrire de meilleurs logiciels malveillants et les États-nations à créer de la désinformation.

En mars, des experts en IA du monde entier ont signé une lettre ouverte appelant à un arrêt de six mois du développement de systèmes d’IA avancés. Les signataires craignent que “les systèmes d’IA dotés d’une intelligence compétitive humaine puissent poser de graves risques pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA”.

Pendant ce temps, un groupe d’experts canadiens a exhorté le Parlement à adopter rapidement la législation proposée par ce pays sur l’IA, affirmant que, quelles que soient les imperfections possibles, “le rythme auquel l’IA se développe nécessite désormais une action rapide”.

Certains problèmes peuvent être résolus sans législation, comme interdire aux employés qui utilisent ChatGPT ou des systèmes d’IA génératifs similaires de charger des données sensibles sur les clients ou l’entreprise dans les systèmes. Samsung a été contraint d’émettre une telle interdiction.

Mis à part le problème de la définition d’un système d’IA, le projet de loi canadienne sur les données d’intelligence artificielle dit “système d’intelligence artificielledésigne un système technologique qui, de manière autonome ou partiellement autonome, traite des données liées aux activités humaines par l’utilisation d’un algorithme génétique, d’un réseau de neurones, de l’apprentissage automatique ou d’une autre technique afin de générer du contenu ou de prendre des décisions, des recommandations ou des prédictions » — il y a des questions sur ce que les systèmes d’IA peuvent être autorisés ou interdits de faire.

Lire aussi  Solutions comptables basées sur le cloud pour les PME

Bien qu’il n’y ait pas encore de projet, le Parlement européen a été chargé de créer une loi avec un certain nombre d’interdictions, y compris l’utilisation de systèmes d’identification biométrique à distance « en temps réel » dans les espaces accessibles au public.

La législation canadienne proposée stipule qu’une personne responsable d’un système d’IA à fort impact – qui n’a pas encore été défini – doit, conformément à des réglementations non encore publiées, “établir des mesures pour identifier, évaluer et atténuer les risques de préjudice ou de sortie biaisée qui pourrait résulter de l’utilisation du système.

Johannes Ullrich, doyen de la recherche au SANS Technology Institute, a déclaré Monde informatique Canada qu’il y a beaucoup de questions autour de la transparence des modèles d’IA. Ceux-ci incluent d’où ils obtiennent les données de formation et comment tout biais dans les données de formation affecte la précision des résultats.

“Nous avons déjà eu des problèmes avec le biais des données de formation dans la reconnaissance faciale et d’autres modèles d’apprentissage automatique”, a-t-il écrit dans un e-mail. “Ils n’ont pas été bien traités dans le passé. La nature opaque d’un grand modèle AI/ML rend difficile l’évaluation de tout biais introduit dans ces modèles.

“Les moteurs de recherche plus traditionnels conduiront les utilisateurs à la source des données, alors qu’actuellement, les grands modèles ML sont un peu aléatoires en essayant d’obtenir des sources originales.

“L’autre grande question en ce moment concerne les droits de propriété intellectuelle”, a-t-il déclaré. Les modèles d’IA ne créent généralement pas de nouveau contenu original, mais ils représentent des données dérivées de travaux existants. “Sans proposer de citations, les auteurs de l’œuvre originale ne sont pas crédités, et il est possible que les modèles aient utilisé des données d’entraînement qui leur étaient propriétaires ou qu’ils n’étaient pas autorisés à utiliser sans référencer la source (par exemple, beaucoup de licences creative commons nécessitent ces références.) »

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick