ChatGPT, le nouveau chatbot IA génératif créé par OpenAI, est sorti il y a moins de cinq mois, mais il est déjà devenu l’application Internet à la croissance la plus rapide de l’histoire. Il est presque assez puissant pour effectuer certains travaux de cols blancs. New York Times le chroniqueur Farhad Manjoo dit que cela a déjà changé sa façon de faire.
Malgré tous les discours sur le potentiel de l’IA, les personnes qui le comprennent le mieux sont effrayées par la rapidité avec laquelle la technologie s’accélère. D’une part, cela pourrait inaugurer une ère de santé et de bonheur humains sans précédent. D’autre part, il a le potentiel de perturbations économiques massives, d’affaiblissement de la sécurité nationale et d’érosion de la vie privée.
La situation empire : dans une enquête menée l’année dernière auprès d’experts en IA, près de la moitié d’entre eux ont déclaré que la probabilité que l’IA conduise à l’extinction humaine était de 10 % ou plus. Même Elon Musk, membre fondateur d’OpenAI et rarement considéré comme préoccupé par les conséquences, a déclaré la semaine dernière que l’IA “a le potentiel de détruire la civilisation”.
Nous sommes à un point d’inflexion avec l’IA. Les nouvelles technologies exigent de nouvelles réglementations. Mais le développement de l’IA dépasse la capacité des régulateurs à agir, voire à comprendre. Pour éviter les pires résultats possibles, les dirigeants doivent écouter les experts qui peuvent anticiper les ramifications et réglementer maintenant, avant qu’il ne soit trop tard.
Nous avons déjà vu ce spectacle. Les partisans des révolutions industrielle et numérique ont fait miroiter des visions utopiques devant nos yeux tout en évitant les réglementations qui auraient assuré un changement plus sûr et plus équitable. En conséquence, nous sommes toujours en train de découvrir et de nettoyer des sites de déchets industriels des années 1800, et nous commençons seulement à comprendre comment notre incapacité à réglementer les crises de démocratie et de santé publique créées par les médias sociaux.
L’IA est peut-être notre révolution la plus menaçante à ce jour. Le PDG de Google, Sundar Pichai, a déclaré que l’impact de l’IA serait “plus profond que le feu”. Mais même les hommes des cavernes ont compris que jouer avec le feu peut avoir des conséquences au troisième degré.
Le gouvernement des États-Unis est terriblement mal équipé pour faire face à la menace existentielle de l’IA. Le représentant républicain Jay Obernolte, le seul membre du Congrès titulaire d’une maîtrise en IA, doit expliquer à ses collègues que la menace “ne viendra pas de robots maléfiques avec des lasers rouges”. Le Congrès n’est clairement pas prêt à légiférer.
Mais nous ne pouvons pas laisser la complexité de l’IA nous empêcher d’agir aujourd’hui pendant que nous démêlons les questions plus larges auxquelles nous serons confrontés demain. Comme nous le rappelle le représentant Ted Lieu, nous ne comprenons pas entièrement toutes les façons dont les produits pharmaceutiques améliorent la santé, mais la FDA réglemente toujours la fabrication de médicaments pour assurer notre sécurité.
Une première étape essentielle consiste à s’assurer que l’IA ne soit pas victime des mêmes pratiques monopolistiques qui ont sapé le premier âge d’Internet. La présidente de la FTC, Lina Khan, prépare déjà l’agence à surveiller les violations des lois antitrust afin de s’assurer que la technologie n’est pas dangereusement concentrée entre trop peu de mains.
L’administration Biden a pris des mesures pour poser des questions et mieux s’informer. Le département du Commerce sollicite les commentaires du public alors qu’il envisage des mesures pour réglementer l’IA. Et l’année dernière, la Maison Blanche a dévoilé un plan directeur pour une déclaration des droits de l’IA, mais les critiques ont noté que ses protections sont “édentées” et “inégales”.
Alors que le gouvernement recueille des informations sur cette nouvelle technologie, il ne peut pas commettre l’erreur de privilégier les voix de l’industrie technologique qui fait déjà pression contre la réglementation. Au lieu de cela, il devrait se tourner vers des États comme la Californie et le Texas, qui réglementent les outils d’IA pour protéger les droits civils et exiger la transparence.
Mieux encore, regardez à l’étranger. Comme d’habitude, l’Europe est en avance sur nous en matière de réglementation. ChatGPT est sorti il y a seulement six mois, mais plusieurs pays de l’UE enquêtent déjà sur les problèmes de confidentialité. L’Italie l’a purement et simplement interdit.
Un groupe de responsables de l’UE a appelé le président Biden à convoquer un sommet pour encourager la collaboration sur des solutions mondiales. La Maison Blanche devrait accepter cette invitation.
La semaine dernière, deux experts en IA de L’économiste a appelé à une « Agence internationale pour l’IA » pour coordonner une réponse mondiale, un peu comme l’Agence internationale de l’énergie atomique. Mais, comme le note Robert Wright, le problème n’a pas besoin d’atteindre les niveaux nucléaires pour mériter une gouvernance mondiale. Aucun pays ne veut être le premier à intervenir et à réglementer. C’est pourquoi nous devrions le faire ensemble.
Compte tenu de la vitesse époustouflante à laquelle l’IA évolue, il est peu probable que nous trouvions une solution unique. S’attaquer à la menace potentielle de l’IA exigera l’humilité d’admettre ce que nous ne savons pas, et une volonté de tenir compte des critiques des sceptiques autant que des promesses des évangélistes.
Nous pouvons créer un monde où l’IA tient sa promesse spectaculaire d’améliorer la vie de toute l’humanité, mais seulement si nous travaillons ensemble et utilisons notre capacité unique à faire des choix moraux pour développer une réponse vraiment intelligente (lire non artificielle).