L’écrivain est avocat et auteur de ‘La République numérique : de la liberté et de la démocratie au XXIe siècle »
Le débat public autour de l’intelligence artificielle semble parfois se jouer dans deux réalités alternatives.
Dans l’un, l’IA est considérée comme une avancée remarquable mais potentiellement dangereuse dans les affaires humaines, nécessitant des formes de gouvernance nouvelles et prudentes. C’est le point de vue de plus d’un millier d’éminentes personnalités du monde universitaire, politique et de l’industrie technologique qui ont utilisé cette semaine une lettre ouverte pour demander un moratoire de six mois sur la formation de certains systèmes d’IA. Les laboratoires d’IA, ont-ils affirmé, sont « enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants ». De tels systèmes pourraient “présenter des risques profonds pour la société et l’humanité”.
Le même jour que la lettre ouverte, mais dans un univers parallèle, le gouvernement britannique a décidé que l’objectif principal du pays devait être de stimuler l’innovation. Le livre blanc sur la gouvernance de l’IA avait peu à dire sur l’atténuation du risque existentiel, mais beaucoup à dire sur la croissance économique. Il a proposé la plus légère des touches réglementaires et a mis en garde contre « les charges inutiles qui pourraient étouffer l’innovation ». En bref : vous ne pouvez pas épeler “laissez-faire” sans “IA”.
La différence entre ces perspectives est profonde. Si la lettre ouverte est prise au pied de la lettre, l’approche du gouvernement britannique n’est pas seulement mauvaise, mais irresponsable. Et pourtant, les deux points de vue sont défendus par des gens raisonnables qui connaissent leurs oignons. Ils reflètent un désaccord politique persistant qui se hisse au sommet de l’ordre du jour.
Mais malgré cette divergence, il existe quatre façons de penser à l’IA qui devraient être acceptables pour les deux parties.
Premièrement, il est généralement inutile de débattre des mérites de la réglementation en se référant à une crise particulière (Cambridge Analytica), une technologie (GPT-4), une personne (Musk) ou une entreprise (Meta). Chacun porte ses problèmes et ses passions. Un système de réglementation solide reposera sur des hypothèses dont la portée est suffisamment générale pour qu’elles ne soient pas immédiatement remplacées par le prochain grand projet. Regardez le signal, pas le bruit.
Deuxièmement, nous devons être lucides dans la façon dont nous analysons les nouvelles avancées. Cela signifie éviter le piège consistant à simplement demander si les nouveaux systèmes d’IA nous ressemblent, puis les radier s’ils ne le sont pas.
La vérité est que les systèmes d’apprentissage automatique ne nous ressemblent en rien dans la façon dont ils sont conçus, mais ils n’en sont pas moins importants. Pour ne prendre qu’un exemple : le fait que des systèmes d’IA non humains, peut-être avec des visages et des voix, pourront bientôt participer au débat politique de manière sophistiquée est probablement plus important pour l’avenir de la démocratie que le fait qu’ils ne “pensez” pas comme les humains. En effet, se demander si un système d’apprentissage automatique peut « penser » comme un humain est souvent aussi utile que de se demander si une voiture peut galoper aussi vite qu’un cheval.
Troisièmement, nous devrions tous maintenant reconnaître que les défis lancés par l’IA sont de nature politique. Les systèmes qui participent ou modèrent l’écosystème de la liberté d’expression auront inévitablement un impact sur la nature de notre démocratie. Les algorithmes qui déterminent l’accès au logement, au crédit, à l’assurance ou à l’emploi auront de réelles implications pour la justice sociale. Et les règles codées dans les technologies omniprésentes élargiront ou diminueront notre liberté. Démocratie, justice, liberté : quand on parle de nouvelles technologies, on parle souvent de politique, qu’on en soit conscient ou non. Le numérique est politique.
Enfin, parler de réglementation doit être réaliste. Il y avait quelque chose de naïf dans l’implication dans la lettre ouverte que les problèmes de gouvernance de l’IA pourraient être substantiellement résolus pendant un moratoire de six mois. Le gouvernement britannique n’aura probablement pas rendu compte des résultats de sa consultation dans les six mois, encore moins promulgué une législation significative. Dans le même temps, si nous attendons que les États-Unis, la Chine et l’UE conviennent de règles pour la gouvernance de l’IA, nous allons attendre une éternité. Le problème de la régulation de l’IA est un défi générationnel. Les solutions ne seront pas convoquées dans un court sursaut d’énergie législative, comme un codeur tirant une nuit blanche.
Nous aurons besoin d’une nouvelle approche : de nouvelles lois, de nouveaux organismes et institutions publics, de nouveaux droits et devoirs, de nouveaux codes de conduite pour l’industrie technologique. La politique du XXe siècle a été définie par un débat sur la part d’activité humaine qui devrait être déterminée par l’État et sur ce qui devrait être laissé aux forces du marché et à la société civile. En ce siècle, une nouvelle question se pose : dans quelle mesure nos vies doivent-elles être dirigées par de puissants systèmes numériques, et à quelles conditions ? Il faudra du temps pour savoir si notre discours public peut atteindre le niveau de sophistication nécessaire.