Elon Musk et un groupe d’experts en intelligence artificielle appellent à une pause dans la formation de puissants systèmes d’IA en raison des risques potentiels pour la société et l’humanité.
La lettre, publiée par l’Institut à but non lucratif Future of Life et signée par plus de 1 000 personnes, mettait en garde contre les risques potentiels pour la société et la civilisation des systèmes d’IA compétitifs pour l’homme sous la forme de perturbations économiques et politiques.
“Les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent poser de graves risques pour la société et l’humanité”, prévient la lettre.
“Des systèmes d’IA puissants ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables.”
Il a appelé à un arrêt de six mois de la “course dangereuse” pour développer des systèmes plus puissants que ceux d’OpenAI GPT-4 nouvellement lancé.
Si une telle pause ne peut être promulguée rapidement, la lettre indique que les gouvernements devraient intervenir et instituer un moratoire.
“Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants”, indique la lettre.
“Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable.”
En savoir plus:
Certains utilisateurs de Twitter commenceront à perdre des ticks bleus à partir du mois prochain
Un présentateur de Sky News peut désormais vous lire nos articles – voici comment
La lettre a également été signée par le co-fondateur d’Apple, Steve Wozniak, Yoshua Benigo, souvent désigné comme l’un des “parrains de l’IA”, et Stuart Russell, un pionnier de la recherche dans le domaine, ainsi que des chercheurs de DeepMind, propriété d’Alphabet. .
Le Future of Life Institute est principalement financé par la Musk Foundation, le groupe d’altruisme efficace basé à Londres Founders Pledge et la Silicon Valley Community Foundation, selon le registre de transparence de l’Union européenne.
Musk a exprimé ses inquiétudes concernant l’IA. Son constructeur automobile, Tesla, utilise l’IA pour un système de pilotage automatique.
Depuis sa sortie l’année dernière, ChatGPT d’OpenAI, soutenu par Microsoft, a incité ses rivaux à accélérer le développement de grands modèles de langage similaires et a encouragé les entreprises à intégrer des modèles d’IA génératifs dans leurs produits.
Le Royaume-Uni dévoile des propositions de réglementations “légères” autour de l’IA
Cela vient alors que le gouvernement britannique a dévoilé propositions pour un cadre réglementaire “léger” autour de l’IA.
L’approche du gouvernement, décrite dans un document d’orientation, diviserait la responsabilité de la gouvernance de l’IA entre ses régulateurs des droits de l’homme, de la santé et de la sécurité et de la concurrence, plutôt que de créer un nouvel organisme dédié à la technologie.
Pendant ce temps, plus tôt cette semaine, Europol a rejoint un chœur de préoccupations éthiques et juridiques concernant l’IA avancée comme ChatGPT, mettant en garde contre l’utilisation abusive potentielle du système dans les tentatives de phishing, la désinformation et la cybercriminalité.