Une lettre signée par Elon Musk exigeant une pause dans la recherche sur l’IA suscite la controverse | Intelligence artificielle (IA)

Une lettre signée par Elon Musk exigeant une pause dans la recherche sur l’IA suscite la controverse |  Intelligence artificielle (IA)

Une lettre co-signée par Elon Musk et des milliers d’autres exigeant une pause dans la recherche sur l’intelligence artificielle a créé une tempête de feu, après que les chercheurs cités dans la lettre aient condamné l’utilisation de leur travail, certains signataires se sont révélés faux et d’autres se sont retirés. sur leur soutien.

Le 22 mars, plus de 1 800 signataires – dont Musk, le scientifique cognitif Gary Marcus et le co-fondateur d’Apple Steve Wozniak – ont appelé à une pause de six mois sur le développement de systèmes “plus puissants” que celui du GPT-4. Des ingénieurs d’Amazon, DeepMind, Google, Meta et Microsoft ont également apporté leur soutien.

Développé par OpenAI, une société cofondée par Musk et maintenant soutenue par Microsoft, GPT-4 a développé la capacité de tenir une conversation humaine, de composer des chansons et de résumer de longs documents. De tels systèmes d’IA dotés d’une “intelligence compétitive humaine” posent de graves risques pour l’humanité, affirme la lettre.

“Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d’IA qui sont rigoureusement audités et supervisés par des experts externes indépendants”, indique la lettre.

L’institut Future of Life, le groupe de réflexion qui a coordonné l’effort, a cité 12 recherches d’experts, dont des universitaires ainsi que des employés actuels et anciens d’OpenAI, de Google et de sa filiale DeepMind. Mais quatre experts cités dans la lettre ont exprimé leur inquiétude que leurs recherches aient été utilisées pour faire de telles affirmations.

Lire aussi  Les États qui assouplissent les lois sur le travail des enfants sont "irresponsables", selon l'administration Biden

Lors de son lancement initial, la lettre manquait de protocoles de vérification pour la signature et accumulait les signatures de personnes qui ne l’avaient pas réellement signée, y compris Xi Jinping et Yann LeCun, scientifique en chef de l’IA chez Meta, qui clarifié sur Twitter, il ne l’a pas soutenu.

Les critiques ont accusé le Future of Life Institute (FLI), qui est principalement financé par la Fondation Musk, de donner la priorité aux scénarios apocalyptiques imaginaires par rapport aux préoccupations plus immédiates concernant l’IA – telles que les préjugés racistes ou sexistes programmés dans les machines.

Parmi les recherches citées figurait “On the Dangers of Stochastic Parrots”, un article bien connu co-écrit par Margaret Mitchell, qui supervisait auparavant la recherche éthique sur l’IA chez Google. Mitchell, maintenant scientifique en chef de l’éthique de la société d’intelligence artificielle Hugging Face, a critiqué la lettre, déclarant à Reuters qu’il n’était pas clair ce qui comptait comme “plus puissant que GPT4”.

“En traitant beaucoup d’idées douteuses comme une donnée, la lettre affirme un ensemble de priorités et un récit sur l’IA qui profite aux partisans du FLI”, a-t-elle déclaré. “Ignorer les dommages actifs en ce moment est un privilège que certains d’entre nous n’ont pas.”

Ses co-auteurs Timnit Gebru et Emily M Bender ont critiqué la lettre sur Twitter, cette dernière qualifiant certaines de ses affirmations de « déséquilibrées ». Shiri Dori-Hacohen, professeure adjointe à l’Université du Connecticut, a également contesté la mention de son travail dans la lettre. L’année dernière, elle a co-écrit un article de recherche affirmant que l’utilisation généralisée de l’IA posait déjà de sérieux risques.

Lire aussi  Si l'économie est fragile, pourquoi les bénéfices des entreprises sont-ils toujours solides ?

Ses recherches ont fait valoir que l’utilisation actuelle des systèmes d’IA pourrait influencer la prise de décision en matière de changement climatique, de guerre nucléaire et d’autres menaces existentielles.

Elle a déclaré à Reuters: “L’IA n’a pas besoin d’atteindre une intelligence de niveau humain pour exacerber ces risques.”

“Il existe des risques non existentiels qui sont vraiment, vraiment importants, mais qui ne reçoivent pas le même genre d’attention au niveau hollywoodien.”

Invité à commenter les critiques, le président du FLI, Max Tegmark, a déclaré que les risques à court et à long terme de l’IA devraient être pris au sérieux. « Si nous citons quelqu’un, cela signifie simplement que nous prétendons qu’il approuve cette phrase. Cela ne signifie pas qu’ils approuvent la lettre, ou que nous approuvons tout ce qu’ils pensent », a-t-il déclaré à Reuters.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick