Les pionniers de l’IA affirment que l’IA pourrait entraîner l’extinction de l’humanité

Les pionniers de l’IA affirment que l’IA pourrait entraîner l’extinction de l’humanité
Certains experts en IA ont mis en garde contre les risques liés à la croissance rapide de l’IA.
Pixabay

Selon quelques leaders de l’industrie, la technologie d’IA (intelligence artificielle) qu’ils développent actuellement pourrait avoir des conséquences désastreuses. Notamment, les responsables de Google Deepmind et d’OpenAI ont précédemment averti que l’IA pourrait conduire l’humanité à son extinction.

Les meilleurs PDG de l’IA, ainsi que d’autres experts en technologie, ont récemment soutenu un déclaration qui a été publié par le Center for AI Safety. “Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire”, indique le communiqué.

Alors que le PDG d’OpenAI Sam Altman, le PDG de Google DeepMind Demis Hassabis et Dario Amodei d’Anthropic ont soutenu la déclaration, d’autres affirment que les craintes ont été trop élaborées. Néanmoins, le site Web du Center for AI Safety a mis en évidence quelques scénarios de catastrophe possibles :

  • L’IA peut être militarisée. Par exemple, des armes chimiques peuvent être fabriquées à l’aide d’outils de découverte de drogues.
  • L’IA peut être utilisée pour diffuser des informations erronées. Certains observateurs pensent que la technologie de l’IA peut être utilisée pour répandre de fausses informations dans les campagnes politiques.
  • Seules quelques personnes pourraient finir par avoir accès à la technologie de l’IA. Cela pourrait permettre « aux régimes de faire respecter des valeurs étroites par une surveillance généralisée et une censure oppressive ».
  • De plus, les humains pourraient devenir dépendants de l’IA, tout comme le scénario présenté dans le film “Wall-E”.
Lire aussi  L'activité DVD de Netflix n'existait presque pas. Vingt-cinq ans plus tard, il a transformé l'industrie des médias

Le Dr Geoffrey Hinton a également soutenu l’appel du Center for AI Safety. Pour ceux qui ne le savaient pas, l’informaticien anglo-canadien, également connu comme le parrain de l’intelligence artificielle, avait émis un avertissement sur les risques liés à l’IA. La déclaration est également signée par Yoshua Bengio, qui est professeur d’informatique à l’Université de Montréal.

Que pensent les autres experts ?

Tout comme le Dr Hinton, le professeur NYU Yann LeCun et le professeur Bengio sont connus pour leurs travaux révolutionnaires en IA. Le trio a remporté conjointement le prix Turing 2018 pour leurs contributions exceptionnelles à l’informatique. Cependant, le professeur LeCun pense que ces avertissements sont exagérés. Plus tôt ce mois-ci, le professeur LeCun a tweeté : “La réaction la plus courante des chercheurs en intelligence artificielle face à ces prophéties de malheur est la manipulation du visage”.

De même, un grand nombre d’autres experts suggèrent que les craintes que l’IA mette fin à l’humanité sont irréalistes. Ils pensent que ces craintes détournent notre attention des vrais problèmes tels que les biais dans les systèmes. Arvind Narayanan, qui est informaticien à l’Université de Princeton, a déclaré au Bbc que la possibilité de scénarios catastrophes tels que ceux décrits dans les films de science-fiction est irréaliste.

De même, Elizabeth Renieris, associée de recherche principale à l’Institut d’éthique en IA d’Oxford, a déclaré au point de vente qu’elle était plus préoccupée par les méfaits à court terme de l’IA. Selon Mme Renieris, un nombre considérable d’outils d’intelligence artificielle profitent de “l’ensemble de l’expérience humaine à ce jour”.

Lire aussi  Les prix du pétrole tombent en dessous de 100 dollars le baril alors que l'épidémie de Covid-19 en Chine menace la demande.

Le directeur du Center for AI Safety, Dan Hendrycks, estime que nous ne devrions pas considérer les préoccupations actuelles et les risques futurs de manière antagoniste. Hendrycks affirme qu’il sera plus facile de gérer les risques futurs si nous nous attaquons maintenant à certains des problèmes existants. Pour récapituler, les rapports entourant la menace de l’IA ont commencé à faire des rondes en ligne en mars lorsque Twitter Le PDG Elon Musk a signé un lettre ouverte pour mettre en pause l’entraînement à l’IA.

La lettre demandait s’il était nécessaire de créer des esprits non humains susceptibles de remplacer, d’être plus intelligents et même plus nombreux que les humains. La nouvelle campagne, en revanche, comprend une courte déclaration destinée à “ouvrir la discussion”. En outre, la déclaration indique que les risques posés par l’IA sont similaires aux risques posés par les guerres nucléaires.

OpenAI, la société à l’origine du très populaire ChatGPT, a récemment indiqué que la superintelligence sera probablement réglementée comme l’énergie nucléaire. L’entreprise suggère que nous aurons éventuellement besoin de quelque chose comme l’Agence internationale de l’énergie atomique (AIEA) pour les efforts de superintelligence.

Faut-il s’inquiéter de l’IA ?

Des leaders technologiques, dont le directeur général de Google, Sundar Pichai, Microsoft Le PDG Satya Nadella et le patron d’OpenAI Sam Altman ont déjà discuté de la réglementation de l’IA avec le président américain Joe Biden. De plus, le Premier ministre britannique Rishi Sunak a souligné les avantages de l’IA pour l’économie et la société lors d’un entretien avec des journalistes plus tôt cette année.

Lire aussi  Des restes humains retrouvés près du prince Harry, le manoir Montecito de Meghan Markle

Reconnaissant que les gens seront préoccupés par les informations selon lesquelles l’IA pose des risques existentiels, Sunak a assuré que le gouvernement examinait attentivement la question.


#Les #pionniers #lIA #affirment #lIA #pourrait #entraîner #lextinction #lhumanité
2023-05-31 07:51:23

Related News

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick