L’IA présente un risque de 99 % pour l’humanité, mais Elon Musk s’en fiche

L’IA présente un risque de 99 % pour l’humanité, mais Elon Musk s’en fiche

Un chercheur en sécurité de l’IA a mis en garde contre une très forte probabilité, proche de 100 %, que l’IA puisse constituer une menace existentielle pour l’humanité. Malgré cela, le magnat de la technologie Elon Musk estime le risque à environ 20 % et plaide pour la poursuite des recherches malgré les dangers potentiels.

L’IA générative peut être une arme à double tranchant. Ce n’est un secret pour personne que l’IA a ouvert la voie aux progrès de la médecine, de l’informatique, de l’éducation et dans d’autres domaines. Cependant, des inquiétudes majeures concernant les inconvénients potentiels de cette technologie ont également été soulevées.

Des incidents récents, comme le Copilot de Microsoft générant du contenu inapproprié et des recherches suggérant le potentiel d’utilisation malveillante de ChatGPT, mettent en évidence les dangers associés aux outils d’IA. Elon Musk a exprimé ouvertement son point de vue sur l’IA, suscitant un débat important sur le sujet entourant la technologie.

Musk a récemment qualifié l’IA de « plus grande révolution technologique », mais a également exprimé ses inquiétudes quant au manque potentiel d’infrastructures électriques suffisantes d’ici 2025, ce qui pourrait entraver son développement. Lors du Sommet sur l’Abondance, Musk a suggéré qu’« il y a une chance que cela mette fin à l’humanité ».

Selon Business Insider, Elon Musk estime qu’il y a 10 à 20 % de chances que l’IA constitue une menace existentielle. Il n’a pas développé son raisonnement. Le magnat de la technologie de 52 ans estime que les avantages potentiels de l’IA l’emportent sur les risques.

Il a soutenu que « le scénario positif probable l’emporte sur le scénario négatif », suggérant qu’une exploration plus approfondie est cruciale.

Lire aussi  Des créateurs chinois utilisent l'IA de Midjourney pour générer de la « photographie » urbaine rétro

Le concept de p(doom) dresse un sombre tableau de l’avenir de l’IA

Roman Yampolskiy, chercheur en sécurité de l’IA et directeur du laboratoire de cybersécurité de l’université de Louisville, s’est récemment entretenu avec Business Insider. Il s’est dit préoccupé par le fait que la probabilité que l’IA pose une menace existentielle est nettement supérieure à l’estimation d’Elon Musk de 10 à 20 %, qualifiant le point de vue d’Elon de « trop conservateur ».

“À mon avis, la véritable probabilité d’une catastrophe due à l’IA est nettement plus élevée”, a déclaré Yampolskiy. Il a développé le terme « p(doom) » comme le risque que l’IA provoque une menace existentielle, comme prendre le contrôle de l’humanité ou déclencher une catastrophe au moyen de nouvelles armes, de cyberattaques ou d’une guerre nucléaire.

Le New York Times a qualifié de « p(doom) » la probabilité que l’IA constitue une menace existentielle, une « nouvelle statistique morbide » qui gagne du terrain dans la Silicon Valley. Les responsables technologiques cités dans cet article proposent diverses estimations, allant de 5 à 50 % de chances qu’une apocalypse de l’IA se produise. Yampolskiy estime le risque à 99,999999 pour cent.

Yampolskiy soutient que notre option la plus sûre pourrait être d’éviter complètement de créer des systèmes aussi robustes en raison de la difficulté inhérente au contrôle de l’IA avancée.

“Je ne sais pas vraiment pourquoi il pense que c’est une bonne idée de poursuivre cette technologie de toute façon”, a ajouté Yamploskiy. “S’il craint que les concurrents arrivent en premier, cela n’a pas d’importance, car une superintelligence incontrôlée est tout aussi mauvaise, peu importe qui la fait naître.”

Lire aussi  Nous sommes empoisonnés chaque jour, alors pourquoi continuons-nous à voter pour plus de pollution ? Demandez à un lobbyiste | Georges Monbiot

Musk a fait écho à des préoccupations similaires concernant les risques potentiels d’une IA puissante dans son procès contre OpenAI et son PDG, Sam Altman, citant explicitement leur modèle GPT-4. Le propriétaire de X estime que le modèle pourrait se rapprocher de l’intelligence générale artificielle (AGI) et plaide en faveur d’un accès ouvert à ses recherches pour un examen public et une collaboration.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick