L’avenir de l’IA : ce qui vient ensuite et à quoi s’attendre

L’avenir de l’IA : ce qui vient ensuite et à quoi s’attendre

Dans le bulletin AI d’aujourd’hui, le dernier en notre série en cinq partiesje regarde vers où l’intelligence artificielle peut se diriger dans les années à venir.

Début mars, j’ai visité les bureaux d’OpenAI à San Francisco pour un premier aperçu de GPT-4, une nouvelle version de la technologie qui sous-tend son chatbot ChatGPT. Le moment le plus éblouissant est arrivé lorsque Greg Brockman, président et co-fondateur d’OpenAI, a montré une fonctionnalité qui n’est toujours pas disponible au public : il a donné au bot une photo du télescope spatial Hubble et lui a demandé de décrire l’image “en minutieux détail. »

La description était tout à fait exacte, jusqu’à l’étrange ligne blanche créée par un satellite traversant les cieux. Voici un aperçu de l’avenir des chatbots et des autres technologies d’IA : une nouvelle vague de systèmes multimodaux jonglera avec les images, les sons et les vidéos ainsi qu’avec le texte.

Hier, mon collègue Kevin Roose vous a parlé de ce que l’IA peut faire maintenant. Je vais me concentrer sur les opportunités et les bouleversements à venir au fur et à mesure qu’il gagne en capacités et en compétences.

Les IA génératives peuvent déjà répondre à des questions, écrire de la poésie, générer du code informatique et mener des conversations. Comme le suggère “chatbot”, ils sont d’abord déployés dans des formats conversationnels comme ChatGPT et Bing.

Mais cela ne va pas durer longtemps. Microsoft et Google ont déjà annoncé leur intention d’intégrer ces technologies d’IA dans leurs produits. Vous pourrez les utiliser pour rédiger un brouillon d’e-mail, résumer automatiquement une réunion et réaliser de nombreuses autres astuces intéressantes.

OpenAI propose également une API, ou interface de programmation d’applications, que d’autres entreprises technologiques peuvent utiliser pour connecter GPT-4 à leurs applications et produits. Et il a créé une série de plug-ins d’entreprises comme Instacart, Expedia et Wolfram Alpha qui élargissent les capacités de ChatGPT.

De nombreux experts pensent que l’IA rendra certains travailleurs, y compris les médecins, les avocats et les programmeurs informatiques, plus productifs que jamais. Ils pensent également que certains travailleurs seront remplacés.

“Cela affectera des tâches plus répétitives, plus stéréotypées, plus génériques”, a déclaré Zachary Lipton, professeur à Carnegie Mellon, spécialisé dans l’intelligence artificielle et son impact sur la société. « Cela peut libérer certaines personnes qui ne sont pas douées pour les tâches répétitives. En même temps, il y a une menace pour les personnes qui se spécialisent dans la partie répétitive.

Les tâches effectuées par l’homme pourraient disparaître de la transcription et de la traduction audio-texte. Dans le domaine juridique, GPT-4 est déjà suffisamment compétent pour réussir l’examen du barreau, et le cabinet comptable PricewaterhouseCoopers prévoit de déployer un chatbot juridique basé sur OpenAI pour son personnel.

Lire aussi  Pékin annonce des swaps de taux d'intérêt avec Hong Kong après la visite de Xi Jinping

Dans le même temps, des entreprises comme OpenAI, Google et Meta construisent des systèmes qui vous permettent de générer instantanément des images et des vidéos simplement en décrivant ce que vous voulez voir.

D’autres entreprises construisent des bots qui peuvent réellement utiliser des sites Web et des applications logicielles comme le fait un humain. Dans la prochaine étape de la technologie, les systèmes d’IA pourraient acheter en ligne vos cadeaux de Noël, embaucher des personnes pour effectuer de petits travaux dans la maison et suivre vos dépenses mensuelles.

Tout cela fait beaucoup réfléchir. Mais le plus gros problème est peut-être le suivant : avant que nous ayons la chance de comprendre comment ces systèmes affecteront le monde, ils deviendront encore plus puissants.

Pour des entreprises comme OpenAI et DeepMind, un laboratoire appartenant à la société mère de Google, le plan est de pousser cette technologie aussi loin que possible. Ils espèrent éventuellement construire ce que les chercheurs appellent intelligence artificielle généraleou AGI – une machine qui peut faire tout ce que le cerveau humain peut faire.

Comme Sam Altman, directeur général d’OpenAI, me l’a dit il y a trois ans : “Mon objectif est de créer une AGI largement bénéfique. Je comprends également que cela semble ridicule.” Aujourd’hui, cela semble moins ridicule. Mais c’est quand même plus facile à dire qu’à faire.

Pour qu’une IA devienne une AGI, il faudra une compréhension du monde physique au sens large. Et il n’est pas clair si les systèmes peuvent apprendre à imiter la longueur et l’étendue du raisonnement humain et du bon sens en utilisant les méthodes qui ont produit des technologies comme GPT-4. De nouvelles percées seront probablement nécessaires.

La question est : voulons-nous vraiment que l’intelligence artificielle devienne si puissante ? Une question connexe très importante : y a-t-il un moyen d’empêcher que cela se produise ?

De nombreux cadres de l’IA pensent que les technologies qu’ils créent amélioreront nos vies. Mais certains mettent en garde depuis des décennies contre un scénario plus sombre, où nos créations ne font pas toujours ce que nous voulons qu’elles fassent, ou elles suivent nos instructions de manière imprévisible, avec des conséquences potentiellement désastreuses.

Les experts en IA parlent de “alignement” – c’est-à-dire s’assurer que les systèmes d’IA sont conformes aux valeurs et aux objectifs humains.

Avant la sortie de GPT-4, OpenAI l’a confié à un groupe extérieur pour imaginer et tester des utilisations dangereuses du chatbot.

Le groupe a découvert que le système était capable d’embaucher un humain en ligne pour vaincre un test Captcha. Lorsque l’humain a demandé s’il s’agissait d’un « robot », le système, non sollicité par les testeurs, a menti et a déclaré qu’il s’agissait d’une personne malvoyante.

Lire aussi  Jack Russell castré entre en saison après avoir été exposé au gel HRT du propriétaire

Les testeurs ont également montré que le système pouvait être amené à suggérer comment acheter des armes à feu illégales en ligne et à décrire des moyens de fabriquer des substances dangereuses à partir d’articles ménagers. Après les modifications apportées par OpenAI, le système ne fait plus ces choses.

Mais il est impossible d’éliminer tous les abus potentiels. Au fur et à mesure qu’un système comme celui-ci apprend à partir des données, il développe des compétences auxquelles ses créateurs ne s’attendaient pas. Il est difficile de savoir comment les choses pourraient mal tourner après que des millions de personnes aient commencé à l’utiliser.

“Chaque fois que nous créons un nouveau système d’IA, nous ne sommes pas en mesure de caractériser pleinement toutes ses capacités et tous ses problèmes de sécurité – et ce problème s’aggrave avec le temps plutôt qu’il ne s’améliore”, a déclaré Jack Clark, fondateur et responsable de la politique. d’Anthropic, une start-up de San Francisco développant ce même type de technologie.

Et OpenAI et des géants comme Google ne sont pas les seuls à explorer cette technologie. Les méthodes de base utilisées pour construire ces systèmes sont largement comprises, et d’autres entreprises, pays, laboratoires de recherche et acteurs malveillants peuvent être moins prudents.

En fin de compte, garder un couvercle sur la technologie dangereuse de l’IA nécessitera une surveillance de grande envergure. Mais les experts ne sont pas optimistes.

“Nous avons besoin d’un système de réglementation international”, a déclaré Aviv Ovadya, chercheur au Berkman Klein Center for Internet & Society à Harvard, qui a aidé à tester GPT-4 avant sa sortie. “Mais je ne vois pas nos institutions gouvernementales existantes sur le point de gérer cela au rythme nécessaire.”

Comme nous vous l’avons dit plus tôt cette semaine, plus de 1 000 leaders technologiques et chercheurs, dont Elon Musk, ont exhorté les laboratoires d’intelligence artificielle à suspendre le développement des systèmes les plus avancés, avertissant dans une lettre ouverte que les outils d’IA présentent “des risques profonds pour la société et l’humanité”. .”

Les développeurs d’IA sont “enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable”, selon la lettre.

Certains experts sont principalement préoccupés par les dangers à court terme, notamment la propagation de la désinformation et le risque que les gens se fient à ces systèmes pour des conseils médicaux et émotionnels inexacts ou nuisibles.

Mais d’autres critiques font partie d’une vaste et influente communauté en ligne appelée rationalistes ou altruistes efficaces, qui croient que l’IA pourrait éventuellement détruire l’humanité. Cet état d’esprit se reflète dans la lettre.

Lire aussi  Dunkin' offre du café gratuit aux enseignants toute la journée le 1er septembre

Veuillez partager vos réflexions et vos commentaires sur notre série On Tech: AI en répondant à ce bref sondage.

Nous pouvons spéculer sur la direction que prendra l’IA dans un avenir lointain, mais nous pouvons également demander aux chatbots eux-mêmes. Pour votre mission finale, traitez ChatGPT, Bing ou Bard comme un jeune candidat enthousiaste et demandez-lui où il se voit dans 10 ans. Comme toujours, partagez les réponses dans les commentaires.


Question 1 sur 3

Commencez le quiz en choisissant votre réponse.


Alignement: Tentatives des chercheurs et des éthiciens de l’IA pour s’assurer que les intelligences artificielles agissent conformément aux valeurs et aux objectifs des personnes qui les créent.

Systèmes multimodaux : Des IA similaires à ChatGPT qui peuvent également traiter des images, de la vidéo, de l’audio et d’autres entrées et sorties non textuelles.

Intelligence artificielle générale : Une intelligence artificielle qui correspond à l’intellect humain et peut faire tout ce que le cerveau humain peut faire.

Cliquez ici pour plus de termes du glossaire.


Kévin ici. Merci d’avoir passé les cinq derniers jours avec nous. Ce fut un plaisir de voir vos commentaires et votre créativité. (J’ai particulièrement apprécié le commentateur qui a utilisé ChatGPT pour écrire une lettre de motivation pour mon travail.)

Le sujet de l’IA est si vaste et si rapide que même cinq newsletters ne suffisent pas à tout couvrir. Si vous voulez plonger plus profondément, vous pouvez consulter mon livre, “Futureproof”, et le livre de Cade, “Genius Makers”, qui détaillent tous deux les sujets que nous avons abordés cette semaine.

Cade ici : Mon commentaire préféré est venu de quelqu’un qui a demandé à ChatGPT de planifier un itinéraire à travers les sentiers de leur état. Le bot a fini par suggérer un sentier qui n’existait pas comme moyen de randonnée entre deux autres sentiers qui existent.

Ce petit snafu offre une fenêtre sur la puissance et les limites des chatbots et autres systèmes d’IA d’aujourd’hui. Ils ont beaucoup appris de ce qui est publié sur Internet et peuvent utiliser ce qu’ils ont appris de manière remarquable, mais il y a toujours le risque qu’ils insèrent des informations plausibles mais fausses. Va de l’avant! Discutez avec ces bots ! Mais faites aussi confiance à votre propre jugement !

S’il te plaît répondez à ce bref sondage pour partager vos réflexions et vos commentaires sur cette newsletter à tirage limité.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick