L’IA pourrait bientôt écrire du code basé sur un langage ordinaire

Au cours des dernières années, les chercheurs ont utilisé l’intelligence artificielle pour améliorer la traduction entre les langages de programmation ou résoudre automatiquement les problèmes. Il a été démontré que le système d’IA DrRepair, par exemple, résout la plupart des problèmes qui génèrent des messages d’erreur. Mais certains chercheurs rêvent du jour où l’IA pourra écrire des programmes basés sur de simples descriptions de non-experts.

Mardi, Microsoft et OpenAI ont partagé des plans visant à intégrer GPT-3, l’un des modèles les plus avancés au monde de génération de texte, à une programmation basée sur des descriptions en langage naturel. Il s’agit de la première application commerciale de GPT-3 entreprise depuis que Microsoft a investi 1 milliard de dollars dans OpenAI l’année dernière et a obtenu des droits de licence exclusifs sur GPT-3.

«Si vous pouvez décrire ce que vous voulez faire en langage naturel, GPT-3 générera une liste des formules les plus pertinentes parmi lesquelles vous pourrez choisir», a déclaré le PDG de Microsoft, Satya Nadella, lors d’un discours lors de la conférence des développeurs Build de l’entreprise. «Le code s’écrit tout seul.»

Gracieuseté de Microsoft

Le vice-président de Microsoft, Charles Lamanna, a déclaré à WIRED que la sophistication offerte par GPT-3 peut aider les gens à relever des défis complexes et à autonomiser les personnes ayant peu d’expérience en programmation. GPT-3 traduira le langage naturel en PowerFx, un langage de programmation assez simple similaire aux commandes Excel que Microsoft a introduites en mars.

Il s’agit de la dernière démonstration de l’application de l’IA au codage. L’année dernière, lors de la construction de Microsoft, le PDG d’OpenAI, Sam Altman, a présenté une démonstration d’un modèle de langage affiné avec du code de GitHub qui génère automatiquement des lignes de code Python. Comme WIRED l’a détaillé le mois dernier, des startups comme SourceAI utilisent également GPT-3 pour générer du code. Le mois dernier, IBM a montré comment son projet CodeNet, avec 14 millions d’échantillons de code provenant de plus de 50 langages de programmation, pouvait réduire d’un an à un mois le temps nécessaire pour mettre à jour un programme avec des millions de lignes de code Java pour un constructeur automobile.

La nouvelle fonctionnalité de Microsoft est basée sur une architecture de réseau neuronal connue sous le nom de Transformer, utilisée par de grandes entreprises technologiques telles que Baidu, Google, Microsoft, Nvidia et Salesforce pour créer de grands modèles de langage à l’aide de données de formation textuelles extraites du Web. Ces modèles de langage s’agrandissent continuellement. La plus grande version du BERT de Google, un modèle de langage publié en 2018, comptait 340 millions de paramètres, un élément constitutif des réseaux de neurones. GPT-3, sorti il ​​y a un an, contient 175 milliards de paramètres.

Lire aussi  La personne responsable de l'ajout - et de la suppression - de PT de la boutique PSN prend la parole pour la première fois

De tels efforts ont cependant un long chemin à parcourir. Dans un test récent, le meilleur modèle n’a réussi que 14% du temps sur les défis de programmation d’introduction compilés par un groupe de chercheurs en IA.

.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick