OpenAI introduit un réglage fin pour le modèle GPT-3.5 Turbo

OpenAI introduit un réglage fin pour le modèle GPT-3.5 Turbo
OpenAI a dévoilé GPT-3.5 Turbo, qui peut fonctionner aussi bien que GPT-4 dans certaines tâches restreintes.
Pixels

OpenAI, la société à l’origine du très populaire chatbot ChatGPT AI, a enfin introduit des réglages précis pour GPT-3.5 Turbo. La société américaine d’IA a déclaré que la mise à jour permettra aux développeurs de personnaliser des modèles plus performants pour leurs cas d’utilisation.

En dehors de cela, OpenAI a déclaré que les développeurs pourront « exécuter ces modèles personnalisés à grande échelle ». Bien qu’il ne soit pas encore clair si GPT-3.5 Turbo sera capable de surpasser GPT-4, OpenAI estime que la dernière mise à jour garantira que GPT-3.5 Turbo pourra au moins correspondre à GPT-4 “sur certaines tâches restreintes”.

Dans un article de blog partagé sur son site officiel, OpenAI a confirmé que le GPT-3.5 Turbo avec réglage fin pour GPT-4 arrivera cet automne. Il s’agit d’un grand pas en avant, étant donné que le PDG de la société, Sam Altman, a récemment admis que le départ d’Elon Musk était difficile pour OpenAI.

Désormais, l’entreprise suggère de protéger les données de ses clients en affinant l’API. En outre, il a assuré que les informations ne seraient utilisées qu’à des fins de mise au point. En plus de cela, OpenAI a mis en évidence une myriade de scénarios d’utilisation affinés.

Dirigabilité améliorée

Les entreprises peuvent procéder à des ajustements précis pour garantir que le modèle suit mieux les instructions, par exemple en répondant toujours dans une langue donnée ou en produisant des résultats pertinents. Par exemple, les développeurs peuvent utiliser des réglages précis pour garantir que le modèle répond toujours en allemand lorsqu’il est invité à utiliser cette langue.

Lire aussi  Chaim Topol, acteur de Fiddler on the Roof, décède à l'âge de 87 ans | Actualités Ents & Arts

Formatage de sortie bien fondé

Un réglage fin améliore la capacité du modèle à formater les réponses. Il s’agit d’un aspect crucial pour les applications qui nécessitent des formats de réponse spécifiques, comme la composition d’appels d’API ou la complétion de code. Grâce à un réglage fin, un développeur peut convertir les invites utilisateur en extraits JSON de haute qualité et les utiliser avec ses propres systèmes.

Tonalité personnalisée

Un réglage fin peut s’avérer utile pour améliorer la sensation qualitative de la sortie du modèle, comme sa tonalité. En plus d’améliorer les performances, la nouvelle fonctionnalité permettra aux organisations d’utiliser des invites plus courtes tout en conservant les mêmes performances.

Selon OpenAI, « les premiers testeurs ont réduit la taille des invites jusqu’à 90 % en affinant les instructions dans le modèle lui-même, accélérant ainsi chaque appel d’API et réduisant les coûts ».

Il convient également de noter que le réglage fin avec GPT-3.5-Turbo peut gérer des jetons 4K, qui sont le double de la taille des modèles affinés précédents. OpenAI affirme qu’il est idéal de combiner le réglage fin avec des techniques telles que les appels de fonctions, la récupération d’informations ou l’ingénierie rapide pour de meilleurs résultats.

Voici les coûts de mise au point :

  • Formation : 0,008 $ (environ 0,0064 £) / 1 000 jetons
  • Entrée d’utilisation : 0,012 $ (environ 0,0096 £) / 1 000 jetons
  • Sortie d’utilisation : 0,016 $ (environ 0,013 £) / 1 000 jetons

Le nouvel outil de codage basé sur l’IA de Meta pour concurrencer ChatGPT

Ce n’est un secret pour personne qu’OpenAI n’a pas dévié de son orientation ChatGPT. En fait, l’entreprise ne ménage aucun effort pour tenter d’améliorer le populaire chatbot IA. Dans le même esprit, un rapport précédent indiquait qu’OpenAI se préparait à déployer de nouvelles mises à jour pour rendre ChatGPT plus utile.

Lire aussi  Femme coincée dans une télécabine pendant la nuit dans un froid glacial ; A crié à l'aide jusqu'à ce qu'elle perde la voix

Les gens de ZDNet pensent que ChatGPT est sans aucun doute le meilleur chatbot IA original. Cependant, les alternatives remarquables ne manquent pas. Maintenant, Meta a annoncé son nouveau LLM (grand modèle de langage) baptisé Code Llama, qui peut générer et discuter de codes à l’aide d’invites textuelles.

“Il a le potentiel de rendre les flux de travail plus rapides et plus efficaces pour les développeurs, de réduire les barrières à l’entrée pour les développeurs et de réduire les barrières à l’entrée pour les personnes qui apprennent à coder”, a déclaré Meta dans un article de blog.

Comment fonctionne Code Lama ?

Selon Meta, Code Llama est une version spécialisée dans le code de Llama 2 qui a été développée en formant davantage Llama 2 sur ses ensembles de données spécifiques au code. Ce processus a ajouté des capacités de codage améliorées. Code Llama prend en charge une myriade de langages de programmation populaires utilisés aujourd’hui, notamment PHP, C#, Bash, Typescript (Javascript), Java, C++, Python, etc.

Code Llama est disponible en trois tailles, dont les paramètres 7B, 13B et 34B. Chaque modèle est formé avec 500 milliards de jetons de code et de données liées au code, et peut répondre à différentes exigences de service et de latence.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick