Google vient de lancer Bard, sa réponse à ChatGPT et veut que vous l’amélioriez

Google vient de lancer Bard, sa réponse à ChatGPT et veut que vous l’amélioriez

Google a beaucoup à faire sur ce lancement. Microsoft s’est associé à OpenAI pour faire un jeu agressif pour la première place de Google dans la recherche. Pendant ce temps, Google a fait une gaffe dès le départ lorsqu’il a tenté de répondre pour la première fois. Dans un clip teaser pour Bard que la société a publié en février, le chatbot a été montré en train de faire une erreur factuelle. La valeur de Google a chuté de 100 milliards de dollars du jour au lendemain.

Google ne partagera pas beaucoup de détails sur le fonctionnement de Bard : les grands modèles de langage, la technologie derrière cette vague de chatbots, sont devenus une propriété intellectuelle précieuse. Mais il dira que Bard est construit sur une nouvelle version de LaMDA, le grand modèle de langage phare de Google. Google dit qu’il mettra à jour Bard à mesure que la technologie sous-jacente s’améliorera. Comme ChatGPT et GPT-4, Bard est affiné en utilisant l’apprentissage par renforcement à partir de la rétroaction humaine, une technique qui forme un grand modèle de langage pour donner des réponses plus utiles et moins toxiques.

Google travaille sur Bard depuis quelques mois à huis clos mais dit que c’est encore une expérience. La société met désormais le chatbot à la disposition des personnes aux États-Unis et au Royaume-Uni qui s’inscrivent sur une liste d’attente. Ces premiers utilisateurs aideront à tester et à améliorer la technologie. “Nous recevrons les commentaires des utilisateurs et nous les augmenterons au fil du temps en fonction de ces commentaires”, déclare Google. vice-président à la recherche, Zoubin Ghahramani. “Nous sommes conscients de tout ce qui peut mal tourner avec les grands modèles de langage.”

Lire aussi  Google : Google Chrome pourrait bientôt permettre aux utilisateurs d'Android de faire des captures d'écran en mode navigation privée

Mais Margaret Mitchell, scientifique en chef de l’éthique chez AI startup Hugging Face et ancienne co-responsable de l’équipe d’éthique de l’IA de Google, est sceptique quant à ce cadrage. Google travaille sur LaMDA depuis des années, dit-elle, et elle pense que présenter Bard comme une expérience “est une astuce de relations publiques que les grandes entreprises utilisent pour atteindre des millions de clients tout en se soustrayant à la responsabilité en cas de problème”.

Google souhaite que les utilisateurs considèrent Bard comme un acolyte de la recherche Google, et non comme un remplaçant. Un bouton situé sous le widget de chat de Bard indique “Google It”. L’idée est d’inciter les utilisateurs à se diriger vers la recherche Google pour vérifier les réponses de Bard ou en savoir plus. « C’est l’une des choses qui nous aide à compenser les limitations de la technologie », déclare Krawczyk.

“Nous voulons vraiment encourager les gens à explorer d’autres endroits, à confirmer en quelque sorte des choses s’ils ne sont pas sûrs”, déclare Ghahramani.

Cette reconnaissance des défauts de Bard a également façonné la conception du chatbot d’autres manières. Les utilisateurs ne peuvent interagir avec Bard qu’une poignée de fois au cours d’une session donnée. En effet, plus les grands modèles linguistiques s’engagent dans une seule conversation, plus ils sont susceptibles de dérailler. Bon nombre des réponses les plus étranges de Bing Chat que les gens ont partagées en ligne sont apparues à la fin d’échanges interminables, par exemple.

Google ne confirmera pas quelle sera la limite de conversation pour le lancement, mais elle sera fixée assez bas pour la version initiale et ajustée en fonction des commentaires des utilisateurs.

Lire aussi  Quel est le problème? Nous expliquons la nouvelle norme Smart Home

Google joue également la sécurité en termes de contenu. Les utilisateurs ne pourront pas demander de matériel sexuellement explicite, illégal ou préjudiciable (tel que jugé par Google) ou des informations personnelles. Dans ma démo, Bard ne m’a pas donné de conseils sur la façon de faire un cocktail Molotov. C’est la norme pour cette génération de chatbot. Mais cela ne fournirait pas non plus d’informations médicales, telles que la façon de repérer les signes de cancer. « Bard n’est pas médecin. Il ne va pas donner de conseils médicaux », explique Krawczyk.

La plus grande différence entre Bard et ChatGPT est peut-être que Bard produit trois versions de chaque réponse, que Google appelle des « brouillons ». Les utilisateurs peuvent cliquer entre eux et choisir la réponse qu’ils préfèrent, ou les mélanger et les assortir. L’objectif est de rappeler aux gens que Bard ne peut pas générer de réponses parfaites. « Il y a un sentiment d’autorité quand on ne voit qu’un seul exemple », dit Krawczyk. “Et nous savons qu’il y a des limites à la factualité.”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick