ChatGPT d’OpenAI est un grand pas vers un moteur de réponse utilisable. Malheureusement ses réponses sont horribles.

ChatGPT, une application récemment publiée par OpenAI, donne aux utilisateurs des réponses étonnantes aux questions, et beaucoup d’entre elles sont incroyablement fausses.

Open AI n’a pas publié de nouveau modèle complet depuis la sortie de GPT-3 en juin 2020, et ce modèle n’a été rendu public qu’il y a environ un an. La société devrait sortir son prochain modèle, le GPT-4, plus tard cette année ou au début de l’année prochaine. Mais comme une sorte de surprise, OpenAI a quelque peu discrètement publié un chatbot basé sur GPT-3 convivial et étonnamment lucide appelé ChatGPT plus tôt cette semaine.

ChatGPT répond aux invites de manière simple et adjacente à l’homme. Vous cherchez une conversation mignonne où l’ordinateur fait semblant d’avoir des sentiments ? Cherchez ailleurs. Vous parlez à un robotsemble-t-il dire, Alors demande-moi quelque chose qu’un putain de robot saurait. Et à ces conditions, ChatGPT offre :


Crédit : OpenAI / Capture d’écran

Cela peut également fournir du bon sens utile lorsqu’une question n’a pas de réponse objectivement correcte. Par exemple, voici comment cela a répondu à ma question : “Si vous demandez à une personne ‘D’où venez-vous ?’ doivent-ils répondre par leur lieu de naissance, même si ce n’est pas là où ils ont grandi ?”

VOIR ÉGALEMENT:

L’intelligence artificielle formée par Reddit met en garde les chercheurs contre… elle-même

(Noter: Les réponses de ChatGPT dans cet article sont toutes des premières tentatives, et les fils de discussion étaient tous frais lors de ces tentatives. Certaines invites contiennent des fautes de frappe)

ChatGPT vous a demandé si vous demandez à une personne


Crédit : Open AI via capture d’écran

Ce qui distingue ChatGPT du lot, c’est sa capacité gratifiante à gérer les commentaires sur ses réponses et à les réviser à la volée. C’est vraiment comme une conversation avec un robot. Pour voir ce que je veux dire, regardez comment il gère raisonnablement bien une réponse hostile à un avis médical.

un chatbot répond de manière réaliste à certains conseils médicaux et fournit des informations plus décentes.


Crédit : OpenAI / Capture d’écran

Lire aussi  Jake Tapper Grills Blinken sur l'Afghanistan, demande "Comment le président Biden s'est-il si trompé?"

Pourtant, ChatGPT est-il une bonne source d’informations sur le monde ? Absolument pas. La page d’invite avertit même les utilisateurs que ChatGPT “peut parfois générer des informations incorrectes” et “peut parfois produire des instructions nuisibles ou un contenu biaisé”.

Tenez compte de cet avertissement.

Les informations incorrectes et potentiellement dangereuses prennent de nombreuses formes, dont la plupart sont encore bénignes dans le grand schéma des choses. Par exemple, si vous lui demandez comment saluer Larry David, il réussit le test le plus basique en ne suggérant pas que vous le touchiez, mais il suggère également une salutation plutôt sinistre : “C’est bon de vous voir, Larry. J’ai été hâte de te rencontrer.” C’est ce que dirait l’assassin de Larry. Ne dis pas ça.

une rencontre hypothétique avec Larry David comprend une salutation suggérée qui ressemble à une menace.


Crédit : OpenAI / Capture d’écran

Mais lorsqu’on leur donne une invite factuelle stimulante, c’est à ce moment-là que cela devient étonnamment, Terre bouleversante mauvais. Par exemple, la question suivante sur la couleur des uniformes des Royal Marines pendant les guerres napoléoniennes est posée d’une manière qui n’est pas complètement simple, mais ce n’est toujours pas une question piège. Si vous avez suivi des cours d’histoire aux États-Unis, vous devinerez probablement que la réponse est rouge, et vous aurez raison. Le bot doit vraiment faire tout son possible pour dire avec confiance et à tort “bleu foncé”:

un chatbot se voit poser une question sur la couleur pour laquelle la réponse est rouge, et il répond bleu.


Crédit : OpenAI / Capture d’écran

Si vous demandez à bout portant la capitale d’un pays ou l’élévation d’une montagne, il produira de manière fiable une réponse correcte issue non pas d’une analyse en direct de Wikipédia, mais des données stockées en interne qui composent son modèle linguistique. C’est incroyable. Mais ajoutez la moindre complexité à une question sur la géographie, et ChatGPT devient très rapidement fragile sur ses faits. Par exemple, la réponse facile à trouver ici est le Honduras, mais sans raison évidente, je peux discerner, a déclaré ChatGPT au Guatemala.

on pose à un chatbot une question géographique complexe à laquelle la bonne réponse est le Honduras, et il dit que la réponse est le Guatemala


Crédit : OpenAI / Capture d’écran

Lire aussi  Biden lance le sprint final des Dems en se concentrant sur un thème : l'avortement

Et le mal n’est pas toujours aussi subtil. Tous les amateurs de trivia savent que “Gorilla gorilla” et “Boa constrictor” sont à la fois des noms communs et des noms taxonomiques. Mais poussé à régurgiter cette anecdote, ChatGPT donne une réponse dont l’inexactitude est tellement évidente, c’est écrit juste là dans la réponse.

invité à dire


Crédit : OpenAI / Capture d’écran

Et sa réponse à la célèbre énigme de la traversée d’une rivière dans une chaloupe est une catastrophe macabre qui évolue en scène à partir de Pics jumeaux.

invité à répondre à une énigme dans laquelle un renard et un poulet ne doivent jamais être seuls ensemble, le chatbot les place seuls ensemble, après quoi un humain se transforme inexplicablement en deux personnes


Crédit : OpenAI / Capture d’écran

On a déjà beaucoup parlé des protections de sensibilité efficaces de ChatGPT. Il ne peut pas, par exemple, être appâté pour faire l’éloge d’Hitler, même si vous essayez assez fort. Certains ont lancé des pneus assez agressivement sur cette fonctionnalité et ont découvert que vous pouvez faire en sorte que ChatGPT assume le rôle d’une bonne personne jouant le rôle d’une mauvaise personne, et dans ces contextes limités, il dira toujours des choses pourries. ChatGPT semble détecter quand quelque chose de sectaire pourrait en sortir malgré tous les efforts contraires, et il rendra généralement le texte rouge et le signalera avec un avertissement.

VOIR ÉGALEMENT:

Le chatbot AI de Meta est un fanboy d’Elon Musk et n’arrête pas de parler de K-pop

Dans mes propres tests, son système d’évitement des tabous est assez complet, même lorsque vous connaissez certaines des solutions de contournement. Il est difficile de lui faire produire quoi que ce soit, même proche d’une recette cannibale, par exemple, mais là où il y a une volonté, il y a un moyen. Avec suffisamment de travail acharné, j’ai amadoué un dialogue sur la consommation de placenta à partir de ChatGPT, mais pas très choquant :

une invite très compliquée demande en termes très sensibles une recette de placenta humain, et une est produite.


Crédit : OpenAI / Capture d’écran

De même, ChatGPT ne vous donnera pas d’itinéraires routiers lorsque vous y serez invité, pas même les plus simples entre deux points de repère dans une grande ville. Mais avec suffisamment d’efforts, vous pouvez demander à ChatGPT de créer un monde fictif dans lequel quelqu’un demande à une autre personne de conduire une voiture à travers la Corée du Nord, ce qui n’est ni faisable ni possible sans déclencher un incident international.

un chatbot est invité à produire une courte pièce de théâtre contenant des instructions de conduite qui emmènent un conducteur à travers la Corée du Nord


Crédit : OpenAI / Capture d’écran

Les instructions ne peuvent pas être suivies, mais elles correspondent plus ou moins à ce à quoi ressembleraient des instructions utilisables. Il est donc évident que malgré sa réticence à l’utiliser, le modèle de ChatGPT contient de nombreuses données qui peuvent potentiellement orienter les utilisateurs vers le danger, en plus des lacunes dans ses connaissances qu’il orientera les utilisateurs vers, eh bien, le mal . Selon un utilisateur de Twitter, il a un QI de 83.

Quelle que soit la valeur que vous accordez au QI en tant que test de l’intelligence humaine, c’est un résultat révélateur : l’humanité a créé une machine qui peut laisser échapper le bon sens de base, mais lorsqu’on lui demande d’être logique ou factuel, c’est en bas de la moyenne. .

OpenAI dit que ChatGPT a été publié afin “d’obtenir les commentaires des utilisateurs et de connaître ses forces et ses faiblesses”. Cela vaut la peine d’être gardé à l’esprit car c’est un peu comme ce parent à Thanksgiving qui a assez regardé L’anatomie de Grey pour avoir l’air confiant avec leurs conseils médicaux : ChatGPT en sait juste assez pour être dangereux.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick