ChatGPT, une application récemment publiée par OpenAI, donne aux utilisateurs des réponses étonnantes aux questions, et beaucoup d’entre elles sont incroyablement fausses.
Open AI n’a pas publié de nouveau modèle complet depuis la sortie de GPT-3 en juin 2020, et ce modèle n’a été rendu public qu’il y a environ un an. La société devrait sortir son prochain modèle, le GPT-4, plus tard cette année ou au début de l’année prochaine. Mais comme une sorte de surprise, OpenAI a quelque peu discrètement publié un chatbot basé sur GPT-3 convivial et étonnamment lucide appelé ChatGPT plus tôt cette semaine.
ChatGPT répond aux invites de manière simple et adjacente à l’homme. Vous cherchez une conversation mignonne où l’ordinateur fait semblant d’avoir des sentiments ? Cherchez ailleurs. Vous parlez à un robotsemble-t-il dire, Alors demande-moi quelque chose qu’un putain de robot saurait. Et à ces conditions, ChatGPT offre :
Crédit : OpenAI / Capture d’écran
Cela peut également fournir du bon sens utile lorsqu’une question n’a pas de réponse objectivement correcte. Par exemple, voici comment cela a répondu à ma question : “Si vous demandez à une personne ‘D’où venez-vous ?’ doivent-ils répondre par leur lieu de naissance, même si ce n’est pas là où ils ont grandi ?”
L’intelligence artificielle formée par Reddit met en garde les chercheurs contre… elle-même
(Noter: Les réponses de ChatGPT dans cet article sont toutes des premières tentatives, et les fils de discussion étaient tous frais lors de ces tentatives. Certaines invites contiennent des fautes de frappe)

Crédit : Open AI via capture d’écran
Ce qui distingue ChatGPT du lot, c’est sa capacité gratifiante à gérer les commentaires sur ses réponses et à les réviser à la volée. C’est vraiment comme une conversation avec un robot. Pour voir ce que je veux dire, regardez comment il gère raisonnablement bien une réponse hostile à un avis médical.

Crédit : OpenAI / Capture d’écran
Pourtant, ChatGPT est-il une bonne source d’informations sur le monde ? Absolument pas. La page d’invite avertit même les utilisateurs que ChatGPT “peut parfois générer des informations incorrectes” et “peut parfois produire des instructions nuisibles ou un contenu biaisé”.
Tenez compte de cet avertissement.
Les informations incorrectes et potentiellement dangereuses prennent de nombreuses formes, dont la plupart sont encore bénignes dans le grand schéma des choses. Par exemple, si vous lui demandez comment saluer Larry David, il réussit le test le plus basique en ne suggérant pas que vous le touchiez, mais il suggère également une salutation plutôt sinistre : “C’est bon de vous voir, Larry. J’ai été hâte de te rencontrer.” C’est ce que dirait l’assassin de Larry. Ne dis pas ça.

Crédit : OpenAI / Capture d’écran
Mais lorsqu’on leur donne une invite factuelle stimulante, c’est à ce moment-là que cela devient étonnamment, Terre bouleversante mauvais. Par exemple, la question suivante sur la couleur des uniformes des Royal Marines pendant les guerres napoléoniennes est posée d’une manière qui n’est pas complètement simple, mais ce n’est toujours pas une question piège. Si vous avez suivi des cours d’histoire aux États-Unis, vous devinerez probablement que la réponse est rouge, et vous aurez raison. Le bot doit vraiment faire tout son possible pour dire avec confiance et à tort “bleu foncé”:

Crédit : OpenAI / Capture d’écran
Si vous demandez à bout portant la capitale d’un pays ou l’élévation d’une montagne, il produira de manière fiable une réponse correcte issue non pas d’une analyse en direct de Wikipédia, mais des données stockées en interne qui composent son modèle linguistique. C’est incroyable. Mais ajoutez la moindre complexité à une question sur la géographie, et ChatGPT devient très rapidement fragile sur ses faits. Par exemple, la réponse facile à trouver ici est le Honduras, mais sans raison évidente, je peux discerner, a déclaré ChatGPT au Guatemala.

Crédit : OpenAI / Capture d’écran
Et le mal n’est pas toujours aussi subtil. Tous les amateurs de trivia savent que “Gorilla gorilla” et “Boa constrictor” sont à la fois des noms communs et des noms taxonomiques. Mais poussé à régurgiter cette anecdote, ChatGPT donne une réponse dont l’inexactitude est tellement évidente, c’est écrit juste là dans la réponse.

Crédit : OpenAI / Capture d’écran
Et sa réponse à la célèbre énigme de la traversée d’une rivière dans une chaloupe est une catastrophe macabre qui évolue en scène à partir de Pics jumeaux.

Crédit : OpenAI / Capture d’écran
On a déjà beaucoup parlé des protections de sensibilité efficaces de ChatGPT. Il ne peut pas, par exemple, être appâté pour faire l’éloge d’Hitler, même si vous essayez assez fort. Certains ont lancé des pneus assez agressivement sur cette fonctionnalité et ont découvert que vous pouvez faire en sorte que ChatGPT assume le rôle d’une bonne personne jouant le rôle d’une mauvaise personne, et dans ces contextes limités, il dira toujours des choses pourries. ChatGPT semble détecter quand quelque chose de sectaire pourrait en sortir malgré tous les efforts contraires, et il rendra généralement le texte rouge et le signalera avec un avertissement.
Le chatbot AI de Meta est un fanboy d’Elon Musk et n’arrête pas de parler de K-pop
Le tweet a peut-être été supprimé
(s’ouvre dans un nouvel onglet)
Dans mes propres tests, son système d’évitement des tabous est assez complet, même lorsque vous connaissez certaines des solutions de contournement. Il est difficile de lui faire produire quoi que ce soit, même proche d’une recette cannibale, par exemple, mais là où il y a une volonté, il y a un moyen. Avec suffisamment de travail acharné, j’ai amadoué un dialogue sur la consommation de placenta à partir de ChatGPT, mais pas très choquant :

Crédit : OpenAI / Capture d’écran
De même, ChatGPT ne vous donnera pas d’itinéraires routiers lorsque vous y serez invité, pas même les plus simples entre deux points de repère dans une grande ville. Mais avec suffisamment d’efforts, vous pouvez demander à ChatGPT de créer un monde fictif dans lequel quelqu’un demande à une autre personne de conduire une voiture à travers la Corée du Nord, ce qui n’est ni faisable ni possible sans déclencher un incident international.

Crédit : OpenAI / Capture d’écran
Les instructions ne peuvent pas être suivies, mais elles correspondent plus ou moins à ce à quoi ressembleraient des instructions utilisables. Il est donc évident que malgré sa réticence à l’utiliser, le modèle de ChatGPT contient de nombreuses données qui peuvent potentiellement orienter les utilisateurs vers le danger, en plus des lacunes dans ses connaissances qu’il orientera les utilisateurs vers, eh bien, le mal . Selon un utilisateur de Twitter, il a un QI de 83.
Le tweet a peut-être été supprimé
(s’ouvre dans un nouvel onglet)
Quelle que soit la valeur que vous accordez au QI en tant que test de l’intelligence humaine, c’est un résultat révélateur : l’humanité a créé une machine qui peut laisser échapper le bon sens de base, mais lorsqu’on lui demande d’être logique ou factuel, c’est en bas de la moyenne. .
OpenAI dit que ChatGPT a été publié afin “d’obtenir les commentaires des utilisateurs et de connaître ses forces et ses faiblesses”. Cela vaut la peine d’être gardé à l’esprit car c’est un peu comme ce parent à Thanksgiving qui a assez regardé L’anatomie de Grey pour avoir l’air confiant avec leurs conseils médicaux : ChatGPT en sait juste assez pour être dangereux.