Des modèles d’IA « hallucinants » contribuent à forger le mot de l’année du dictionnaire Cambridge

Des modèles d’IA « hallucinants » contribuent à forger le mot de l’année du dictionnaire Cambridge
Agrandir / Une capture d’écran du site Web du Cambridge Dictionary où il a annoncé son mot de l’année 2023, « halluciner ».

Mercredi, dictionnaire Cambridge annoncé que son mot de l’année 2023 est « halluciner », en raison de la popularité des grands modèles linguistiques (LLM) comme ChatGPT, qui produisent parfois des informations erronées. Le Dictionnaire a également publié un site illustré expliquant le terme en disant: “Quand une intelligence artificielle hallucine, elle produit de fausses informations.”

“L’équipe du Cambridge Dictionary a choisi halluciner comme mot de l’année 2023 car elle a reconnu que ce nouveau sens va au cœur de la raison pour laquelle les gens parlent de l’IA”, écrit le dictionnaire. “L’IA générative est un outil puissant, mais avec lequel nous apprenons tous encore à interagir de manière sûre et efficace. Cela signifie être conscient à la fois de ses forces potentielles et de ses faiblesses actuelles.”

Comme nous l’avons précédemment couvert dans divers articles, « hallucination » en relation avec l’IA est née comme un terme artistique dans le domaine de l’apprentissage automatique. Alors que les LLM sont devenus largement utilisés via des applications comme ChatGPT à la fin de l’année dernière, le terme s’est répandu dans l’usage général et a commencé à semer la confusion chez certains, qui y voyaient un anthropomorphisme inutile. La première définition du dictionnaire Cambridge de l’hallucination (pour les humains) est « avoir l’impression de voir, d’entendre, de ressentir ou de sentir quelque chose qui n’existe pas ». Cela implique une perception provenant d’un esprit conscient, et certains s’opposent à cette association.

Lire aussi  Permalution, Magnestar, Ohh ! Les aliments parmi les gagnants des concours de pitch Startupfest 2022

Comme tous les mots, sa définition emprunte beaucoup au contexte. Lorsque les chercheurs en apprentissage automatique utilisent le terme halluciner (ce qu’ils font encore fréquemment, à en juger par les documents de recherche), ils comprennent généralement les limites d’un LLM (par exemple, que le modèle d’IA n’est pas vivant ou « conscient » selon les normes humaines), mais le Le grand public ne peut pas le faire. Donc dans un reportage explorant les hallucinations En profondeur plus tôt cette année, nous avons suggéré un terme alternatif, « confabulation », qui décrit peut-être plus précisément le principe créatif de remplissage des lacunes des modèles d’IA au travail sans le bagage de perception. (Et devine quoi-c’est aussi dans le dictionnaire Cambridge.)

“L’utilisation généralisée du terme ‘halluciner’ pour désigner les erreurs commises par des systèmes comme ChatGPT fournit un instantané fascinant de la façon dont nous pensons et anthropomorphisons l’IA”, a déclaré Henry Shevlin, éthicien de l’IA à l’Université de Cambridge, dans un communiqué. . “Au fur et à mesure que cette décennie avance, je m’attends à ce que notre vocabulaire psychologique s’étende encore davantage pour englober les étranges capacités des nouvelles intelligences que nous créons.”

Les hallucinations ont donné lieu à des problèmes juridiques tant pour les particuliers que pour les entreprises au cours de l’année écoulée. En mai, un avocat qui a cité de faux cas confabulé par ChatGPT a eu des ennuis avec un juge et a été plus tard condamné à une amende. En avril, Brian Hood poursuivi OpenAI pour diffamation lorsque ChatGPT a faussement affirmé que Hood avait été condamné pour un scandale de corruption transnationale. C’était réglé plus tard hors tribunal.

Lire aussi  Comment regarder la F1: diffusez en direct chaque Grand Prix 2021 de n'importe où

En vérité, les LLM « hallucinent » tout le temps. Ils rassemblent des associations entre les concepts à partir de ce qu’ils ont appris au cours de la formation (et de leur mise au point ultérieure), et ce n’est pas toujours une inférence précise. Là où il y a des lacunes dans les connaissances, elles généreront la réponse la plus probable. Souvent, cela peut être correct, à condition de données d’entraînement de haute qualité et d’un réglage précis, mais d’autres fois, ce n’est pas le cas.

Jusqu’à présent, il semble qu’OpenAI ait été la seule entreprise technologique à lutter de manière significative contre les hallucinations erronées avec GPT-4, ce qui est l’une des raisons pour lesquelles ce modèle est toujours considéré comme étant en tête. La façon dont ils y sont parvenus fait partie de la sauce secrète d’OpenAI, mais Illya Sutstkever, scientifique en chef d’OpenAI, a mentionné précédemment qu’il pense que le RLHF pourrait constituer un moyen de réduire les hallucinations à l’avenir. (RLHFou apprentissage par renforcement via la rétroaction humaine, est un processus par lequel les humains évaluent les réponses d’un modèle de langage, et ces résultats sont utilisés pour affiner davantage le modèle.)

Wendalyn Nichols, responsable de la publication du Cambridge Dictionary, a déclaré dans un communiqué“Le fait que les IA puissent “halluciner” nous rappelle que les humains doivent encore faire appel à leur esprit critique pour utiliser ces outils. Les IA sont fantastiques pour traiter d’énormes quantités de données afin d’extraire des informations spécifiques et de les consolider. Mais le plus original que vous leur demandez d’être, plus ils risquent de s’égarer.

Lire aussi  La pollution de l'air augmente notre risque d'accident vasculaire cérébral et de ses complications ultérieures

Ce fut une année record pour les mots IA, selon le dictionnaire. Cambridge affirme avoir ajouté d’autres termes liés à l’IA à son dictionnaire en 2023, notamment « grand modèle de langage », « AGI », « IA générative » et « GPT ».

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick