Quand les chatbots IA paniquent – The New York Times

Quand les chatbots IA paniquent – The New York Times

Les chatbots comme ChatGPT sont utilisés par des centaines de millions de personnes pour une gamme toujours plus large de tâches, y compris les services de messagerie, les tuteurs en ligne et les moteurs de recherche. Et ils pourraient changer la façon dont les gens interagissent avec l’information. Mais il n’y a aucun moyen de garantir que ces systèmes produiront des informations exactes.

La technologie, appelée IA générative, est basée sur un algorithme complexe qui analyse la façon dont les humains assemblent les mots sur Internet. Il ne décide pas ce qui est vrai et ce qui ne l’est pas. Cette incertitude a soulevé des inquiétudes quant à la fiabilité de ce nouveau type d’intelligence artificielle et s’interroge sur son utilité jusqu’à ce que le problème soit résolu ou maîtrisé.

L’industrie technologique qualifie souvent les inexactitudes d'”hallucinations”. Mais pour certains chercheurs, les “hallucinations” sont trop un euphémisme. Même les chercheurs au sein des entreprises technologiques craignent que les gens se fient trop à ces systèmes pour obtenir des conseils médicaux et juridiques et d’autres informations qu’ils utilisent pour prendre des décisions quotidiennes.

“Si vous ne connaissez pas déjà la réponse à une question, je ne poserais pas la question à l’un de ces systèmes”, a déclaré Subbarao Kambhampati, professeur et chercheur en intelligence artificielle à l’Arizona State University.

ChatGPT n’était pas le seul à s’être trompé sur la première référence à l’IA dans The Times. Les chatbots Bard de Google et Bing de Microsoft ont fourni à plusieurs reprises des réponses inexactes à la même question. Bien que fausses, les réponses semblaient plausibles car elles brouillaient et fusionnaient les personnes, les événements et les idées.

Related News

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick