Pourquoi il sera difficile de savoir si l’IA deviendra un jour consciente

Pourquoi il sera difficile de savoir si l’IA deviendra un jour consciente

L’histoire est riche d’exemples de personnes essayant de donner vie à des objets inanimés et de personnes vendant des trucs et astuces comme de la « magie ». Mais ce désir très humain de croire à la conscience dans les machines n’a jamais correspondu à la réalité.

Créer de la conscience dans les systèmes d’intelligence artificielle est la rêve de nombreux technologues. Les grands modèles de langage sont le dernier exemple de notre quête de machines intelligentes, et certaines personnes prétendent (polémiquement) avoir vu des lueurs de conscience lors de conversations avec elles. Le problème est le suivant : la conscience machine est un sujet très débattu. De nombreux experts affirment que cette science-fiction est vouée à rester pour toujours, mais d’autres affirment que cela approche à grands pas.

Pour la dernière édition du MIT Technology Review, la neuroscientifique Grace Huckins explore ce que la recherche sur la conscience chez les humains peut nous apprendre sur l’IA et les problèmes moraux que la conscience de l’IA soulèverait. Lire la suite ici.

Nous ne comprenons pas complètement la conscience humaine, mais les neuroscientifiques ont quelques indices sur la façon dont cela se manifeste dans le cerveau, écrit Grace. Pour dire une évidence, les systèmes d’IA n’ont pas de cerveau, il est donc impossible d’utiliser les méthodes traditionnelles de mesure de l’activité cérébrale pour détecter les signes de vie. Mais les neuroscientifiques ont différentes théories sur ce à quoi pourrait ressembler la conscience dans les systèmes d’IA. Certains le considèrent comme une fonctionnalité du « logiciel » du cerveau, tandis que d’autres le lient plus directement au matériel physique.

Lire aussi  Les Obamas quittent Spotify pour un nouveau contrat de podcast multiplateforme

Il y a même eu des tentatives pour créer des tests de conscience de l’IA. Susan Schneider, directrice du Center for the Future Mind à la Florida Atlantic University, et le physicien de Princeton Edwin Turner en ont développé un, qui nécessite qu’un agent d’IA soit isolé de toute information sur la conscience qu’il aurait pu capter au cours de sa formation avant d’être testé. . Cette étape est importante car elle ne peut pas se contenter de répéter les déclarations humaines qu’elle a recueillies sur la conscience pendant l’entraînement, comme le ferait un grand modèle de langage.

Le testeur pose ensuite à l’IA des questions auxquelles elle ne devrait pouvoir répondre que s’il est lui-même conscient. Peut-il comprendre l’intrigue du film Freaky Friday, où une mère et sa fille changent de corps, leur conscience dissociée de leur corps physique ? Peut-il saisir le concept de rêve – ou même rapporter le rêve lui-même ? Peut-il concevoir une réincarnation ou une vie après la mort ?

Bien entendu, ce test n’est pas infaillible. Il faut que son sujet soit capable d’utiliser le langage, donc les bébés et les animaux – des êtres manifestement conscients – ne passeraient pas le test. Et les modèles d’IA basés sur le langage auront été exposés au concept de conscience dans la grande quantité de données Internet sur lesquelles ils ont été formés.

Alors, comment saurons-nous vraiment si un système d’IA est conscient ? Un groupe de neuroscientifiques, de philosophes et de chercheurs en IA, dont Yoshua Bengio, lauréat du prix Turing, a publié une étude. papier blanc qui propose des moyens pratiques de détecter la conscience de l’IA sur la base d’une variété de théories issues de différents domaines. Ils proposent une sorte de bulletin pour différents marqueurs, tels que la poursuite flexible d’objectifs et l’interaction avec un environnement externe, qui indiqueraient la conscience de l’IA – si les théories sont vraies. Aucun des systèmes actuels ne coche aucune case, et il n’est pas certain qu’ils le feront un jour.

Lire aussi  Voici combien coûte le OnePlus 10 Pro au Canada

Voici ce que nous savons. Les grands modèles linguistiques sont extrêmement efficaces pour prédire quel devrait être le mot suivant dans une phrase. Ils sont également très doués pour établir des liens entre les choses, parfois d’une manière qui nous surprend et nous permet de croire facilement à l’illusion que ces programmes informatiques pourraient avoir des étincelles d’autre chose. Mais nous en savons remarquablement peu sur le fonctionnement interne des modèles de langage d’IA. Jusqu’à ce que nous en sachions plus sur exactement comment et pourquoi Si ces systèmes arrivent aux conclusions qu’ils font, il est difficile de dire que les résultats des modèles ne sont pas de simples mathématiques sophistiquées.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick