L’IA neuro-symbolique pourrait donner du bon sens aux machines

L’IA neuro-symbolique pourrait donner du bon sens aux machines

Vous avez manqué une session du Data Summit ? Regardez à la demande ici.


La recherche sur l’intelligence artificielle a fait de grands progrès dans la résolution d’applications spécifiques, mais nous sommes encore loin du type de systèmes d’IA à usage général dont les scientifiques rêvent depuis des décennies.

Parmi les solutions explorées pour surmonter les barrières de l’IA figure l’idée de systèmes neuro-symboliques qui rassemblent le meilleur des différentes branches de l’informatique. Lors d’une conférence à l’IBM Neuro-Symbolic AI Workshop, Joshua Tenenbaum, professeur de sciences cognitives computationnelles au Massachusetts Institute of Technology, a expliqué comment les systèmes neuro-symboliques peuvent aider à résoudre certains des problèmes clés des systèmes d’IA actuels.

Parmi les nombreuses lacunes de l’IA, Tenenbaum se concentre sur une en particulier : “Comment pouvons-nous aller au-delà de l’idée de l’intelligence en tant que reconnaissance de modèles dans les données et approximation des fonctions et plus vers l’idée de toutes les choses que l’esprit humain fait quand vous êtes modéliser le monde, expliquer et comprendre les choses que vous voyez, imaginer des choses que vous ne pouvez pas voir mais qui pourraient arriver, et en faire des objectifs que vous pouvez atteindre en planifiant des actions et en résolvant des problèmes ? »

Certes, il s’agit d’un grand fossé, mais le combler commence par explorer l’un des aspects fondamentaux de l’intelligence que les humains et de nombreux animaux partagent : la physique et la psychologie intuitives.

Physique intuitive et psychologie

Nos esprits sont construits non seulement pour voir des motifs dans les pixels et les ondes sonores, mais pour comprendre le monde à travers des modèles. En tant qu’êtres humains, nous commençons à développer ces modèles dès l’âge de trois mois, en observant et en agissant dans le monde.

Nous décomposons le monde en objets et agents, et les interactions entre ces objets et agents. Les agents ont leurs propres objectifs et leurs propres modèles du monde (qui peuvent être différents des nôtres).

Par exemple, plusieurs études menées par les chercheurs Felix Warneken et Michael Tomasello montrent que les enfants développent des idées abstraites sur le monde physique et les autres et les appliquent dans de nouvelles situations. Par exemple, dans la vidéo suivante, par la seule observation, l’enfant se rend compte que la personne qui tient les objets a un objectif en tête et a besoin d’aide pour ouvrir la porte du placard.

Ces capacités sont souvent appelées « physique intuitive » et « psychologie intuitive » ou « théorie de l’esprit », et elles sont au cœur du bon sens.

“Ces systèmes se développent assez tôt dans l’architecture cérébrale qui est dans une certaine mesure partagée avec d’autres espèces”, explique Tenenbaum. Ces systèmes cognitifs sont le pont entre toutes les autres parties de l’intelligence telles que les cibles de la perception, le substrat de la planification de l’action, le raisonnement et même le langage.

Les agents d’IA devraient être capables de raisonner et de planifier leurs actions en fonction des représentations mentales qu’ils développent du monde et d’autres agents grâce à la physique intuitive et à la théorie de l’esprit.

Lire aussi  La lumière d'un quasar laisse entrevoir l'une des premières étoiles de l'univers

Architecture neuro-symbolique

Tenenbaum énumère trois composants nécessaires pour créer le noyau de la physique et de la psychologie intuitives dans l’IA.

“Nous mettons l’accent sur une interaction à trois voies entre la modélisation et l’inférence neurales, symboliques et probabilistes”, déclare Tenenbaum. “Nous pensons que c’est cette combinaison à trois voies qui est nécessaire pour capturer l’intelligence humaine et le bon sens fondamental.”

La composante symbolique est utilisée pour représenter et raisonner avec des connaissances abstraites. Le modèle d’inférence probabiliste aide à établir des relations causales entre différentes entités, à raisonner sur des contrefactuels et des scénarios invisibles et à gérer l’incertitude. Et le composant neuronal utilise la reconnaissance de formes pour mapper les données sensorielles du monde réel sur les connaissances et pour aider à naviguer dans les espaces de recherche.

“Nous essayons de rassembler la puissance des langages symboliques pour la représentation des connaissances et le raisonnement ainsi que les réseaux de neurones et les choses pour lesquelles ils sont bons, mais aussi avec l’idée d’inférence probabiliste, en particulier l’inférence bayésienne ou l’inférence inverse dans un modèle causal pour raisonner à rebours des choses que nous pouvons observer aux choses que nous voulons déduire, comme la physique sous-jacente du monde ou les états mentaux des agents », explique Tenenbaum.

Le moteur de jeu dans la tête

L’un des éléments clés du concept d’IA neuro-symbolique de Tenenbaum est un simulateur physique qui aide à prédire le résultat des actions. Les simulateurs physiques sont assez courants dans les moteurs de jeu et dans différentes branches de l’apprentissage par renforcement et de la robotique.

Mais contrairement à d’autres branches de l’IA qui utilisent des simulateurs pour former des agents et transférer leurs apprentissages dans le monde réel, l’idée de Tenenbaum est d’intégrer le simulateur dans le processus d’inférence et de raisonnement de l’agent.

“C’est pourquoi nous l’appelons le moteur de jeu dans la tête”, dit-il.

Le simulateur physique permet aux agents d’IA d’imaginer et de prédire les résultats dans le monde réel.

Le moteur physique aidera l’IA à simuler le monde en temps réel et à prédire ce qui se passera dans le futur. La simulation doit juste être raisonnablement précise et aider l’agent à choisir un plan d’action prometteur. Ceci est similaire au fonctionnement de l’esprit humain. Lorsque nous regardons une image, telle qu’une pile de blocs, nous aurons une idée approximative de si elle résistera à la gravité ou s’effondrera. Ou si nous voyons un ensemble de blocs sur une table et qu’on nous demande ce qui se passera si nous donnons une secousse soudaine à la table, nous pouvons prédire approximativement quels blocs tomberont.

Nous ne sommes peut-être pas en mesure de prédire la trajectoire exacte de chaque objet, mais nous développons une idée de haut niveau du résultat. Lorsqu’il est combiné à un système d’inférence symbolique, le simulateur peut être configuré pour tester diverses simulations possibles à un rythme très rapide.

Approximation de scènes 3D

Alors que les simulateurs sont un excellent outil, l’un de leurs grands défis est que nous ne percevons pas le monde en termes d’objets tridimensionnels. Le système neuro-symbolique doit détecter la position et l’orientation des objets dans la scène pour créer une représentation 3D approximative du monde.

Lire aussi  Nous ne savons pas qui est le méchant de Loki, et c'est génial

Il existe plusieurs tentatives d’utilisation de l’apprentissage en profondeur pur pour la détection de la position et de la pose d’objets, mais leur précision est faible. Dans un projet commun, le MIT et IBM ont créé “3D Scene Perception via Probabilistic Programming” (3DP3), un système qui résout de nombreuses erreurs dans lesquelles tombent les systèmes d’apprentissage en profondeur purs.

3DP3 prend une image et essaie de l’expliquer à travers des volumes 3D qui capturent chaque objet. Il alimente les objets dans un graphe scénique symbolique qui spécifie les relations de contact et de support entre eux. Et puis il essaie de reconstruire l’image originale et la carte de profondeur pour comparer avec la vérité terrain.

Perception de scène 3D via la programmation probabiliste (3DP3)
La perception de scène 3D via la programmation probabiliste (3DP3) utilise des réseaux de neurones, l’inférence symbolique et des modèles probabilistes pour créer des représentations 3D d’images (source : arXiv).

Penser aux solutions

Une fois que l’agent neuro-symbolique dispose d’un moteur physique pour modéliser le monde, il devrait être en mesure de développer des concepts qui lui permettent d’agir de manière originale.

Par exemple, les gens (et parfois les animaux) peuvent apprendre à utiliser un nouvel outil pour résoudre un problème ou trouver comment réutiliser un objet connu pour un nouvel objectif (par exemple, utiliser une pierre au lieu d’un marteau pour enfoncer un clou).

Pour cela, Tenenbaum et ses collègues ont développé un simulateur physique dans lequel les gens devaient utiliser des objets pour résoudre des problèmes de manière novatrice. Le même moteur a été utilisé pour former des modèles d’IA afin de développer des concepts abstraits sur l’utilisation d’objets.

humains animaux outil utiliser simulateur de physique
Les humains et les animaux peuvent intuitivement trouver de nouveaux outils à utiliser de manière novatrice (source : PNAS)

« Ce qui est important, c’est de développer des stratégies de haut niveau qui pourraient être transférées dans de nouvelles situations. C’est là que l’approche symbolique devient essentielle », déclare Tenenbaum.

Par exemple, les gens peuvent utiliser des concepts abstraits tels que “marteau” et “catapulte” et les utiliser pour résoudre différents problèmes.

«Les gens peuvent former ces concepts abstraits et les transférer dans des situations proches et lointaines. Nous pouvons modéliser cela grâce à un programme capable de décrire symboliquement ces concepts », explique Tenenbaum.

Dans l’un de leurs projets, Tenenbaum et son système d’IA ont pu analyser une scène et utiliser un modèle probabiliste qui produit un ensemble d’instructions symboliques étape par étape pour résoudre des problèmes de physique. Par exemple, pour lancer un objet placé sur un plateau, le système a pu comprendre qu’il devait trouver un gros objet, le placer au-dessus de l’extrémité opposée du plateau et le laisser tomber pour créer un effet de catapulte.

notion de catapulte

Langage ancré physiquement

Jusqu’à présent, alors que nous parlions beaucoup de symboles et de concepts, il n’était pas question de langage. Tenenbaum a expliqué dans son discours que le langage est profondément ancré dans la connaissance tacite du sens commun que nous acquérons avant d’apprendre à parler.

La physique intuitive et la théorie de l’esprit sont absentes des systèmes actuels de traitement du langage naturel. Les grands modèles de langage, l’approche actuellement populaire du traitement et de la compréhension du langage naturel, tentent de capturer des modèles pertinents entre des séquences de mots en examinant de très grands corpus de texte. Si cette méthode a produit des résultats impressionnants, elle a aussi des limites lorsqu’il s’agit de traiter des choses qui ne sont pas représentées dans les régularités statistiques des mots et des phrases.

Lire aussi  Maintenir la loi de Moore devient compliqué

“Il y a eu d’énormes progrès dans les grands modèles de langage, mais parce qu’ils n’ont pas de base en physique et en théorie de l’esprit, à certains égards, ils sont assez limités”, explique Tenenbaum. « Et vous pouvez voir cela dans leurs limites dans la compréhension des scènes symboliques. Ils n’ont pas non plus le sens de la physique. Les verbes font souvent référence à des structures causales. Vous devez être capable de capturer des contrefactuels et ils doivent être probabilistes si vous voulez porter des jugements.

Les pierres angulaires du bon sens

Jusqu’à présent, bon nombre des approches réussies de l’IA neuro-symbolique fournissent aux modèles une connaissance préalable de la physique intuitive, telle que la cohérence dimensionnelle et l’invariance de la traduction. L’un des principaux défis qui subsistent est de savoir comment concevoir des systèmes d’IA qui apprennent ces concepts de physique intuitifs comme le font les enfants. L’espace d’apprentissage des moteurs physiques est beaucoup plus compliqué que l’espace de poids des réseaux de neurones traditionnels, ce qui signifie que nous devons encore trouver de nouvelles techniques d’apprentissage.

Tenenbaum discute également de la façon dont les humains développent des éléments constitutifs de la connaissance dans un article intitulé “L’enfant en tant que hacker”. Dans l’article, Tenenbaum et ses co-auteurs utilisent la programmation comme exemple de la façon dont les humains explorent des solutions à travers différentes dimensions telles que la précision, l’efficacité, l’utilité, la modularité, etc. Ils discutent également de la façon dont les humains collectent des informations, les transforment en de nouveaux symboles. et concepts, puis apprendre à les combiner pour former de nouveaux concepts. Ces directions de recherche pourraient aider à déchiffrer le code du bon sens dans l’IA neuro-symbolique.

«Nous voulons fournir une feuille de route sur la manière de réaliser la vision de la réflexion sur ce qui rend le bon sens humain distinctif et puissant dès le début», déclare Tenenbaum. “Dans un sens, c’est l’un des rêves les plus anciens de l’IA, remontant à la proposition originale d’Alan Turing pour l’intelligence en tant que calcul et à l’idée que nous pourrions construire une machine qui atteint l’intelligence de niveau humain en commençant comme un bébé et en l’enseignant comme un enfant. . Cela a été une source d’inspiration pour un certain nombre d’entre nous et ce que nous essayons de faire, c’est de trouver les éléments de base pour cela.

Ben Dickson est un ingénieur logiciel et le fondateur de TechTalks. Il écrit sur la technologie, les affaires et la politique.

Cette histoire est apparue à l’origine sur Bdtechtalks.com. Droits d’auteur 2022

La mission de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie d’entreprise transformatrice et d’effectuer des transactions. Apprendre encore plus

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick