L’IA génère des hypothèses auxquelles les scientifiques humains n’ont pas pensé

Les véhicules électriques ont le potentiel de réduire considérablement les émissions de carbone, mais les constructeurs automobiles manquent de matériaux pour fabriquer des batteries. Un composant crucial, le nickel, devrait provoquer des pénuries d’approvisionnement dès la fin de cette année. Les scientifiques ont récemment découvert quatre nouveaux matériaux qui pourraient potentiellement aider – et ce qui peut être encore plus intriguant, c’est comment ils ont trouvé ces matériaux : les chercheurs se sont appuyés sur l’intelligence artificielle pour sélectionner des produits chimiques utiles parmi une liste de plus de 300 options. Et ils ne sont pas les seuls humains à se tourner vers l’IA pour s’inspirer scientifiquement.

La création d’hypothèses a longtemps été un domaine purement humain. Maintenant, cependant, les scientifiques commencent à demander à l’apprentissage automatique de produire des informations originales. Ils conçoivent des réseaux de neurones (un type de configuration d’apprentissage automatique avec une structure inspirée du cerveau humain) qui suggèrent de nouvelles hypothèses basées sur des modèles que les réseaux trouvent dans les données au lieu de s’appuyer sur des hypothèses humaines. De nombreux domaines pourraient bientôt devenir la muse de l’apprentissage automatique pour tenter d’accélérer le processus scientifique et de réduire les biais humains.

Dans le cas des nouveaux matériaux de batterie, les scientifiques poursuivant de telles tâches se sont généralement appuyés sur des outils de recherche de bases de données, la modélisation et leur propre intuition sur les produits chimiques pour sélectionner des composés utiles. Au lieu de cela, une équipe de l’Université de Liverpool en Angleterre a utilisé l’apprentissage automatique pour rationaliser le processus créatif. Les chercheurs ont développé un réseau neuronal qui a classé les combinaisons chimiques en fonction de leur probabilité d’aboutir à un nouveau matériau utile. Ensuite, les scientifiques ont utilisé ces classements pour guider leurs expériences en laboratoire. Ils ont identifié quatre candidats prometteurs pour les matériaux de batterie sans avoir à tout tester sur leur liste, ce qui leur a épargné des mois d’essais et d’erreurs.

“C’est un excellent outil”, déclare Andrij Vasylenko, chercheur associé à l’Université de Liverpool et co-auteur de l’étude sur la recherche de matériaux de batterie, publiée dans Nature Communications le mois dernier. Le processus d’IA aide à identifier les combinaisons chimiques qui valent la peine d’être examinées, ajoute-t-il, afin que “nous puissions couvrir beaucoup plus d’espace chimique plus rapidement”.

Lire aussi  Le pacte numérique entre les États-Unis et l'Asie retenu par Squabble parmi les responsables de Biden

La découverte de nouveaux matériaux n’est pas le seul domaine où l’apprentissage automatique pourrait contribuer à la science. Les chercheurs appliquent également les réseaux de neurones à des questions techniques et théoriques plus vastes. Renato Renner, physicien à l’Institut de physique théorique de Zurich, espère un jour utiliser l’apprentissage automatique pour développer une théorie unifiée du fonctionnement de l’univers. Mais avant que l’IA puisse découvrir la vraie nature de la réalité, les chercheurs doivent s’attaquer à la question notoirement difficile de la façon dont les réseaux de neurones prennent leurs décisions.

Entrer dans l’esprit d’apprentissage automatique

Au cours des 10 dernières années, l’apprentissage automatique est devenu un outil extrêmement populaire pour classer les mégadonnées et faire des prédictions. Cependant, expliquer la base logique de ses décisions peut être très difficile. Les réseaux de neurones sont construits à partir de nœuds interconnectés, modelés sur les neurones du cerveau, avec une structure qui change au fur et à mesure que l’information y circule. Bien que ce modèle adaptatif soit capable de résoudre des problèmes complexes, il est également souvent impossible pour les humains de décoder la logique impliquée.

Ce manque de transparence a été surnommé « le problème de la boîte noire » car personne ne peut voir à l’intérieur du réseau pour expliquer son processus de « pensée ». Non seulement cette opacité sape la confiance dans les résultats, mais elle limite également la contribution des réseaux neuronaux à la compréhension scientifique du monde par les humains.

Certains scientifiques tentent de rendre la boîte noire transparente en développant des « techniques d’interprétabilité », qui tentent d’expliquer étape par étape comment un réseau parvient à ses réponses. Il peut ne pas être possible d’obtenir un niveau de détail élevé à partir de modèles d’apprentissage automatique complexes. Mais les chercheurs peuvent souvent identifier des tendances plus larges dans la manière dont un réseau traite les données, conduisant parfois à des découvertes surprenantes, comme par exemple qui est le plus susceptible de développer un cancer.

Lire aussi  Le pouvoir et les pièges de l'IA pour le renseignement américain

Il y a plusieurs années, Anant Madabhushi, professeur de génie biomédical à la Case Western Reserve University, a utilisé des techniques d’interprétabilité pour comprendre pourquoi certaines patientes sont plus susceptibles que d’autres d’avoir une récidive du cancer du sein ou de la prostate. Il a transmis les scans des patients à un réseau de neurones, et le réseau a identifié ceux qui présentaient un risque plus élevé de réapparition du cancer. Ensuite, Madabhushi a analysé le réseau pour trouver la caractéristique la plus importante pour déterminer la probabilité d’un patient de développer à nouveau un cancer. Les résultats suggèrent que l’étroitesse des structures internes des glandes est le facteur qui prédit le plus précisément la probabilité qu’un cancer réapparaisse.

“Ce n’était pas une hypothèse. Nous ne le savions pas”, dit Madabhushi. “Nous avons utilisé une méthodologie pour découvrir un attribut de la maladie qui s’est avéré important.” Ce n’est qu’après que l’IA ait tiré sa conclusion que son équipe a découvert que le résultat était également conforme à la littérature scientifique actuelle sur la pathologie. Le réseau de neurones ne peut pas encore expliquer Pourquoi la densité de la structure des glandes contribue au cancer, mais cela a quand même aidé Madabhushi et ses collègues à mieux comprendre comment la croissance tumorale progresse, menant à de nouvelles directions pour la recherche future.

Quand l’IA heurte un mur

Bien que jeter un coup d’œil à l’intérieur de la boîte noire puisse aider les humains à construire de nouvelles hypothèses scientifiques, “nous avons encore un long chemin à parcourir”, déclare Soumik Sarkar, professeur agrégé de génie mécanique à l’Iowa State University. Les techniques d’interprétabilité peuvent faire allusion à des corrélations qui apparaissent dans le processus d’apprentissage automatique, mais elles ne peuvent pas prouver la causalité ou offrir des explications. Ils s’appuient toujours sur des experts en la matière pour tirer un sens du réseau.

L’apprentissage automatique utilise également souvent des données collectées par le biais de processus humains, ce qui peut l’amener à reproduire des biais humains. Un réseau de neurones, appelé Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), a même été accusé d’être raciste. Le réseau a été utilisé pour prédire la probabilité de récidive des personnes incarcérées. Une enquête de ProPublica aurait révélé que le système avait signalé à tort que les Noirs étaient susceptibles d’enfreindre la loi après avoir été libérés presque deux fois plus souvent que pour les Blancs dans un comté de Floride. Equivant, anciennement Northpoint, la société de logiciels de justice pénale qui a créé COMPAS, a contesté l’analyse de ProPublica et affirmé que son programme d’évaluation des risques avait été mal interprété.

Lire aussi  La mise à l'échelle de l'IA ruine un autre jeu rétro classique

Malgré ces problèmes, Renner, le physicien basé à Zurich, garde espoir que l’apprentissage automatique peut aider les gens à poursuivre leurs connaissances d’un point de vue moins biaisé. Les réseaux de neurones pourraient inspirer les gens à réfléchir aux vieilles questions d’une nouvelle manière, dit-il. Bien que les réseaux ne puissent pas encore faire d’hypothèses entièrement par eux-mêmes, ils peuvent donner des indices et orienter les scientifiques vers une vision différente d’un problème.

Renner va jusqu’à essayer de concevoir un réseau de neurones qui peut examiner la vraie nature du cosmos. Les physiciens ont été incapables de concilier deux théories de l’univers – la théorie quantique et la théorie de la relativité générale d’Einstein – pendant plus d’un siècle. Mais Renner espère que l’apprentissage automatique lui donnera la nouvelle perspective dont il a besoin pour combler la compréhension scientifique du fonctionnement de la matière à l’échelle du très petit et du très grand.

« Nous ne pouvons faire de grands progrès en physique que si nous examinons les choses d’une manière non conventionnelle », dit-il. Pour l’instant, il construit le réseau avec des théories historiques, lui donnant un avant-goût de la façon dont les humains pensent que l’univers est structuré. Dans les prochaines années, il compte lui demander de trouver sa propre réponse à cette ultime question.

.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick