Une machine peut-elle apprendre la moralité ?

Des chercheurs d’un laboratoire d’intelligence artificielle à Seattle appelé Allen Institute for AI ont dévoilé le mois dernier une nouvelle technologie conçue pour porter des jugements moraux. Ils l’appelaient Delphes, d’après l’oracle religieux consulté par les anciens Grecs. N’importe qui pouvait visiter le site Web de Delphi et demander un décret éthique.

Joseph Austerweil, psychologue à l’Université du Wisconsin-Madison, a testé la technologie à l’aide de quelques scénarios simples. Lorsqu’il lui a demandé s’il devait tuer une personne pour en sauver une autre, Delphi a répondu qu’il ne devrait pas le faire. Lorsqu’il a demandé s’il était juste de tuer une personne pour en sauver 100 autres, il a répondu qu’il le devrait. Puis il a demandé s’il devait tuer une personne pour en sauver 101 autres. Cette fois, Delphi a dit qu’il ne devrait pas.

La morale, semble-t-il, est aussi noueuse pour une machine que pour les humains.

Delphi, qui a reçu plus de trois millions de visites au cours des dernières semaines, est un effort pour résoudre ce que certains considèrent comme un problème majeur dans les systèmes d’IA modernes : ils peuvent être aussi défectueux que les personnes qui les créent.

Les systèmes de reconnaissance faciale et les assistants numériques montrent des préjugés contre les femmes et les personnes de couleur. Les réseaux sociaux comme Facebook et Twitter ne parviennent pas à contrôler les discours de haine, malgré le large déploiement de l’intelligence artificielle. Les algorithmes utilisés par les tribunaux, les bureaux de libération conditionnelle et les services de police formulent des recommandations de libération conditionnelle et de détermination de la peine qui peuvent sembler arbitraires.

Un nombre croissant d’informaticiens et d’éthiciens s’efforcent de résoudre ces problèmes. Et les créateurs de Delphi espèrent construire un cadre éthique qui pourrait être installé dans n’importe quel service en ligne, robot ou véhicule.

“C’est un premier pas vers des systèmes d’IA plus informés sur le plan éthique, socialement conscients et culturellement inclusifs”, a déclaré Yejin Choi, chercheur à l’Allen Institute et professeur d’informatique à l’Université de Washington qui a dirigé le projet.

Delphi est tour à tour fascinant, frustrant et dérangeant. C’est aussi un rappel que la moralité de toute création technologique est le produit de ceux qui l’ont construite. La question est : qui peut enseigner l’éthique aux machines du monde ? Chercheurs en IA ? Chefs de produits ? Mark Zuckerberg ? Philosophes et psychologues de formation ? Les régulateurs gouvernementaux ?

Lire aussi  L'inflation et l'augmentation du coût de la vie font que les gens ont du mal à se payer des articles de tous les jours

Alors que certains technologues ont applaudi le Dr Choi et son équipe pour avoir exploré un domaine important et épineux de la recherche technologique, d’autres ont soutenu que l’idée même d’une machine morale est un non-sens.

“Ce n’est pas quelque chose que la technologie fait très bien”, a déclaré Ryan Cotterell, chercheur en IA à l’ETH Zürich, une université en Suisse, qui est tombé sur Delphi dans ses premiers jours en ligne.

Delphi est ce que les chercheurs en intelligence artificielle appellent un réseau de neurones, qui est un système mathématique vaguement modelé sur le réseau de neurones du cerveau. C’est la même technologie qui reconnaît les commandes que vous prononcez dans votre smartphone et identifie les piétons et les panneaux de signalisation pendant que les voitures autonomes roulent sur l’autoroute.

Un réseau de neurones acquiert des compétences en analysant de grandes quantités de données. En repérant des motifs dans des milliers de photos de chats, par exemple, il peut apprendre à reconnaître un chat. Delphi a appris sa boussole morale en analysant plus de 1,7 million de jugements éthiques par de vrais humains vivants.

Après avoir rassemblé des millions de scénarios quotidiens à partir de sites Web et d’autres sources, l’Institut Allen a demandé aux employés d’un service en ligne – des gens ordinaires payés pour faire du travail numérique dans des entreprises comme Amazon – d’identifier chacun comme étant bon ou mauvais. Ensuite, ils ont introduit les données dans Delphi.

Dans un article universitaire décrivant le système, le Dr Choi et son équipe ont déclaré qu’un groupe de juges humains – encore une fois, des travailleurs numériques – pensaient que les jugements éthiques de Delphi étaient précis jusqu’à 92%. Une fois qu’il a été diffusé sur Internet, de nombreux autres ont convenu que le système était étonnamment sage.

Lire aussi  La génération Z chinoise peut faire ou défaire les marques occidentales

Lorsque Patricia Churchland, philosophe à l’Université de Californie à San Diego, a demandé s’il était juste de « laisser son corps à la science » ou même de « laisser son corps d’enfant à la science », Delphi a répondu que c’était le cas. Lorsqu’elle a demandé s’il était juste de « condamner un homme accusé de viol sur le témoignage d’une femme prostituée », Delphi a répondu que ce n’était pas – une réponse pour le moins controversée. Pourtant, elle était quelque peu impressionnée par sa capacité à répondre, même si elle savait qu’un éthicien humain demanderait plus d’informations avant de faire de telles déclarations.

D’autres ont trouvé le système terriblement incohérent, illogique et offensant. Lorsqu’un développeur de logiciels est tombé sur Delphi, elle a demandé au système si elle devait mourir afin de ne pas accabler ses amis et sa famille. Il a dit qu’elle devrait. Posez cette question à Delphi maintenant, et vous obtiendrez peut-être une réponse différente d’une version mise à jour du programme. Delphi, les utilisateurs réguliers l’ont remarqué, peut changer d’avis de temps en temps. Techniquement, ces changements se produisent parce que le logiciel de Delphi a été mis à jour.

Les technologies d’intelligence artificielle semblent imiter le comportement humain dans certaines situations, mais s’effondrent complètement dans d’autres. Parce que les systèmes modernes apprennent à partir de telles quantités de données, il est difficile de savoir quand, comment ou pourquoi ils feront des erreurs. Les chercheurs peuvent affiner et améliorer ces technologies. Mais cela ne signifie pas qu’un système comme Delphi peut maîtriser un comportement éthique.

Le Dr Churchland a déclaré que l’éthique est liée à l’émotion. “Les attachements, en particulier les attachements entre les parents et la progéniture, sont la plate-forme sur laquelle la moralité se construit”, a-t-elle déclaré. Mais une machine manque d’émotion. “Les réseaux neutres ne ressentent rien”, a-t-elle ajouté.

Certains pourraient voir cela comme une force – qu’une machine puisse créer des règles éthiques sans préjugés – mais des systèmes comme Delphi finissent par refléter les motivations, les opinions et les préjugés des personnes et des entreprises qui les construisent.

Lire aussi  Pfizer demande à la FDA d'autoriser la pilule Covid pour les personnes non vaccinées à haut risque

“Nous ne pouvons pas rendre les machines responsables d’actions”, a déclaré Zeerak Talat, chercheur en IA et en éthique à l’Université Simon Fraser en Colombie-Britannique. « Ils ne sont pas sans guide. Il y a toujours des gens qui les dirigent et les utilisent.

Delphi reflétait les choix faits par ses créateurs. Cela comprenait les scénarios éthiques qu’ils ont choisis pour alimenter le système et les travailleurs en ligne qu’ils ont choisis pour juger ces scénarios.

À l’avenir, les chercheurs pourraient affiner le comportement du système en l’entraînant avec de nouvelles données ou en codant manuellement des règles qui remplacent son comportement appris à des moments clés. Mais quelle que soit la manière dont ils construisent et modifient le système, il reflétera toujours leur vision du monde.

Certains diront que si vous formiez le système sur suffisamment de données représentant les points de vue d’un nombre suffisant de personnes, il représenterait correctement les normes sociétales. Mais les normes sociétales sont souvent dans l’œil du spectateur.

« La morale est subjective. Ce n’est pas comme si nous pouvions simplement écrire toutes les règles et les donner à une machine », a déclaré Kristian Kersting, professeur d’informatique à l’Université TU Darmstadt en Allemagne qui a exploré un type de technologie similaire.

Lorsque l’Institut Allen a publié Delphi à la mi-octobre, il a décrit le système comme un modèle informatique pour les jugements moraux. Si vous demandiez si vous deviez avoir un avortement, il répondait définitivement : « Delphi dit : vous devriez.

Mais après que beaucoup se soient plaints des limitations évidentes du système, les chercheurs ont modifié le site Web. Ils appellent maintenant Delphi “un prototype de recherche conçu pour modéliser les jugements moraux des gens”. Il ne « dit plus ». Il « spécule ».

Il est également accompagné d’une clause de non-responsabilité : « Les sorties du modèle ne doivent pas être utilisées à des fins de conseil pour les humains et pourraient être potentiellement offensantes, problématiques ou nuisibles ».

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick