Ce que nous perdons lorsque nous travaillons avec une ‘IA géante’ comme ChatGPT

Ce que nous perdons lorsque nous travaillons avec une ‘IA géante’ comme ChatGPT

Récemment, ChatGPT et son espèce d'”intelligences artificielles géantes” (Bard, Chinchilla, PaLM, LaMDA, et al.), ou gAI, ont fait plusieurs gros titres.

ChatGPT est un grand modèle de langage (LLM). Il s’agit d’un type de (à base de transformateur) réseau de neurones qui est excellent pour prédire le mot suivant dans une séquence de mots. ChatGPT utilise GPT4 – un modèle formé sur un grande quantité de texte sur internet, que son créateur OpenAI pourrait gratter et pourrait justifier comme étant sûr et propre pour s’entraîner. GPT4 a un billion de paramètres actuellement appliqués au service de, selon le Site Web d’OpenAIassurant la création « d’une intelligence artificielle générale au service de toute l’humanité ».

Pourtant, les gAI ne laissent aucune place à l’apport démocratique : elles sont conçues de haut en bas, en partant du principe que le modèle acquerra lui-même les plus petits détails. Il existe de nombreux cas d’utilisation destinés à ces systèmes, y compris services juridiquesenseignant aux élèves, générer des suggestions de politiques et même apporter des éclairages scientifiques. Les gAI se veulent donc un outil qui automatise ce qui était jusqu’ici supposé impossible à automatiser : le savoir-travail.

Qu’est-ce que le “haut modernisme” ?

Dans son livre de 1998 Voir comme un État, James C. Scott, professeur à l’Université de Yale, se penche sur la dynamique du pouvoir de l’État-nation, à la fois démocratique et non démocratique, et ses conséquences pour la société. Les États cherchent à améliorer la vie de leurs citoyens, mais lorsqu’ils conçoivent des politiques du haut vers le bas, ils réduisent souvent la richesse et la complexité de l’expérience humaine à ce qui est quantifiable.

La philosophie motrice actuelle des États est, selon le professeur Scott, le « haut modernisme » – une foi dans l’ordre et le progrès mesurable. Il soutient que cette idéologie, qui prétend à tort avoir des fondements scientifiques, ignore souvent les connaissances locales et l’expérience vécue, entraînant des conséquences désastreuses. Il cite l’exemple des plantations monocultures, contrairement aux plantations multicultures, pour montrer comment la planification descendante peut ne pas tenir compte de la diversité régionale de l’agriculture.

Lire aussi  Il faudra « des décennies » à l’IA pour atteindre une intelligence de niveau humain, déclare le parrain de l’IA

La conséquence de cet échec est la destruction des sols et des moyens de subsistance à long terme. C’est le même risque auquel est aujourd’hui confronté le travail du savoir face aux IAg.

Pourquoi le haut modernisme est-il un problème lors de la conception de l’IA ? Ne serait-il pas formidable d’avoir un guichet unique, une Amazone pour nos besoins intellectuels ? En l’occurrence, Amazon offre un exemple clair des problèmes résultant d’un manque d’options diverses. Un tel modèle commercial n’apporte qu’une standardisation accrue et non la durabilité ou l’artisanat, et par conséquent tout le monde a les mêmes produits bon marché et à l’emporte-pièce, tandis que les magasins locaux des petites villes meurent mort lente par mille clics.

Qu’est-ce que les IA géantes font abstraction ?

À l’instar de la mort des magasins de proximité, la montée en puissance des IAg pourrait conduire à la perte de langues, ce qui nuira à la diversité de nos pensées mêmes. Le risque d’une telle perte de langue est dû au biais induit par les modèles entraînés uniquement sur les langues qui peuplent déjà Internet, c’est-à-dire beaucoup d’anglais (~60 %). Il existe d’autres manières d’utiliser un modèle susceptible d’être biaiséy compris sur la religion (plus de sites Web prêchent le christianisme que d’autres religions, par exemple), le sexe et la race.

Dans le même temps, les LLM sont déraisonnablement efficaces pour fournir des réponses intelligibles. Auteur de science-fiction Ted Chiang suggère que cela est vrai parce que ChatGPT est un “JPEG flou” d’Internet, mais une analogie plus appropriée pourrait être celle d’un atlas.

Lire aussi  Le casting de Baldur's Gate 3 est de retour et les fans pensent que cela pourrait signifier des mises à jour à venir

Un atlas est un excellent moyen de voir le monde entier en instantanés. Cependant, un atlas manque de multidimensionnalité. Par exemple, j’ai demandé à ChatGPT pourquoi c’était une mauvaise idée de planter des eucalyptus dans le Quartier ouest de Medinipur. Cela m’a donné plusieurs raisons pour lesquelles les plantations en monoculture sont mauvaises – mais n’a pas fourni la vraie raison pour laquelle les gens de la région s’y sont opposés : une plantation en monoculture a réduit la nourriture qu’ils pouvaient récolter.

Ce type de connaissances locales ne vient que de l’expérience. Nous pouvons appeler cela « la connaissance du territoire ». Cette connaissance est extraite par les gAI au profit de la vue atlas de tout ce qui est présent sur Internet. Le territoire ne peut être capturé que par les personnes effectuant les tâches que les gAI sont essayer de remplacer.

La diversité peut-elle aider ?

Une partie de l’incapacité à capturer le territoire est démontrée dans le manque de compréhension des gAI. Si vous faites attention à ce que vous leur demandez (un exploit appelé “ingénierie rapide” – un exemple de technologie déformant l’écologie de notre comportement), ils peuvent façonner des réponses impressionnantes. Mais posez-lui la même question d’une manière légèrement différente et vous obtiendrez des ordures complètes. Cette tendance a incité les informaticiens à appeler ces systèmes perroquets stochastiques – c’est-à-dire des systèmes qui peuvent imiter le langage mais dont le comportement est aléatoire.

Des directions de recherche positives existent également. Par exemple, FLORAISON est un LLM open source développé par des scientifiques avec des fonds publics et avec un filtrage approfondi des données de formation. Ce modèle est également multilingue, dont 10 langues indiennes, plus un équipe éthique active qui met régulièrement à jour la licence d’utilisation.

Lire aussi  Rare émergence de cigales doubles jamais vue depuis 221 ans

Il existe plusieurs façons de contrecarrer les risques posés par les IAg. L’une consiste à ralentir artificiellement le rythme des progrès de la commercialisation de l’IA pour laisser le temps aux apports démocratiques. (Des dizaines de milliers de chercheurs ont déjà a signé une pétition à cet effet).

Une autre consiste à s’assurer que divers modèles sont en cours d’élaboration. La « diversité » implique ici plusieurs solutions à la même question, comme des cartographes indépendants préparant différents atlas avec différentes incitations : certains se concentreront sur la flore tandis que d’autres sur la faune. Le recherche sur la diversité suggère que plus le temps passe avant de parvenir à une solution commune, meilleur est le résultat. Et un meilleur résultat est critique face aux enjeux de l’intelligence artificielle générale – un domaine d’étude dans lequel un tiers des chercheurs pensent qu’elle peut conduire à une catastrophe de niveau nucléaire.

Comment le simple fait de « aider et augmenter » peut-il être nocif ?

Juste pour être clair, j’ai écrit cet article, pas ChatGPT. Mais je voulais vérifier ce qu’il dirait…

“Q : Rédigez une réponse au texte précédent en tant que ChatGPT.

R : En tant que ChatGPT, je suis un outil destiné à aider et à augmenter les capacités humaines, pas à les remplacer ; mon objectif est de comprendre et de répondre à vos invites, pas de remplacer la richesse et la diversité des connaissances et de l’expérience humaines.

Pourtant, comme l’écrivain George Zarkadakis Mets-le, “Toute augmentation est aussi une amputation”. ChatGPT & co. peuvent “aider et augmenter” mais en même temps, ils réduisent la diversité des pensées, des solutions et des connaissances, et ils le font actuellement sans les contributions des personnes censées les utiliser.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick