Meredith Whittaker de Signal : “Ce sont les gens qui pourraient réellement suspendre l’IA s’ils le voulaient” | Intelligence artificielle (IA)

Meredith Whittaker de Signal : “Ce sont les gens qui pourraient réellement suspendre l’IA s’ils le voulaient” |  Intelligence artificielle (IA)

MEredith Whittaker est la présidente de Signal – l’application de messagerie sécurisée à but non lucratif. Le service, ainsi que WhatsApp et des plates-formes de messagerie similaires, s’oppose du gouvernement britannique facture de sécurité en ligne qui, entre autres, cherche à analyser les messages des utilisateurs à la recherche de contenu préjudiciable. Avant Signal, Whittaker a travaillé chez Google, a cofondé l’AI Now Institute de NYU et a été conseiller auprès de la Federal Trade Commission.

Après 10 ans chez Google, vous avez organisé le débrayage sur l’entreprise attitude face aux accusations de harcèlement sexuel, après quoi en 2019 vous avez été expulsé. Qu’avez-vous ressenti à ce sujet ?
Permettez-moi de revenir sur certains détails, car il y a une sorte d’histoire large, et c’est important pour le moment. Je dirigeais un groupe de recherche sur les implications sociales de l’IA. J’étais assez connu dans l’entreprise et à l’extérieur comme quelqu’un qui discutait de ces problèmes d’une manière qui allait à l’encontre de la messagerie publique de Google. J’étais un dissident interne, un universitaire.

Vers la fin de 2017, un collègue m’a signalé qu’il y avait un contrat secret [known as Maven] entre Google et le ministère de la Défense [DOD] pour construire des systèmes d’IA pour le ciblage des drones. C’est pour moi que j’ai commencé à organiser, parce que j’ai réalisé que j’avais présenté des arguments très clairs avec lesquels les gens étaient d’accord… mais cela n’avait pas vraiment d’importance. Ce n’était pas une question de force d’argumentation. C’était une question des objectifs ultimes de cette entreprise qui sont le profit et la croissance et les contrats du DOD allaient toujours en quelque sorte l’emporter sur ces considérations intellectuelles et morales.

C’est alors que vous avez commencé à organiser un débrayage ?
Que faites-vous si vous n’avez pas le pouvoir de le changer, même si vous gagnez le débat ? C’est là que l’organisation a commencé pour moi. j’ai écrit le Maven lettre [which gathered 3,000 employee signatures] et nous avons fait annuler le contrat Maven.

Le le débrayage était un grand spectacle. Il y avait un reportage sur Andy Rubin obtenant un paiement de 90 millions de dollars (72 millions de livres sterling) après un accusation d’inconduite sexuelle [which he denies]. Ce qui a atteint son paroxysme, ce sont de profondes inquiétudes concernant la direction morale et éthique des pratiques commerciales de Google et la compréhension que ces manquements moraux et éthiques se reflétaient également dans la culture du lieu de travail.

Qu’est-ce que j’ai ressenti à ce sujet ? Je suis très heureux. Je ne suis pas resté les bras croisés et j’ai laissé mon intégrité se ronger en trouvant des excuses pour être complice.

Diriez-vous que Google est assez typique des grandes entreprises technologiques, que ils ne sont vraiment préoccupés par les préoccupations morales et éthiques que s’ils affectent leur résultat net ?
En fin de compte, chaque trimestre, les dirigeants de Google rencontrent le conseil d’administration et ils doivent faire rapport sur les bonnes projections de croissance et de revenus. Tels sont les objectifs clés du capitalisme actionnarial. Si Sundar [Pichai, Google CEO] est allé voir le conseil d’administration et a dit : « Moralement, nous devons laisser 10 milliards de dollars sur la table. Laissez Microsoft avoir ce contrat », il serait viré en un instant. Il ne s’agit pas d’une forme ou d’un ensemble d’objectifs qui permettront de donner la priorité au bien social.

Lire aussi  Le plus grand campus de centres de données d'Italie bénéficiera d'une croissance de 500 millions d'euros

N’y a-t-il pas une analyse de rentabilisation pour éradiquer le harcèlement sexuel, avoir une main-d’œuvre diversifiée et corriger les préjugés dans les algorithmes, etc.?
Il n’y a pas de fenêtre cartésienne de neutralité derrière laquelle vous pouvez mettre un algorithme et dire : « C’est en dehors de notre présent et de notre histoire. Ces algorithmes sont formés sur des données qui ne reflètent pas le monde, mais Internet – ce qui est pire, sans doute. Cela va encoder les histoires historiques et actuelles de la marginalisation, de l’inégalité, etc. . Il s’agira toujours de recycler le passé, puis de le recracher, de le projeter dans le présent.

Nous pouvons dire qu’il y a une analyse de rentabilisation, mais soyons réalistes. Si vous allez voir une main-d’œuvre transformée au nom de l’égalité, il y a beaucoup de personnes puissantes qui devront perdre leur position, ou leur statut, ou leur salaire. Nous vivons dans un monde où les gens sont misogynes et racistes. Là où certains comportements supposent que les femmes ou les hommes non blancs ne devraient pas être dans la pièce. Ils gagnent des milliards de dollars maintenant. Nous ne pouvons pas laisser cela à une analyse de rentabilisation, je pense, c’est l’argument que j’avance.

Donc en 2020-21 quand Timnit Gebru et Margaret Mitchell de l’unité d’éthique de l’IA de Google ont été évincés après avoir mis en garde contre les inégalités perpétuées par l’IA, vous êtes-vous dit “Oh, c’est reparti” ?
Timnit et son équipe effectuaient un travail qui montrait le potentiel de nuisance environnementale et sociale de ces grands modèles de langage – qui sont le carburant du battage médiatique de l’IA en ce moment. Ce que vous avez vu là-bas était un cas très clair de ce que Google tolérerait en termes de critiques de ces systèmes. Peu importe que les problèmes qu’elle et ses co-auteurs ont soulignés soient extraordinairement valables et réels. C’était que Google était comme: “Hé, nous ne voulons pas métaboliser cela en ce moment.”

Lire aussi  Le gouvernement canadien lance un Programme canadien d'adoption numérique de 4 milliards de dollars

Cela vous intéresse-t-il de voir comment leurs avertissements ont été reçus par rapport avec les craintes du risque existentiel exprimées par ex-Google “parrain de l’IA” GeoffRey Hinton récemment?
Si vous deviez tenir compte des avertissements de Timnit, vous devriez modifier considérablement les activités et la structure de ces entreprises. Si vous tenez compte des avertissements de Geoff, vous vous asseyez autour d’une table à Davos et vous avez peur.

Les avertissements de Geoff sont beaucoup plus pratiques, car ils projettent tout dans un futur lointain et laissent le statu quo intact. Et si le statu quo n’est pas touché, vous allez voir ces entreprises et leurs systèmes renforcer davantage leur domination de sorte qu’il devient impossible de réglementer. Ce n’est pas du tout un récit gênant.

Après Google, vous avez été nommé conseiller seniorer sur l’IA à la Federal Trade Commission (FTC). Avez-vous trouvé le processus d’essayer de réglementer décevant ?
Je ne suis pas venu avec des lunettes roses. J’avais parlé avec des gens du Congrès, des gens de la FTC et de diverses agences fédérales pendant des années et à un moment donné, j’ai témoigné devant le Congrès. Je n’étais pas nouveau, je ne venais pas à DC avec une valise et un rêve, mais cela m’a donné une idée de la férocité de l’opposition. Je dirai qu’à la minute où il a été annoncé que j’obtenais le rôle de la FTC, des articles de presse d’extrême droite ont été abandonnés. Le signal de la chauve-souris s’est éteint.

Bien sûr, je ne suis pas le seul. Le bureau de Lina [Khan, FTC chair] a été inondé de cela. Mais au sein d’une agence où il y a une vision, où il y a une analyse qui n’est pas fondée sur la science-fiction mais sur une compréhension de ces systèmes et de cette industrie, il y avait énormément d’opposition. Cela venait des lobbyistes de la technologie, cela venait de la Chambre de commerce, cela venait de certaines personnes au sein de la FTC qui aimeraient aller chercher un joli petit poste d’avocat général dans une entreprise et ne veulent pas que leur nom figure sur quelque chose qui pourrait être considéré comme anti-entreprise. Il y avait une grande vision là-bas, mais la machinerie est difficile à faire fonctionner dans ces conditions.

Contrairement à de nombreux autres entrepreneurs et universitaires du secteur technologique, vous n’avez signé aucune des deux récentes pétitions, la Institut Future of Life « pause AI » lettre ou le mois dernierc’est Centre pour la sécurité de l’IA “menace existentielle” lettre.
Non. Je ne pense pas qu’ils soient de bonne foi. Ce sont les gens qui pourraient réellement le mettre en pause s’ils le voulaient. Ils pourraient débrancher les centres de données. Ils pourraient dénoncer. Ce sont certaines des personnes les plus puissantes lorsqu’il s’agit d’avoir les leviers pour réellement changer cela, donc c’est un peu comme si le président publiait une déclaration disant que quelqu’un devait émettre un décret exécutif. C’est malhonnête.

Lire aussi  Comment réparer les fonctionnalités iOS 16 les plus ennuyeuses sur votre iPhone

Qu’est-ce qui vous a séduit dans le fait de prendre le poste chez Signal ?
Je fais partie de leur conseil d’administration depuis plusieurs années. Signal joue un rôle important dans la réduction des risques en fournissant un mécanisme de communications véritablement privées dans un monde où, au cours des 30 dernières années, de grandes entreprises ont décidé pour nous que toutes nos communications, notre activité, etc. devaient être surveillées.

Vous avez menacé de retirer Signal du Royaume-Uni si le en ligne sécurité projet de loi actuellement en cours d’examen au Parlement est adopté.
Je vais répéter ce que j’ai dit, ce qui n’était pas tout à fait le titre. Nous ne saperons jamais nos promesses de confidentialité. Nous n’altérerons jamais notre cryptage, nous ne participerons jamais à aucun régime qui obligerait à rompre ces promesses.

Le projet de loi propose que les messages des utilisateurs soient scannés “côté client” – c’est-à-dire au téléphone – et les messages seraient cryptés lors de leur envoi…
Les affirmations concernant l’analyse côté client, selon lesquelles elle peut protéger la vie privée tout en effectuant une surveillance de masse, sont une pensée magique. Il arme cyniquement une distinction sémantique dénuée de sens entre la surveillance de masse qui se produit avant que le cryptage ne prenne effet et la rupture du cryptage. Vous avez des politiciens qui disent : “Cela ne casse pas le cryptage, ne vous inquiétez pas.” C’est extraordinairement malhonnête.

Et la modération dans d’autres sphères ne fonctionne pas particulièrement bien – les messages d’analyse de l’IA logicielle, puis les cas difficiles sont référés aux humains…
Ce système ne pourrait jamais fonctionner sans une intervention humaine massive. Ce que vous voyez, c’est un système incroyablement coûteux qui nécessiterait un travail humain constant, une mise à jour constante. Vous voyez des centaines de milliers de personnes se voir interdire l’accès à leurs comptes sans recours, ce qui nuit à la vie quotidienne, à l’emploi et à l’économie des gens. C’est un fantasme inventé par des gens qui ne comprennent pas comment ces systèmes fonctionnent réellement, à quel point ils sont chers et à quel point ils sont faillibles.

Ce qui aide à conduire cela, à rendre cela plausible, c’est le battage médiatique de l’IA. C’est dépeindre ces systèmes comme surhumains, comme super capables, ce qui donne au public, et même à certains politiciens, le sentiment que la technologie peut tout faire.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick