TechScape : Les personnes chargées de veiller à ce que l’IA ne détruise pas l’humanité ont quitté le bâtiment | Technologie

TechScape : Les personnes chargées de veiller à ce que l’IA ne détruise pas l’humanité ont quitté le bâtiment |  Technologie

Tout arrive tellement. Je suis à Séoul pour le sommet international sur l’IA, le suivi semestriel du sommet sur la sécurité de l’IA de Bletchley Park de l’année dernière (la suite complète aura lieu à Paris cet automne). Pendant que vous lisez ces lignes, la première journée d’événements vient de se terminer – même si, compte tenu du peu d’agitation cette fois-ci, il ne s’agissait que d’une réunion « virtuelle » des dirigeants.

Lorsque la date de ce sommet a été fixée – à une heure alarmante pour, par exemple, un journaliste ayant deux enfants d’âge préscolaire et pour qui quatre jours loin de chez lui est un véritable exercice de jonglage – il était clair qu’il y aurait beaucoup de choses à couvrir. L’été chaud de l’IA est à nos portes :

L’IA inaugurale sécurité Le sommet de Bletchley Park au Royaume-Uni l’année dernière a annoncé un cadre de test international pour les modèles d’IA, après des appels … pour une pause de six mois dans le développement de systèmes puissants.

Il n’y a eu aucune pause. La déclaration de Bletchley, signée par le Royaume-Uni, les États-Unis, l’Union européenne, la Chine et d’autres, a salué les « énormes opportunités mondiales » offertes par l’IA, mais a également mis en garde contre son potentiel de causer des dommages « catastrophiques ». Il a également obtenu l’engagement de grandes entreprises technologiques, notamment OpenAI, Google et Meta de Mark Zuckerberg, à coopérer avec les gouvernements pour tester leurs modèles avant leur publication.

Alors que le Royaume-Uni et les États-Unis ont créé des instituts nationaux de sécurité de l’IA, le développement de l’IA dans l’industrie s’est poursuivi. … OpenAI a publié GPT-4o (le o signifie « omni ») gratuitement en ligne ; un jour plus tard, Google a présenté en avant-première un nouvel assistant IA appelé Project Astra, ainsi que des mises à jour de son modèle Gemini. Le mois dernier, Meta a publié de nouvelles versions de son propre modèle d’IA, Llama. Et en mars, la startup d’IA Anthropic, formée par d’anciens employés d’OpenAI en désaccord avec L’approche d’Altman a mis à jour son modèle Claude.

Puis, le week-end précédant le début du sommet, tout a également démarré à OpenAI. Le plus frappant, peut-être, c’est que la société s’est retrouvée en conflit avec Scarlett Johansson à propos de l’une des options vocales disponibles dans la nouvelle itération de ChatGPT. Après avoir approché l’acteur pour prêter sa voix à son nouvel assistant, offre qu’elle a déclinée à deux reprises, OpenAI a lancé ChatGPT-4o avec « Sky » parlant de ses nouvelles capacités. La similitude avec Johansson était immédiatement évidente pour tous, avant même que le PDG Sam Altman ne la tweete après la présentation (le nom du film de Spike Jonze dans lequel Johansson exprimait une IA super intelligente). Bien que la similitude ait été niée, l’option vocale Sky a été supprimée.

Lire aussi  Élections ontariennes de 2022 : Pourquoi Ottawa-Ouest-Nepean est une étape de campagne populaire pour les chefs du NPD et du Parti libéral

Mais plus important encore, les deux hommes qui dirigeaient l’équipe de « superalignement » de l’entreprise/organisation à but non lucratif/organisation secrète – qui se consacrait à garantir que ses efforts pour construire une superintelligence ne mettent pas fin à l’humanité – ont démissionné. Le premier à partir fut Ilya Sutskever, co-fondateur de l’organisation et leader du coup d’État qui, temporairement et sans succès, renversa Altman. Sa sortie a fait sourciller, mais elle n’était guère imprévue. Si vous venez chez le roi, vous feriez mieux de ne pas le rater. Puis, vendredi, Jan Leike, co-responsable du superalignement chez Sutskever, est également parti et avait beaucoup plus à dire :

Un ancien employé senior d’OpenAI a déclaré que l’entreprise derrière ChatGPT donnait la priorité aux « produits brillants » plutôt qu’à la sécurité, révélant qu’il avait démissionné après qu’un désaccord sur les objectifs clés ait atteint un « point de rupture ».

Leike a détaillé les raisons de son départ dans un fil de discussion sur X publié vendredi, dans lequel il a déclaré que la culture de la sécurité était devenue une priorité moindre. « Au cours des dernières années, la culture et les processus de sécurité ont cédé le pas aux produits brillants », écrit-il.

« Ces problèmes sont assez difficiles à résoudre, et je crains que nous ne soyons pas sur la bonne voie pour y parvenir », a-t-il écrit, ajoutant qu’il devenait « de plus en plus difficile » pour son équipe de mener ses recherches.

« Construire des machines plus intelligentes que l’humain est une entreprise intrinsèquement dangereuse. OpenAI assume une énorme responsabilité au nom de toute l’humanité », a écrit Leike, ajoutant qu’OpenAI « doit devenir une AGI axée sur la sécurité. [artificial general intelligence] entreprise”.

La note de démission de Leike constitue un rare aperçu de la dissidence au sein du groupe, qui a déjà été décrit comme étant presque résolu dans la poursuite de ses objectifs – ce qui signifie parfois ceux de Sam Altman. Lorsque le charismatique directeur général a été licencié, il a été rapporté que presque tout le personnel avait accepté les offres de Microsoft de le suivre dans un nouveau laboratoire d’IA créé sous la Maison Gates, qui détient également la plus grande participation externe dans la filiale d’OpenAI. Même lorsqu’un certain nombre d’employés ont démissionné pour fonder Anthropic, une société rivale d’IA qui se distingue en affirmant à quel point elle se concentre sur la sécurité, le nombre de conneries a été réduit au minimum.

Lire aussi  Comment NCH Healthcare a réduit le fardeau des alertes grâce à des CDS plus significatifs

Il s’avère (surprise !) que ce n’est pas parce que tout le monde s’aime et n’a rien de mal à dire. De Kelsey Piper chez Vox :

J’ai vu l’accord de départ extrêmement restrictif qui contient des dispositions de non-divulgation et de non-dénigrement auxquelles sont soumis les anciens employés d’OpenAI. Il leur interdit, pour le reste de leur vie, de critiquer leur ancien employeur. Même reconnaître que la NDA existe est une violation de celle-ci.

Si un employé qui quitte l’entreprise refuse de signer le document ou s’il le viole, il peut perdre toutes les actions acquises qu’il a gagnées au cours de son mandat dans l’entreprise, qui valent probablement des millions de dollars. Un ancien employé, Daniel Résuméqui a posté qu’il avait quitté OpenAI « parce qu’il avait perdu confiance dans son comportement responsable à l’époque de l’AGI », a confirmé publiquement qu’il avait dû abandonner ce qui se serait probablement avéré être une énorme somme d’argent afin d’arrêter sans signer le document.

À peine un jour plus tard, Altman a déclaré que les dispositions de récupération « n’auraient jamais dû figurer dans aucun document ». Il a ajouté : « nous n’avons jamais récupéré les capitaux propres acquis par qui que ce soit, et nous ne le ferons pas non plus si les gens ne signent pas d’accord de séparation. c’est de ma faute et l’une des rares fois où j’ai été vraiment gêné de diriger openai ; je ne savais pas que cela se produisait et j’aurais dû. (Propre modèle de capitalisation.)

Altman n’a pas répondu aux allégations plus larges, d’une NDA stricte et large ; et, bien qu’il ait promis de corriger la disposition de récupération, rien n’a été dit sur les autres incitations, la carotte et le bâton, offertes aux employés pour qu’ils signent les documents de sortie.

Lire aussi  Les étudiants recherchent un emploi lors d'un événement « opportunités »

En ce qui concerne le décor, c’est parfait. Altman a été un partisan important de la réglementation étatique et interétatique de l’IA. Nous voyons maintenant pourquoi cela pourrait être nécessaire. Si OpenAI, l’un des laboratoires d’IA les plus grands et les mieux dotés en ressources au monde, qui prétend que la sécurité est à la base de tout ce qu’il fait, ne peut même pas maintenir sa propre équipe unie, alors quel espoir y a-t-il pour le reste du monde ? industrie?

Négligent

Le « Jésus aux crevettes » est un exemple d’art étrange généré par l’IA et partagé sur Facebook.

C’est amusant de voir un terme artistique se développer sous vos yeux. La poste avait du courrier indésirable ; l’e-mail contenait du spam ; le monde de l’IA est en panne :

« Slop » est ce que vous obtenez lorsque vous publiez sur le Web du matériel généré par l’intelligence artificielle pour que tout le monde puisse le voir.

Contrairement à un chatbot, le slop n’est pas interactif et est rarement destiné à répondre réellement aux questions des lecteurs ou à répondre à leurs besoins.

Mais comme le spam, son effet global est négatif : le temps et les efforts perdus par les utilisateurs qui doivent désormais parcourir les slops pour trouver le contenu qu’ils recherchent réellement dépassent de loin les bénéfices du créateur du slop.

Je souhaite contribuer à populariser le terme, pour les mêmes raisons que Simon Willison, le développeur qui a attiré mon attention sur son émergence : il est crucial d’avoir des moyens simples de parler d’une IA mal faite, de préserver la capacité de reconnaître que l’IA est mal faite. peut être bien fait.

L’existence de spam implique les emails que vous souhaitez recevoir ; l’existence de slop implique le contenu IA souhaité. Pour moi, c’est du contenu que j’ai généré moi-même, ou du moins que je m’attends à ce qu’il soit généré par l’IA. Personne ne se soucie du rêve que vous avez fait la nuit dernière, et personne ne se soucie de la réponse que vous avez reçue de ChatGPT. Garde ça pour toi.

Vous ne recevez pas TechScape dans votre boîte de réception ? Inscrivez-vous pour l’article complet ici

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick