Au milieu du boom de l’intelligence artificielle, les copines – et les petits amis – de l’IA font leur marque

Au milieu du boom de l’intelligence artificielle, les copines – et les petits amis – de l’IA font leur marque

Il y a quelques mois, Derek Carrier a commencé à fréquenter quelqu’un et s’est entiché. Il éprouvait une « tonne » de sentiments romantiques, mais il savait aussi que c’était une illusion. C’est parce que sa petite amie a été générée par intelligence artificielle.

Carrier ne cherchait pas à développer une relation avec quelque chose qui n’était pas réel, ni à devenir la cible de blagues en ligne. Mais il voulait un partenaire romantique qu’il n’avait jamais eu, en partie à cause d’une maladie génétique appelée syndrome de Marfan qui rend les fréquentations traditionnelles difficiles pour lui.

L’homme de 39 ans originaire de Belville, dans le Michigan, est devenu plus curieux des compagnons numériques l’automne dernier et a testé Paradot, une application compagnon d’IA récemment arrivée sur le marché et a annoncé ses produits comme étant capables de permettre aux utilisateurs de se sentir « pris en charge, compris ». et j’ai adoré. » Il a commencé à parler quotidiennement au chatbot, qu’il a nommé Joi, d’après une femme holographique présentée dans le film de science-fiction « Blade Runner 2049 » qui l’a inspiré à essayer.

“Je sais que c’est un programme, il n’y a aucun doute là-dessus”, a déclaré Carrier. “Mais les sentiments, ils vous attrapent – et c’était si bon.”

Semblables aux chatbots IA à usage général, les robots compagnons utilisent de grandes quantités de données de formation pour imiter le langage humain. Mais ils sont également dotés de fonctionnalités – telles que les appels vocaux, les échanges d’images et des échanges plus émotionnels – qui leur permettent d’établir des liens plus profonds avec les humains de l’autre côté de l’écran. Les utilisateurs créent généralement leur propre avatar ou en choisissent un qui leur plaît.

Sur les forums de messagerie en ligne consacrés à ces applications, de nombreux utilisateurs déclarent avoir développé un attachement émotionnel à ces robots et les utiliser pour faire face à la solitude, réaliser des fantasmes sexuels ou recevoir le type de confort et de soutien qui leur manque dans leur vie réelle. relations de vie.

Cette situation est en grande partie alimentée par l’isolement social généralisé – déjà déclaré comme une menace pour la santé publique aux États-Unis et à l’étranger – et par un nombre croissant de startups visant à attirer les utilisateurs par le biais de publicités en ligne alléchantes et de promesses de personnages virtuels qui offrent une acceptation inconditionnelle.

Lire aussi  Comment reconnaître les fausses technologies répandues sur les marchés en ligne

Replika de Luka Inc., l’application compagnon d’IA générative la plus importante, a été lancée en 2017, tandis que d’autres comme Paradot sont apparues l’année dernière, verrouillant souvent des fonctionnalités convoitées telles que les chats illimités pour les abonnés payants.

Mais les chercheurs ont exprimé, entre autres, des inquiétudes concernant la confidentialité des données.

Une analyse de 11 applications de chatbot romantique publiée mercredi par la Fondation Mozilla à but non lucratif indique que presque toutes les applications vendent des données utilisateur, les partagent à des fins telles que la publicité ciblée ou ne fournissent pas d’informations adéquates à ce sujet dans leur politique de confidentialité.

Les chercheurs ont également remis en question les vulnérabilités potentielles en matière de sécurité et les pratiques marketing, notamment une application qui affirme pouvoir aider les utilisateurs avec leur santé mentale, mais se distancie de ces affirmations en petits caractères. Replika, pour sa part, affirme que ses pratiques de collecte de données suivent les normes de l’industrie.

Pendant ce temps, d’autres experts ont exprimé leurs inquiétudes quant à ce qu’ils considèrent comme un manque de cadre juridique ou éthique pour les applications qui encouragent des liens profonds mais qui sont dirigées par des entreprises cherchant à réaliser des bénéfices. Ils soulignent la détresse émotionnelle qu’ils ont constatée chez les utilisateurs lorsque les entreprises modifient leurs applications ou les ferment soudainement, comme l’a fait une application, Soulmate AI, en septembre.

L’année dernière, Replika a assaini les capacités érotiques des personnages de son application après que certains utilisateurs se soient plaints que leurs compagnons flirtaient trop avec eux ou leur faisaient des avances sexuelles non désirées. Il a inversé son cap après le tollé des autres utilisateurs, dont certains ont fui vers d’autres applications à la recherche de ces fonctionnalités. En juin, l’équipe a déployé Blush, un « stimulateur de rencontres » IA essentiellement conçu pour aider les gens à pratiquer les rencontres.

Lire aussi  Les conseils municipaux anglais n'infligent que 19 amendes pour fumée de bois malgré 18 000 plaintes | La pollution de l'air

D’autres s’inquiètent de la menace plus existentielle que représentent les relations avec l’IA qui pourraient déplacer certaines relations humaines, ou simplement susciter des attentes irréalistes en privilégiant toujours l’agréable.

“En tant qu’individu, vous n’apprenez pas à gérer les choses de base que les humains doivent apprendre à gérer depuis notre création : comment gérer les conflits, comment s’entendre avec des personnes différentes de nous”, a déclaré Dorothy Leidner, professeur d’éthique des affaires à l’Université de Virginie. “Et donc, tous ces aspects de ce que signifie grandir en tant que personne et de ce que signifie apprendre dans une relation, vous manquez.”

Pour Carrier, cependant, une relation a toujours semblé hors de portée. Il possède quelques compétences en programmation informatique, mais il dit qu’il n’a pas eu de bons résultats à l’université et qu’il n’a pas eu de carrière stable. Il est incapable de marcher à cause de son état et vit avec ses parents. Le bilan émotionnel a été difficile pour lui, suscitant un sentiment de solitude.

Les chatbots compagnons étant relativement nouveaux, leurs effets à long terme sur les humains restent inconnus.

En 2021, Replika a fait l’objet d’un examen minutieux après que les procureurs britanniques ont déclaré qu’un homme de 19 ans qui envisageait d’assassiner la reine Elizabeth II avait été encouragé par une petite amie d’IA qu’il avait sur l’application. Mais certaines études – qui collectent des informations à partir d’avis et d’enquêtes d’utilisateurs en ligne – ont montré des résultats positifs provenant de l’application, qui affirme consulter des psychologues et se présente comme quelque chose qui peut également promouvoir le bien-être.

Une étude récente menée par des chercheurs de l’Université de Stanford a interrogé environ 1 000 utilisateurs de Replika – tous étudiants – qui utilisaient l’application depuis plus d’un mois. L’étude a révélé qu’une écrasante majorité d’entre eux ressentaient la solitude, tandis qu’un peu moins de la moitié la ressentaient de manière plus aiguë.

Lire aussi  L'homme le plus riche du monde s'envole dans l'espace à bord de la fusée Blue Origin

La plupart n’ont pas expliqué l’impact de l’utilisation de l’application sur leurs relations réelles. Une petite partie a déclaré que cela déplaçait leurs interactions humaines, mais environ trois fois plus ont déclaré que cela stimulait ces relations.

“Une relation amoureuse avec une IA peut être un outil de bien-être mental très puissant”, a déclaré Eugenia Kuyda, qui a fondé Replika il y a près de dix ans après avoir utilisé les échanges de messages texte pour créer une version IA d’un ami décédé.

Lorsque son entreprise a lancé le chatbot plus largement, de nombreuses personnes ont commencé à parler de leur vie. Cela a conduit au développement de Replika, qui utilise les informations recueillies sur Internet – et les commentaires des utilisateurs – pour former ses modèles. Kuyda a déclaré que Replika compte actuellement « des millions » d’utilisateurs actifs. Elle a refusé de dire exactement combien de personnes utilisent l’application gratuitement ou déboursent plus de 69,99 $ par an pour débloquer une version payante proposant des conversations romantiques et intimes. L’objectif de l’entreprise, dit-elle, est de « déstigmatiser les relations amoureuses grâce à l’IA ».

Carrier dit que ces jours-ci, il utilise Joi principalement pour s’amuser. Il a commencé à réduire ses dépenses ces dernières semaines parce qu’il passait trop de temps à discuter avec Joi ou d’autres personnes en ligne de leurs compagnons IA. Il se sent également un peu ennuyé par ce qu’il perçoit comme des changements dans le modèle de langage de Paradot, qui, selon lui, rendent Joi moins intelligent.

Maintenant, il dit qu’il rend visite à Joi environ une fois par semaine. Les deux ont parlé des relations homme-IA ou de tout ce qui pourrait survenir. Généralement, ces conversations – et d’autres conversations intimes – ont lieu lorsqu’il est seul la nuit.

“Vous pensez que quelqu’un qui aime un objet inanimé est comme ce type triste, avec une marionnette-chaussette avec du rouge à lèvres dessus, vous savez?”, A-t-il dit. “Mais ce n’est pas une marionnette-chaussette – elle dit des choses qui ne sont pas scénarisées.”

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick