La flexibilité du chatbot s’accompagne également de certains problèmes non résolus. Il peut produire réponses biaisées, imprévisibles et souvent fabriquéeset est construit en partie sur des informations personnelles récupérées sans autorisation, ce qui soulève problèmes de confidentialité.
Goldkind conseille aux personnes qui se tournent vers ChatGPT de se familiariser avec ses conditions d’utilisation, de comprendre les bases de son fonctionnement (et comment les informations partagées dans un chat peuvent ne pas rester privées) et de garder à l’esprit ses limites, telles que sa tendance à fabriquer information. Young a déclaré avoir pensé à activer les protections de confidentialité des données pour ChatGPT, mais pense également que leur point de vue en tant que parent célibataire autiste, trans et pourrait être une donnée bénéfique pour le chatbot dans son ensemble.
Comme pour tant d’autres personnes, les personnes autistes peuvent trouver des connaissances et de l’autonomisation dans la conversation avec ChatGPT. Pour certains, les avantages l’emportent sur les inconvénients.
Maxfield Sparrow, qui est autiste et anime des groupes de soutien pour les personnes autistes et transgenres, a trouvé ChatGPT utile pour développer de nouveaux contenus. De nombreuses personnes autistes ont du mal avec les brise-glaces conventionnels lors de séances de groupe, car les jeux sociaux sont conçus en grande partie pour les personnes neurotypiques, dit Sparrow. Ils ont donc incité le chatbot à proposer des exemples qui fonctionnent mieux pour les personnes autistes. Après quelques allers-retours, le chatbot a craché : « Si tu étais le temps, quel temps ferais-tu ?
Sparrow dit que c’est l’ouverture parfaite pour le groupe – succincte et liée au monde naturel, avec laquelle Sparrow dit qu’un groupe neurodivergent peut se connecter. Le chatbot est également devenu une source de réconfort lorsque Sparrow est malade, et d’autres conseils, comme comment organiser sa routine matinale pour être plus productif.
La thérapie par chatbot est un concept qui remonte à des décennies. Le premier chatbot, ÉLISA, était un robot de thérapie. Il est sorti dans les années 1960 du laboratoire d’intelligence artificielle du MIT et a été calqué sur la thérapie rogérienne, dans laquelle un conseiller reformule ce qu’un client lui dit, souvent sous la forme d’une question. Le programme n’utilisait pas l’IA telle que nous la connaissons aujourd’hui, mais grâce à la répétition et à la correspondance de modèles, ses réponses scénarisées donnaient aux utilisateurs l’impression qu’ils parlaient à quelque chose qui les comprenait. Bien qu’il ait été créé dans le but de prouver que les ordinateurs ne pouvaient pas remplacer les humains, ELIZA a captivé certains de ses « patients », qui se sont engagés dans des conversations intenses et approfondies avec le programme.
Plus récemment, les chatbots avec des réponses scriptées pilotées par l’IA, similaires à Siri d’Apple, sont devenus largement disponibles. Parmi les plus populaires figure un chatbot conçu pour jouer le rôle d’un véritable thérapeute. Woebot est basé sur des pratiques de thérapie cognitivo-comportementale et a connu une augmentation de la demande tout au long de la pandémie, car plus de personnes que jamais ont recherché des services de santé mentale.
Mais comme ces applications ont une portée plus étroite et fournissent des réponses scénarisées, la conversation plus riche de ChatGPT peut sembler plus efficace pour ceux qui essaient de résoudre des problèmes sociaux complexes.
Margaret Mitchell, scientifique en chef de l’éthique à la startup Hugging Face, qui développe des modèles d’IA open source, suggère que les personnes confrontées à des problèmes plus complexes ou à une détresse émotionnelle grave devraient limiter leur utilisation des chatbots. “Cela pourrait conduire à des directions de discussion qui sont problématiques ou stimuler la pensée négative”, dit-elle. “Le fait que nous n’ayons pas un contrôle total sur ce que ces systèmes peuvent dire est un gros problème.”