“J’ai commencé à penser que je pouvais créer un thérapeute IA en utilisant l’API ChatGPT et le modifier pour répondre aux spécifications d’un thérapeute”, a-t-elle déclaré. “Cela augmente l’accessibilité à la thérapie en fournissant une thérapie gratuite et confidentielle, une IA plutôt qu’un humain, et en supprimant la stigmatisation liée à l’obtention d’aide pour les personnes qui ne veulent pas parler avec un humain.”
En théorie, l’IA pourrait être utilisée pour aider à répondre au besoin croissant d’options de santé mentale et au manque de professionnels de la santé mentale pour répondre à ces besoins. “L’accessibilité est simplement une question d’inadéquation entre l’offre et la demande”, a déclaré Iyer à BuzzFeed News. “Techniquement, l’offre d’IA pourrait être infinie.”
Dans une étude de 2021 publiée dans la revue SSM Population Health qui comprenait 50 103 adultes, 95,6 % des personnes ont signalé au moins un obstacle aux soins de santé tels que l’incapacité de les payer. Les personnes ayant des problèmes de santé mentale semblaient être particulièrement touchées par les obstacles aux soins de santé, y compris coût, pénurie d’experts et stigmatisation.
Dans une étude de 2017, les personnes de couleur étaient particulièrement sensibles aux barrages routiers des soins de santé en conséquence de disparités raciales et ethniquesy compris des niveaux élevés de stigmatisation liée à la santé mentaleles barrières linguistiques, la discrimination et le manque de couverture d’assurance maladie.
L’un des avantages de l’IA est qu’un programme peut se traduire en 95 langues dans quelques secondes.
“Les utilisateurs d’Em viennent du monde entier, et comme ChatGPT se traduit en plusieurs langues, j’ai remarqué que des gens utilisaient leur langue maternelle pour communiquer avec Em, ce qui est super utile”, a déclaré Brendle.
Un autre avantage est que, bien que l’IA ne puisse pas fournir une véritable empathie émotionnelle, elle ne peut pas non plus vous juger, a déclaré Brendle.
“L’IA a tendance à ne pas porter de jugement d’après mon expérience, et cela ouvre une porte philosophique sur la complexité de la nature humaine”, a déclaré Brendle. “Bien qu’un thérapeute se présente comme ne portant pas de jugement, en tant qu’humains, nous avons tendance à l’être de toute façon.”
Voici quand l’IA ne devrait pas être utilisée comme option
Cependant, les experts en santé mentale avertissent que l’IA peut faire plus de mal que de bien aux personnes à la recherche d’informations plus approfondies, qui ont besoin d’options médicamenteuses ou en situation de crise.
“Avoir un contrôle prévisible sur ces modèles d’IA est quelque chose qui est encore en cours d’élaboration, et nous ne savons donc pas de quelles manières involontaires les systèmes d’IA pourraient commettre des erreurs catastrophiques”, a déclaré Iyer. “Étant donné que ces systèmes ne distinguent pas le vrai du faux ou le bien du mal, mais signalent simplement ce qu’ils ont lu précédemment, il est tout à fait possible que les systèmes d’IA aient lu quelque chose d’inapproprié et de nuisible et répètent ce contenu nuisible à ceux qui demandent de l’aide. Il est bien trop tôt pour comprendre pleinement les risques ici.
Les utilisateurs de TikTok disent également que des ajustements devraient être apportés à l’outil en ligne – par exemple, le chat AI pourrait fournir des commentaires plus utiles dans ses réponses, disent-ils.
“ChatGPT est souvent réticent à donner une réponse définitive ou à porter un jugement sur une situation qu’un thérapeute humain pourrait être en mesure de fournir”, a déclaré Lum. “De plus, ChatGPT manque quelque peu de la capacité de fournir une nouvelle perspective à une situation qu’un utilisateur peut avoir négligée avant qu’un thérapeute humain puisse être en mesure de voir.”
Alors que certains psychiatres pensent que ChatGPT pourrait être un moyen utile d’en savoir plus sur les médicaments, cela ne devrait pas être la seule étape du traitement.
“Il serait peut-être préférable d’envisager de demander à ChatGPT des informations sur les médicaments, comme si vous recherchiez des informations sur Wikipedia”, a déclaré Torous. “Trouver le bon médicament consiste à l’adapter à vos besoins et à votre corps, et ni Wikipedia ni ChatGPT ne peuvent le faire pour le moment. Mais vous pourrez peut-être en savoir plus sur les médicaments en général afin de pouvoir prendre une décision plus éclairée plus tard.
Il existe d’autres alternatives, y compris l’appel 988, une hotline de crise gratuite. Les lignes d’assistance en cas de crise proposent des options d’appel et de messagerie pour les personnes qui ne peuvent pas trouver de ressources en santé mentale dans leur région ou qui n’ont pas les moyens financiers de se connecter en personne. De plus, il y a la hotline du projet Trevor, Service d’assistance téléphonique national de SAMHSAet autres.
“Il existe des ressources vraiment intéressantes et accessibles, comme appeler le 988 pour obtenir de l’aide, qui sont de bonnes options en cas de crise”, a déclaré Torous. “L’utilisation de ces chatbots pendant une crise n’est pas recommandée car vous ne voulez pas vous fier à quelque chose qui n’a pas été testé et qui n’est même pas conçu pour vous aider lorsque vous en avez le plus besoin.”
Les experts en santé mentale à qui nous avons parlé ont déclaré que la thérapie par l’IA pourrait être un outil utile pour évacuer les émotions, mais tant que d’autres améliorations ne seront pas apportées, elle ne pourra pas surpasser les experts humains.
«À l’heure actuelle, des programmes comme ChatGPT ne sont pas une option viable pour ceux qui recherchent une thérapie gratuite. Ils peuvent offrir un soutien de base, ce qui est excellent, mais pas un soutien clinique », a déclaré Torous. “Même les créateurs de ChatGPT et des programmes associés sont très clairs pour ne pas les utiliser pour la thérapie en ce moment.”
Composez le 988 aux États-Unis pour joindre la National Suicide Prevention Lifeline. Le projet Trevor, qui fournit de l’aide et des ressources de prévention du suicide aux jeunes LGBTQ, est au 1-866-488-7386. Trouvez d’autres lignes internationales d’assistance au suicide sur Befrienders Worldwide (befrienders.org).