L’application de santé mentale Wysa lève 5,5 millions de dollars pour une IA «  émotionnellement intelligente  » – >

Il est déjà assez difficile de parler de vos sentiments à une personne; Jo Aggarwal, le fondateur et PDG de Wysa, espère que vous trouverez plus facile de vous confier à un robot. Ou, plus précisément, l’intelligence artificielle «émotionnellement intelligente».

Wysa est une application de santé mentale basée sur l’IA conçue par Touchkin eServices, la société d’Aggarwal qui a actuellement son siège social à Bangalore, Boston et Londres. Wysa est quelque chose comme un chatbot qui peut répondre par des mots d’affirmation ou guider un utilisateur à travers l’une des 150 techniques thérapeutiques différentes.

Wysa est la deuxième entreprise d’Aggarwal. La première était une entreprise de soins aux personnes âgées qui n’a pas réussi à trouver un marché adapté, dit-elle. Aggarwal s’est retrouvée dans une profonde dépression, d’où, dit-elle, l’idée de Wysa est née en 2016.

En mars, Wysa est devenue l’une des 17 applications du Programme d’investissement de l’Assistant Google, et en mai, fermé un Série A ronde de financement de 5,5 millions de dollars menée par W Health Ventures de Boston, le programme d’investissement Google Assistant, pi Ventures et Kae Capital.

Wysa a levé un total de 9 millions de dollars de financement, dit Aggarwal, et la société compte 60 employés à temps plein et environ trois millions d’utilisateurs.

Le but ultime, dit-elle, n’est pas de diagnostiquer les problèmes de santé mentale. Wysa s’adresse en grande partie aux personnes qui veulent juste se défouler. La plupart des utilisateurs de Wysa sont là pour améliorer leur sommeil, leur anxiété ou leurs relations, dit-elle.

«Sur les 3 millions de personnes qui utilisent Wysa, nous constatons qu’environ 10% seulement ont besoin d’un diagnostic médical», déclare Aggarwal. Si les conversations d’un utilisateur avec Wysa correspondent à des scores élevés sur les questionnaires traditionnels sur la dépression comme le PHQ-9 ou le questionnaire sur les troubles anxieux GAD-7, Wysa suggérera de parler à un thérapeute humain.

Naturellement, vous n’avez pas besoin d’un diagnostic clinique de santé mentale pour bénéficier d’une thérapie.

Wysa n’est pas destiné à être un remplaçant, dit Aggarwal (il reste à voir si les utilisateurs le voient comme un remplacement), mais un outil supplémentaire avec lequel un utilisateur peut interagir quotidiennement.

«Soixante pour cent des personnes qui viennent parler à Wysa ont besoin de se sentir entendues et validées, mais si on leur donne des techniques d’auto-assistance, elles peuvent en fait travailler elles-mêmes et se sentir mieux», poursuit Aggarwal.

L’approche de Wysa a été affinée grâce à des conversations avec les utilisateurs et à la contribution des thérapeutes, explique Aggarwal.

Par exemple, lors d’une conversation avec un utilisateur, Wysa classera d’abord ses déclarations, puis attribuera un type de thérapie, comme la thérapie cognitivo-comportementale ou la thérapie d’acceptation et d’engagement, en fonction de ces réponses. Il sélectionnerait alors une ligne de questionnement ou une technique thérapeutique écrite à l’avance par un thérapeute et commencerait à converser avec l’utilisateur.

Wysa, dit Aggarwal, a glané ses propres idées de plus de 100 millions de conversations qui se sont déroulées de cette façon.

«Prenons par exemple une situation où vous êtes en colère contre quelqu’un d’autre. À l’origine, nos thérapeutes proposaient une technique appelée technique de la chaise vide où vous essayez de la regarder du point de vue de l’autre personne. Nous avons constaté que lorsqu’une personne se sentait impuissante ou qu’il y avait des problèmes de confiance, comme les adolescents et les parents, les techniques que les thérapeutes donnaient ne fonctionnaient pas réellement », dit-elle.

«Il y a 10 000 personnes confrontées à des problèmes de confiance qui refusent en fait de faire l’exercice de la chaise vide. Nous devons donc trouver un autre moyen de les aider. Ces informations ont construit Wysa. »

Bien que Wysa ait été perfectionné sur le terrain, les instituts de recherche ont joué un rôle dans le développement continu de Wysa. Les pédiatres de l’Université de Cincinnati ont aidé développer un module spécifiquement ciblé contre l’anxiété COVID-19. Des études sont également en cours sur la capacité de Wysa à aider les gens à faire face aux conséquences sur la santé mentale de la douleur chronique, de l’arthrite et du diabète à l’Université de Washington à St. Louis et à l’Université du Nouveau-Brunswick.

Pourtant, Wysa a eu plusieurs tests dans le monde réel. En 2020, le gouvernement de Singapour a autorisé Wysa et a fourni le service gratuitement pour aider à faire face aux retombées émotionnelles de la pandémie de coronavirus. Wysa est également proposé par la compagnie d’assurance maladie Aetna en supplément au programme d’aide aux employés d’Aetna.

La plus grande préoccupation concernant les applications de santé mentale, naturellement, est qu’elles peuvent accidentellement déclencher un incident ou confondre les signes d’automutilation. Pour y remédier, le National Health Service (NHS) du Royaume-Uni propose des normes de conformité spécifiques. Wysa est conforme au NHS ‘ Norme DCB0129 pour la sécurité clinique, les première application de santé mentale basée sur l’IA pour mériter la distinction.

Pour se conformer à ces directives, Wysa a nommé un responsable de la sécurité clinique et a dû créer des «voies d’escalade» pour les personnes qui montrent des signes d’automutilation.

Wysa, dit Aggarwal, est également conçu pour signaler les réactions à l’automutilation, aux abus, aux pensées suicidaires ou aux traumatismes. Si les réponses d’un utilisateur entrent dans ces catégories, Wysa l’invitera à appeler une ligne de crise.

Aux États-Unis, l’application Wysa que tout le monde peut télécharger, dit Aggarwal, correspond à la Définition de la FDA d’une application de bien-être général ou d’un «appareil à faible risque». C’est pertinent car, pendant la pandémie, la FDA a a créé des conseils pour accélérer la distribution de ces applications.

Pourtant, Wysa peut ne pas catégoriser parfaitement la réponse de chaque personne. UNE 2018 BBC enquête, par exemple, a noté que l’application ne semblait pas apprécier la gravité d’une relation sexuelle proposée avec un mineur. Wysa a répondu en mettant à jour l’application pour gérer plus d’instances de relations sexuelles coercitives.

Aggarwal note également que Wysa contient une liste manuelle de phrases, contenant souvent de l’argot, qu’ils savent que l’IA ne détectera pas ou ne classera pas avec précision comme nuisibles à elle seule. Ceux-ci sont mis à jour manuellement pour garantir que Wysa répond correctement. «Notre règle est que [the response] peut être à 80%, approprié, mais à 0% de déclenchement », dit-elle.

Dans un avenir immédiat, Aggarwal affirme que l’objectif est de devenir un service complet. Plutôt que d’avoir à orienter les patients qui reçoivent un diagnostic vers des programmes d’assistants aux employés (comme le pourrait le partenariat Aetna) ou des thérapeutes externes, Wysa vise à créer son propre réseau de fournisseurs de services de santé mentale.

Du côté de la technologie, ils prévoient une expansion vers l’espagnol et commenceront à étudier un système vocal basé sur les conseils du Google Assistant Investment Fund.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Recent News

Editor's Pick