Deux start-up américaines développent des chatbots entièrement animés par de l’intelligence artificielle tantôt psychologue, coach ou ... ami.

Les chatbots, thérapeutes de demain ?

Selon le National Institute of Mental Health, la dépression touche 6,7% de la population américaine, soit 16,1 millions de personnes. Pour celles et ceux souffrant de cet état de profonde tristesse, quelques mots rassurants ou encore une présence à l’écoute peuvent parfois faire beaucoup.

Aux États-Unis, il existe d’ores et déjà des services de thérapeutes à la demande à l’instar de Ginger.io. La start-up de San Francisco propose en effet une application mobile de discussion avec des psychiatres et autres coachs. Une fois abonné au service, l’utilisateur peut ainsi entrer en contact 24/7 avec des professionnels de santé ... en chair et en os. Et cette précision importe. À l’occasion du Virtual Assistant Summit organisé par RE•WORK, s’est en effet posée la question de savoir si l’intelligence artificielle, notamment sous la forme d’assistants conversationnels, pouvait aider les personnes souffrant de troubles mentaux ou du moins constituer une forme de soutien moral au quotidien pour le plus grand nombre.

Les assistants virtuels sont par définition des compagnons digitaux capables d’imiter une conversation humaine. Les plus évolués d’entre eux, à l’image d’Amy, l’assistante développée par x.ai, prêtent même à confusion tant leur forme d’expression est proche de celle de l’homme. S’ils peuvent se comporter comme l’être humain  le temps d’une interaction, les assistants virtuels ont-ils pour autant une capacité d’écoute, d’analyse et d’expertise équivalente à celle des professionnels de santé, formés pendant des années, à traiter avec des patients atteints de dépression ?

 

 

Des chatbots - psychologues disponibles à tout instant

C’est en tout cas la position que Danny Freed, fondateur de Joy, souhaite défendre. Du haut de ses 23 ans, Danny a créé un chatbot, prénommé Joy, qui collecte des informations sur la santé mentale de l’utilisateur et a pour mission de veiller à son bien-être. « Près d’un Américain sur deux développe une maladie mentale au cours de sa vie. Or les individus ont bien souvent des difficultés à s’épancher voire à avouer qu’ils vont mal. De plus, l’accessibilité à la thérapie constitue aujourd’hui encore un challenge. », explique Danny Freed. L’utilisateur peut partager avec  Joy, à tout instant, ses moments de faiblesse comme de joie, et recevoir une forme d’attention en retour.

Si on ne peut que saluer la mission du chatbot, des questions restent cependant en suspens. Comment la machine peut-elle percevoir avec justesse ce que la personne ressent ? Danny explique qu’en fonction du paragraphe envoyé par l’utilisateur, la machine établit une hypothèse sur le sentiment qu’il ou elle doit éprouver. Dans un deuxième temps, il demande confirmation à l’utilisateur : « J’ai l’impression que tu es en colère, est-ce vrai ? ». S’il a tort, le chatbot s’adresse alors clairement à l’utilisateur : « Je suis désolée, je n’ai pas bien compris. Comment te sens-tu vraiment ? ». Toutefois, même en ayant recours à des répliques bien construites, comment s’assurer que l’individu se sent réellement tel qu’il le décrit ? Par ailleurs, quid de la responsabilité de Joy face à une personne dépressive au comportement suicidaire ? Autant de problématiques auxquelles ses concepteurs doivent encore répondre. D’ailleurs, ceux-ci recrutent en ce moment même des spécialistes de la psychologie. Il était probablement temps.

Exemples d’interactions générées par Replika

Un chatbot qui s’exprime comme soi-même

Au Virtual Assistant Summit, une autre start-up répondant au nom de Replika n’a pas manqué d’attirer l’attention. Elle offre un service de coaching en continu par le biais d’un chatbot pour le moins familier. Le chatbot est capable d’apprendre de l’historique de conversation d’un individu pour pouvoir reproduire sa manière de s’exprimer. Ainsi, ce coach virtuel peut s’approprier le style d’écriture d’un ami, d’un membre de la famille ou voire de l’utilisateur lui-même. La fondatrice de la jeune pousse et serial entrepreneure Eugenia Kuyda, a eu l’idée de développer cet algorithme après avoir soudainement perdu un ami proche. Souhaitant pouvoir continuer à échanger avec lui malgré son décès, elle s’est alors imaginée un chatbot qui reproduirait la manière dont s’exprimait son défunt ami. Si le chatbot a pu aider la jeune femme à entamer son processus de deuil, on peut s’inquiéter de l’impact de ce type de technologies sur des personnes fragiles. Comment éviter le déni de réalité dans le cas de l’appropriation du phrasé d’un défunt ? Par ailleurs, quid du respect des disparus ? Il n’est pas certain que grand nombre de personnes acceptent au préalable de « continuer à exister » en paroles par le biais d’une intelligence artificielle ...

Quand il en va de préserver la santé mentale de l’homme par la machine, il semble encore aujourd’hui tout à fait nécessaire d’avancer avec précaution.

 

Rédigé par Pauline Canteneur