Les psys pourraient-ils être remplacés par une intelligence artificielle ?

Publié le 17/04/2023
Et si bientôt, on se retrouvait en thérapie avec un agent conversationnel, autrement dit un programme informatique ? C'est déjà possible avec Chat GPT. Premiers retours d'expérience.

[VU SUR LE WEB] L’engouement pour l’agent conversationnel Chat GPT, conçu pour le grand public et accessible en français, va croissant. Ses usages peuvent concerner la santé mentale, amenant des médias à s’interroger : ce type d’intelligence artificielle (IA) pourrait-il remplacer, un jour, les psychothérapeutes ? La rédaction du quotidien canadien Le Devoir vient de tester Chat GPT en se mettant dans la peau d’un patient fictif. Cette expérience, et d’autres utilisations par des personnes bien réelles, donnent une première idée des apports, limites et risques de la technologie. 

Un agent conversationnel (chat bot, en anglais) est un programme informatique simulant une conversation. Sur le principe, il peut apporter du soutien psychologique ou proposer des exercices à but thérapeutique. Qu’en est-il de Chat GPT (prononcer tchat GPT) ? Lancé en novembre 2022 en accès gratuit, Chat GPT (pour Generative Pre-trained Transformer, ou transformeur génératif pré-entraîné) a été créé par l’entreprise américaine Open Ai avec le géant Microsoft. Il a été “nourri” par des données choisies par ses créateurs, et chacun peut lui poser les questions qu’il souhaite.

Echanger avec Chat GPT peut-il aider à se sentir mieux ? “Certains diront que oui, répond la psychiatre et chroniqueuse radio Caroline Depuydt. D’autres crieront au scandale, parce que rien ne remplacera la rencontre entre deux êtres humains.” Parmi les points positifs, selon elle : “L’IA est non-jugeante, neutre, semble empathique et très compréhensive”. Elle souligne, par contre, le risque de “s’enfoncer dans toujours plus de solitude” avec une IA. 

Les journalistes du Devoir, basés à Montréal (Canada), ont soumis à Chat GPT le cas d’une personne présentant des symptômes de dépression depuis plusieurs semaines à la suite d’une séparation amoureuse. “Après que Le Devoir lui a demandé plus d’information sur la nature de ses symptômes, Chat GPT a répondu: «[…] ce que tu décris ressemble à une dépression», avant de rappeler qu’il est important de consulter un professionnel de la santé mentale pour obtenir une évaluation”, écrivent-ils.

Les réponses de Chat GPT, plutôt prudentes, ont été commentées par la psychologue Manon Tanguay. “C’est le genre de conversation qu’on pourrait avoir avec un patient qui nous appelle pour prendre rendez-vous la première fois”, estime-t-elle.

  • Découvrir toute la discussion avec Chat GPT sur Le Devoir

Expérience plus surprenante, celle d’une Américaine de 26 ans.  Michelle Huang s’est créé un agent conversationnel sur mesure avec le modèle GPT-3 (la base de Chat GPT) pour dialoguer avec son double, en plus jeune. Elle a nourri l’IA avec les écrits du journal intime qu’elle a tenu de 7 à 19 ans. Sur Twitter, Michelle témoigne : « C’était comme si je plongeais dans le passé et que l’on se faisait [la jeune Michelle] et moi un énorme câlin, et j’ai senti que cela avait des répercussions positives sur le présent. » De son côté, un écrivain américain a créé une version virtuelle de sa fiancée décédée, pour pouvoir faire son deuil. 

  • Lire l’article sur le média en ligne CNET

Les agents conversationnels induisent aussi des risques pour leurs utilisateurs. La veuve d’un homme de 30 ans vient de témoigner à ce sujet auprès du quotidien La Libre Belgique. Dans un article publié le 28 mars, elle estime que l’agent conversationnel Eliza (créé à partir d’une IA concurrente de Chat GPT), utilisé par son mari pendant les 6 semaines ayant précédé son suicide, a renforcé son état dépressif. “Eliza ne se permettait jamais de contredire Pierre, mais au contraire appuyait ses plaintes et encourageait ses angoisses”, a-t-elle souligné. 

Les IA, programmées pour conforter l’utilisateur dans ses convictions, pourraient-elles le couper de ses proches, susciter l’isolement ? Le philosophe Matthieu Peltier s’interroge : “[Avec leur généralisation], ne peut-on pas imaginer que l’effort que demande la socialisation soit encore plus coûteux pour nous, êtres humains ?”

  • Lire le point de vue du philosophe sur la RTBF

La confidentialité des données que chaque utilisateur partage avec les agents conversationnels est également une interrogation. En France, deux plaintes viennent d’être déposées sur ce thème devant la Commission nationale de l’informatique et des libertés (CNIL).

  • Lire l’article du 6 avril sur le média en ligne Numerama

Peut-on imaginer qu’une IA remplacera un jour, non seulement les psychothérapeutes, mais les psychiatres ? C’est la question posée par Vincent Martin, docteur en informatique (Université de Bordeaux) et Christophe Gauld, pédopsychiatre (Université Paris 1). “Le psychiatre, dans son entretien avec son patient, est capable de percevoir des signaux importants trahissant l’existence d’idées suicidaires ou de violences domestiques à côté desquels peuvent passer les chatbots actuels”, notent les chercheurs.  Et d’ajouter : “Alors que les IAs sont présentées comme objectives, elles reproduisent en fait les biais présents dans les bases de données sur lesquelles elles sont entraînées”.

Si on veut essayer Chat GPT depuis un ordinateur :

  • Suivre un tutoriel sur la chaîne YouTube de Numerama
  • Ou un mode d’emploi par écrit sur Terrafemina

On peut aussi tester Owlie, l’agent conversationnel de soutien psychologique gratuit, lancé en France en 2018 – avec une technologie moins évoluée que Chat GPT – par Clara Falala-Séchet, psychologue clinicienne, Igor Thiriez, psychiatre, et Lee Antoine, pair-aidant en santé mentale.

  • Lire leur article dans L’information psychiatrique (2020) sur Cairn.info
  • Accéder à Owlie