ChatGPT, le nouveau psy ?

Publié le 05/06/2025
De plus en plus de personnes utilisent ce robot conversationnel pour obtenir du soutien psychologique. L'outil ne remplace pas un professionnel de la santé mentale, selon plusieurs médias.

[REVUE DE PRESSE]  Les jeunes et les moins jeunes plébiscitent ChatGPT pour résoudre leurs problèmes de santé mentale. Les témoignages de personnes qui vont chercher du soutien psychologique auprès de ce robot conversationnel se multiplient sur les réseaux sociaux et dans les médias. Selon les cas, elles utilisent l’intelligence artificielle (IA) en plus ou à la place d’un professionnel.

ChatGPT pourrait-il devenir le nouveau psy ? Non, répondent des médias qui ont aussi enquêté sur les bénéfices et les risques liés à cet usage de l’IA. Mais la recherche avance, sur la manière dont les robots conversationnels pourraient être mieux utilisés pour prendre soin de sa santé mentale. 

Bialy, 25 ans, a utilisé ChatGPT pour se remettre d’une grosse rupture amicale ; Fanny, 21 ans, pour décrypter une situation sociale problématique et trouver comment se comporter. Christina, 43 ans, sollicite le robot pour analyser ses rêves. Ces témoignages, recueillis par le journaliste de Brut Alsène Gomis, montrent à quel point les raisons pour lesquelles on s’adresse à lui sont variées. A noter que ChatGPT, créé par l’entreprise américaine Open AI, est le plus utilisé, mais qu’il en existe d’autres comme Le Chat, de l’entreprise française Mistral AI. 

  • Voir la vidéo du 3 juin sur Brut
  • Lire d’autres témoignages dans l’article du 1er juin sur La Provence

Le recours à ChatGPT, comparé à une psychologue ou un autre professionnel de la santé mentale, présente des avantages. “Il est gratuit [mais il existe une version payante], disponible 24h/24h et 7j/7, rapide, infatigable et peu contrariant”, énumère la journaliste de 20 Minutes Lise Abou Mansour.

Mais le risque de s’isoler et de se priver ainsi d’une aide adaptée par un professionnel est aujourd’hui bien identifié. La journaliste rappelle deux cas de suicides récents, celui d’un adulte en Belgique et d’un adolescent aux Etats-Unis – leurs familles estiment qu’un robot conversationnel a joué un rôle décisif dans le passage à l’acte. 

Que dit la recherche ? Une étude rendue publique le 21 mars montre que les personnes échangeant quotidiennement avec ChatGPT ont tendance à développer un sentiment de solitude, une addiction et une dépendance émotionnelle à l’égard du robot, note la journaliste de France 24 Pauline Rouquette. 

Cette étude sur “l’utilisation affective et le bien-être émotionnel sur ChatGPT” a été réalisée par des chercheurs d’Open AI, l’entreprise qui développe le robot, avec des chercheurs de l’université privée Massachusetts Institute of Technology (MIT, Etats-Unis). Menée auprès d’utilisateurs américains, elle n’a pas encore été publiée dans une revue scientifique. 

“Globalement, une utilisation quotidienne plus importante [est] corrélée à une solitude, une dépendance et une utilisation problématiques accrues, ainsi qu’à une socialisation plus faible”, résument les chercheurs, qui ont analysé plus de 4 millions de conversations, à la recherche d’indices affectifs, et interrogé plus de 4 000 utilisateurs sur leur perception de ChatGPT, en particulier pour son mode vocal.

Une autre étude publiée le 12 février a cherché à évaluer l’efficacité de ChatGPT face aux problèmes de couple. Pour cela, des chercheurs et chercheuses américains ont utilisé 18 scénarios fictifs de thérapies de couple et comparé ses réponses avec celles d’experts. Celles de ChatGPT sont indiscernables lorsqu’elles sont évaluées par un panel de 830 individus, et sont tout aussi qualitatives que celles des experts, écrit le journaliste de Futura Sciences Julien Hernandez. 

Le robot a ses limites, comparé à un être humain. “Il ne connait pas votre histoire personnelle, vos blessures, votre personnalité, indique la psychologue Johanna Rozenblum dans sa chronique sur BFM TV. Il ne peut pas repérer les signes de souffrance ni les relations toxiques. Il ne repère pas le déni, l’évitement, les trémolos dans la voix, la souffrance, les larmes”. 

  • Regarder sa chronique du 28 mai sur BFM TV

Les médias ne s’interrogent pas seulement sur l’efficacité de ChatGPT mais aussi sur le sort des données des utilisateurs. “Sur ChatGPT ou autre IA, toutes les limites de la vie privée explosent”, note la journaliste de Capital Joséphine Pélois. Comme elle le rappelle, on peut éviter que le robot utilise nos données pour son entraînement en désactivant cette fonction (depuis les paramètres, dans “gestion des données”). 

  • Lire l’article du 15 février sur le magazine Capital

Par ailleurs, chercher du soutien psychologique auprès de l’IA a un impact écologique. Chaque requête sur ChatGPT consomme 2,9 Wh d’électricité, écrit l’Agence France Presse (AFP). C’est dix fois plus qu’une recherche sur Google, d’après l’Agence internationale de l’énergie (AIE). Le robot consomme également plus d’eau, nécessaire pour refroidir les serveurs. 

Ainsi, la question d’un usage sobre et éthique des robots s’impose. On peut par exemple éviter de les solliciter par facilité. Avant de leur poser une question, il est bon de se demander : est-ce vraiment la seule manière de trouver la réponse ? explique Amélie Cordier, docteure en IA à l’université de Lyon, à la journaliste du Huffington Post Maëlle Roudaut.

    • Lire son entretien du 10 février sur le Huffington Post
    • Lire la dépêche de l’AFP du 1er février sur le quotidien Sud-Ouest

CREDITS DE CETTE REVUE DE PRESSE

Veille de l’actualité en santé mentale : équipe Psycom
Choix du sujet en comité éditorial : Estelle Saget, Cyril Combes, Léa Sonnet, Aude Caria (Psycom)
Rédaction : Estelle Saget (Psycom)