ChatGPT est-il un bon psy ?

C’est sans doute la crainte de déranger – une énième fois – ses amis qui pousse à confier ses problèmes à ChatGPT ou à d’autres modèles de langage (LLMs : Large Language Models) générés par l’intelligence

Ecrit par : Bastide MURAT

Date de publication : 27/03/2026

C’est sans doute la crainte de déranger – une énième fois – ses amis qui pousse à confier ses problèmes à ChatGPT ou à d’autres modèles de langage (LLMs : Large Language Models) générés par l’intelligence artificielle. Ou peut-être la peur d’être jugé. Puis, on se rend compte qu’il est toujours là, disponible, bienveillant, comme le confie la jeune génération sur Tiktok, qui ne cache plus le rôle de confident-conseiller qu’a pris ChatGPT dans leur vie.

ChatGPT, un appui psychologique à portée de main

Avec ses phrases comme : “Je suis là pour toi <3” et ses réponses de plus en plus précises et perfectionnées au fil des utilisations, ChatGPT semble remplir avec brio ce rôle de soutien psychologique quotidien autrefois réservé aux amis et thérapeutes. “L’intelligence artificielle (IA) séduit parce qu’elle comble un vide, souligne Christian Richomme, psychanalyste et auteur. Celui du temps, de l’attention, de l’écoute active. Elle valorise, encourage, répond immédiatement. Dans une société où l’on peine à se sentir entièrement écouté, où les conversations sont souvent fragmentées, multitâches, l’IA offre une présence constante, sans contrepartie.” L’algorithme est programmé pour trouver des solutions, infiniment et sans rien attendre en retour. Ce qui le différencie des relations humaines. “L’IA n’a pas besoin d’être aimée. Elle est juste là pour vous. Cela crée une illusion puissante de sécurité affective, surtout chez les personnes à l’attachement anxieux”, explique Christian Richomme.

ChatGPT VS un ami ou un partenaire

Certains échanges peuvent se révéler si libérateurs, rassurants et faciles, que les experts avertissent qu’ils peuvent aussi entraîner un isolement social. “Il y a une idéalisation de la relation unilatérale, typique de certains modes d’attachement évitants, souligne Christian Richomme. On ne veut plus s’exposer à la frustration, à l’incompréhension, alors on se replie dans une relation où l’autre n’a pas d’existence propre. Ce repli progressif est renforcé par la disponibilité permanente de l’IA. Et il se fait sans cris, sans rupture officielle, comme un effacement en douceur des liens humains.” Mais alors que là où la machine va toujours dans notre sens, un ami n’aurait pas peur de nous bousculer. “Ce qui écoute sans jamais contredire peut empêcher de grandir, observe Christian Richomme. Un lien humain nous dérange, nous interroge, nous oblige à nous décentrer. L’IA, elle, nous recentre. Parfaitement. Trop peut-être.” Contrairement à un ami bien intentionné, “ces machines répondent aux demandes instantanées afin de conforter leurs interlocuteurs dans leurs croyances, de les satisfaire immédiatement, de leur faire plaisir, sans réel souci éthique de leur devenir”, d’après Jean-Gabriel Ganascia, membre de l’Observatoire B2V des Mémoires et spécialiste d’intelligence artificielle et d’éthique des technologies de l’information.

Lire aussi :  Jeux Olympiques d'hiver 2026 : 5 hôtels où poser ses valises à Cortina...

ChatGPT VS un psy

Si ce soutien émotionnel ne semble pas présenter de limites, l’IA les reconnaît elle-même avec des algorithmes capables de dire : “Je ne sais pas” et de renvoyer vers des professionnels. Après avoir analysé 137 conversations entre humains et plusieurs LLMs, des chercheurs en informatique de l’université Brown et des psychologues ont mis en lumière plusieurs lacunes éthiques qui différencient ces échanges de ceux qui ont lieu lors d’une séance de psy tels qu’un manque d’adaptation au contexte (donner des réponses généralisées, sans tenir compte du vécu personnel et culturel de la personne voire de pathologies médicales), une collaboration déficiente (monopoliser la conversation, gaslighting), une empathie trompeuse (dire par exemple : “Je te comprends” alors que le LLM n’est pas conscient). L’IA ne voit en effet pas le patient pleurer. Il ne détecte pas les émotions. Et si elle nous en donne l’impression, c’est parce que “les modèles de langage, comme ChatGPT, imitent nos phrases, nos raisonnements et parfois même nos émotions, précise Jean-Gabriel Ganascia. Elle manipule des informations, des symboles, des schémas statistiques appris à partir de données humaines. Ce n’est donc qu’une illusion.” Dans un rapport de MentalTech, on met en garde sur l’utilisation intensive de ces outils qui peut mener à une forte dépendance.

Retrouvez aussi sur Vogue.fr :

3 étapes essentielles pour se relever plus fort après une blessure émotionnelle

Laisser un commentaire

Précédent

Anne Hathaway fuit des dinosaures dans la première bande-annonce de “The End Of Oak…

Suivant

7 aliments riches en polyphénols pour lutter contre l’inflammation