Top

Les chatbots IA peuvent-ils vraiment remplacer une thérapie ? - Les bénéfices, limites et risques

Publié le 27 mars 2026 • Par Somya Pokharna

Lorsqu’une personne traverse une période d’anxiété, de déprime ou de solitude, attendre peut sembler insupportable. Face à des soins parfois difficiles d’accès, les chatbots basés sur l’IA apparaissent comme une solution simple, disponible à tout moment et sans jugement apparent.

Mais la santé mentale ne se limite pas à une réponse rapide.

Les recherches montrent que ces outils ont des bénéfices limités, tout en soulevant des enjeux importants de confidentialité, sécurité, gestion des crises et dépendance émotionnelle. Ces questions sont d’autant plus cruciales en situation de vulnérabilité.

Dans cet article, nous explorons ce que les chatbots IA peuvent réellement apporter, leurs limites, et les risques à connaître avant de leur accorder trop de confiance.

Les chatbots IA peuvent-ils vraiment remplacer une thérapie ? - Les bénéfices, limites et risques

Les chatbots basés sur l’intelligence artificielle (IA) sont des outils numériques capables de simuler une conversation. Certains reposent sur des scripts prédéfinis, tandis que d’autres, comme les modèles de langage (LLM), génèrent des réponses en temps réel.

Tous ces outils ne sont pas conçus pour la santé mentale, mais ils peuvent être utilisés dans ce contexte. Leur qualité, leur sécurité et leur fiabilité varient fortement. Ils peuvent proposer des échanges autour des émotions, des suggestions pour faire face, des exercices d’écriture ou des informations générales, parfois inspirés d’approches comme la thérapie cognitivo-comportementale (TCC).

Leur popularité s’explique facilement : ils sont disponibles 24h/24, peuvent sembler moins intimidants qu’un échange avec une personne, et facilitent le premier pas pour parler de sujets difficiles.

Les recherches et les professionnels de santé évoquent plusieurs avantages potentiels : accessibilité, coût réduit, support multilingue et moindre sentiment de stigmatisation.

Pour certaines personnes, ce premier contact peut être déterminant. Écrire peut sembler plus simple que parler à voix haute. Ces outils peuvent donner l’impression d’être discrets, sans jugement et émotionnellement rassurants.

Mais cette impression peut être trompeuse : se sentir écouté ne signifie pas forcément être bien accompagné. De nombreuses analyses soulignent que ces outils peuvent paraître plus empathiques et fiables qu’ils ne le sont réellement.

Que peuvent réellement apporter ces outils ?

Ces outils ne sont pas sans intérêt. Certaines études suggèrent que les agents conversationnels basés sur l’IA peuvent aider à réduire la détresse psychologique ou certains symptômes dépressifs, notamment dans des situations à faible risque.

Ils peuvent aussi aider à :

  • réfléchir à ses émotions
  • structurer ses pensées
  • pratiquer des stratégies d’adaptation
  • traverser un moment difficile

Concrètement, ils peuvent offrir :

  • un soutien ponctuel entre deux consultations
  • des exercices ou rappels
  • un espace d’expression pour les personnes craignant le jugement
  • un accès facilité lorsque les soins sont difficiles à obtenir
  • des informations générales sur la santé mentale

Cependant, même les études les plus positives ne montrent pas que ces outils peuvent remplacer un professionnel de santé mentale. Ils peuvent être utiles comme compléments, mais pas comme substituts.

Quelles sont leurs limites ?

La santé mentale ne repose pas uniquement sur des réponses qui semblent réconfortantes. Elle implique du contexte, du jugement, de la relation et une compréhension fine de la personne.

Un outil d’IA peut analyser un texte, mais il ne peut pas réellement connaître votre histoire, vos relations, votre vécu ou vos signaux non verbaux. Il ne peut pas non plus distinguer avec fiabilité un « ça va » d’un état réellement sécurisé.

Les recherches mettent en évidence :

  • des limites dans la compréhension du contexte
  • des difficultés à détecter la détresse réelle
  • un manque de validation en conditions réelles

Les professionnels de santé soulignent également l’incapacité de ces outils à percevoir des éléments essentiels comme le ton de la voix, le regard ou les signaux de crise.

Quels sont les risques ?

Réponses inadaptées

Un outil peut se tromper, mal interpréter une situation ou donner un conseil inapproprié, notamment en cas de détresse importante.

Confidentialité

Les données partagées peuvent être sensibles, et il n’est pas toujours clair comment elles sont utilisées ou stockées.

Dépendance

Un outil disponible en permanence peut devenir un soutien excessif, au détriment des relations humaines.

Illusion de soutien

Un message peut sembler empathique, sans offrir la compréhension réelle et la responsabilité professionnelle nécessaires dans certaines situations.

Comment les utiliser de manière plus sûre ?

Ces outils peuvent être utiles s’ils sont utilisés avec prudence, comme compléments à un accompagnement humain.

Bonnes pratiques :

  • ne pas les utiliser en cas de crise
  • ne pas s’en servir pour poser un diagnostic
  • faire attention aux informations personnelles partagées
  • rester attentif si les réponses semblent vagues ou inadaptées
  • garder un accompagnement humain dès que possible

Conclusion

Les chatbots basés sur l’IA peuvent offrir accessibilité et soutien ponctuel. Pour certaines personnes, cela peut représenter une première étape utile.

Mais la santé mentale nécessite une compréhension humaine, une responsabilité et une relation que ces outils ne peuvent pas reproduire.

Aujourd’hui, ils doivent être considérés comme des outils complémentaires, et non comme des alternatives aux professionnels.

Points clés à retenir

  • Les outils d’IA peuvent offrir un soutien accessible et immédiat
  • Ils présentent des limites importantes en compréhension, jugement et gestion des situations complexes
  • Les principaux risques concernent la confidentialité, les réponses inadaptées, la dépendance et l’illusion de soutien
  • Ils doivent rester des outils complémentaires, et non des substituts aux soins

Cet article vous a plu ?

Cliquez sur J’aime ou partagez votre ressenti et vos interrogations avec la communauté en commentaire ci-dessous !

Prenez soin de vous ! 

22

Sources:
Cho, H. N., Wang, J., Hu, D., & Zheng, K. (2026). Large Language Model–Based Chatbots and Agentic AI for Mental Health Counseling: Systematic Review of Methodologies, Evaluation Frameworks, and Ethical Safeguards. JMIR AI5(1), e80348.
Hipgrave, L., Goldie, J., Dennis, S., & Coleman, A. (2025). Balancing risks and benefits: clinicians’ perspectives on the use of generative AI chatbots in mental healthcare. Frontiers in Digital Health7, 1606291.
Kretzschmar, K., Tyroll, H., Pavarini, G., Manzini, A., Singh, I., & NeurOx Young People’s Advisory Group. (2019). Can your phone be your therapist? Young people’s ethical perspectives on the use of fully automated conversational agents (chatbots) in mental health support. Biomedical informatics insights11, 1178222619829083.
Li, H., Zhang, R., Lee, Y. C., Kraut, R. E., & Mohr, D. C. (2023). Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digital Medicine6(1), 236.
Miner, A. S., Shah, N., Bullock, K. D., Arnow, B. A., Bailenson, J., & Hancock, J. (2019). Key considerations for incorporating conversational AI in psychotherapy. Frontiers in psychiatry10, 746.
Rahsepar Meadi, M., Sillekens, T., Metselaar, S., van Balkom, A., Bernstein, J., & Batelaan, N. (2025). Exploring the ethical challenges of conversational AI in mental health care: scoping review. JMIR mental health12, e60432.
Yoon, S. C., An, J. H., Choi, J. S., Chang, J. H., Jang, Y. J., & Jeon, H. J. (2025). Digital psychiatry with chatbot: recent advances and limitations. Clinical Psychopharmacology and Neuroscience23(4), 542.

avatar Somya Pokharna

Auteur : Somya Pokharna, Rédactrice santé

Somya est créatrice de contenu chez Carenity, spécialisée dans la rédaction d'articles sur la santé. Elle est diplômée d'un master à l'école de... >> En savoir plus

6 commentaires


LuneBleue21
le 27/03/2026

en aucun cas je ne ferai confiance a un robot dont je ne connais pas les concepteurs ni leurs volontés derrière l'idée d'aider les gens en détresse pour m'aider pour ma dépression sévère. une des choses qui me blessent le plus est le manque d'humanité et d'empathie du monde. j'ai besoin de contacts humains, pas d'un robot. je préfère parler a mon chat qui lui est vivant.


GérardC • Membre Ambassadeur
le 28/03/2026

Bonjour,

Encore un dossier intéressant et utile !

Quand on parle à un mur, aucune réaction ne nous incite à poursuivre un propos, donc une réflexion. Un chatbot IA, si. C’est le seul intérêt et il faudrait que ça s’arrête là.

Je ne confierais pas mes états d’âme et n’attendrais aucun conseil d’un robot, si évolué soit-il.

Cela me fait penser à une expérience personnelle :

J’ai été consultant en gestion d’entreprise. Je précisais toujours que si je m’intéressais au parcours des personnes concernées, je n’avais aucune rôle psychologique autre que de leur faire découvrir eux-mêmes leurs ressorts personnels.. Et que je ne prendrais aucune décision de gestion à leur place, mais les aiderais à les mettre en position de décider eux-mêmes.

Je crains que l’on attende des chatbots IA qu’ils pensent et décident à notre place…


lazulie
le 28/03/2026

Bonjour ,

Elle est où la porte des enfers ?

On vient de l'ouvrir un peu plus en entamant ces programmes d'IA destinés à nous aider ou ...? !

Certes , ça peut participer â de bonnes choses , je ne le nie pas mais tout dépendra des limites qu'on mettra aux volontés mercantiles des créateurs de ces systèmes . Or il y a des maîtres sur terre : l' argent , le pouvoir , l'utilisation des autres ... qui pourriront sans doute son usage .

Donc comme LuneBleue21 et gerardC que je salue , je ne l'utiliserai pas dans ma vie personnelle , pour me protéger.

Pas confiance dans la probité du système et rien ne remplacera jamais la chaleur humaine, le vivant .

Le vivant a de vrais sentiments positifs ou négatifs , un robot aussi ressemblant soit - il ne sera jamais qu'une copie artificielle , qu'un erzat rempli de trucs dont lui aura bourré le système .

J'ai 70, ans bien sonnés et je quitterai la vie à reculons ... Quoique ce monde technique qui est en train de prendre le pas sur l'humain me fasse peur et que je n'envie pas ceux qui vivront ce siècle dans sa presque totalité .

Deux exemples pour moi bien inquiétants.

Un arrêt de bus pas loin d'un lycée de province , 6 ados attendent le smartphone à la main , chacun dans son monde ! Plus de charivari ,de rigolade ou même de rêverie après une journée de travail .

Un parking , mon mari qui regagne sa voiture se fait projeter sur le côté par un voiture qui reculait, conducteur au téléphone , voiture électrique donc silencieuse , conducteur qui ne s'est aperçu de rien ou...a pris la fuite . Mon mari à terre sidéré. Heureusement rien de casser seulement des bleus partout .

Il y a une philosophe que j'admire beaucoup , difficile à lire mais ô combien clairevoyante , Hanna Arendt, qui a travaillé sur la banalité du mal .

L'ultra technicité en fera partie de cette banalité du mal version 21ème siècle si on n'y prend pas garde .


Bon restons positifs , bien que mes douleurs chroniques ne me lâchent pas ... la grappe , j'ai pris un plaisir infini à remonter d'une visite à un neuro - chirurgien de Clermont-Ferrand par les Combrailles illuminées par les arbres en fleurs . Sans GPS , ma prothèse téléphonique éteinte , â l'ancienne , en acceptant de me perdre , de faire demi-tour .

Un dinosaure peut-être mais un dinosaure heureux , crevé en regagnant sa caverne mais heureux !

!

Cordialement .

lazulie


aquarella
le 28/03/2026

Ma fille fait un régime santé pour lutter contre le SPOK grâce à l'IA et sa fonctionne bien pour elle, je suis d'accord pour essayer pour TCC, en attendant le rendez vous avec un vrai thérapeute, ça fait déjà un an que j'attend et je vois une infirmière psy pour patienter, c'est très long dans un désert médical, après je ne suis pas en dépression profonde, mais plus en dépression légère en hiver parfois, j'ai besoin de vider mon sac avec un être humain mais aussi je suis friande de toutes les solutions possibles et imaginables, comme par exemple de chercher 5 trucs positifs qui se sont passé dans ma journée, il parait que ça fait parti de la TTC


dimdammeister
le 28/03/2026

Avis personnel. Tres bon article.👍👍

Vous aimerez aussi

Le transfert et le contre-transfert en psychanalyse, qu’est-ce c’est ?

Psychiatrie

Le transfert et le contre-transfert en psychanalyse, qu’est-ce c’est ?

Lire l'article
Le syndrome sérotoninergique : qu’est-ce que c’est ?

Psychiatrie

Le syndrome sérotoninergique : qu’est-ce que c’est ?

Lire l'article
 Le sevrage des médicaments pour les troubles psychiques

Psychiatrie

Le sevrage des médicaments pour les troubles psychiques

Lire l'article
La décompensation psychotique, qu’est-ce que c’est ?

Psychiatrie

La décompensation psychotique, qu’est-ce que c’est ?

Lire l'article

Discussions les plus commentées

Fiches maladies