🤖 Pourquoi il ne fait pas confier sa souffrance psychique à l’IA ?
- Gwen Saulnier
- il y a 9 heures
- 2 min de lecture

À l’heure où l’intelligence artificielle devient un outil omniprésent dans nos vies quotidiennes, la tentation est grande de s’adresser à elle pour obtenir écoute, soutien ou réconfort. Toujours disponible, sans jugement apparent, capable de reformuler, d’apporter des pistes de réflexion… elle peut donner l’illusion d’un confident idéal. Mais derrière cette accessibilité constante, se cache une confusion potentiellement dangereuse : l’IA n’est pas un psy, et ne peut le devenir.
📉 Une écoute sans affect ni subjectivité
Contrairement à un praticien humain, un chatbot n’a ni corps, ni histoire, ni émotions. Il peut imiter un style empathique, reformuler avec douceur, mais il n’éprouve aucune résonance affective face à ce qui lui est confié. Or, le cadre psychothérapeutique repose en grande partie sur la relation transférentielle, c’est-à-dire le lien émotionnel qui se tisse entre le patient et le thérapeute.
Ce lien, fondé sur la présence incarnée, l’écoute active et la capacité de symboliser, est essentiel à tout processus de transformation psychique. Une IA, aussi performante soit-elle dans la production langagière, ne peut ni accueillir l’émotion dans un espace corporel vivant, ni offrir cette présence suffisamment contenante pour accompagner les effondrements ou les régressions profondes.
🧠 Une pensée qui tourne en boucle
Lorsque l’on confie ses états d’âme à une IA, celle-ci répond uniquement à partir des données explicites que l’utilisateur lui transmet. À la différence d’un psychothérapeute formé, l’IA n’interroge pas les zones d’ombre, ne met pas en lumière les angles morts, et ne confronte pas avec bienveillance là où cela serait nécessaire. Le travail thérapeutique implique précisément d’aller là où la parole s’interrompt, là où le symptôme masque un conflit latent ou une blessure archaïque.
En somme, l’IA suit le patient, mais ne le devance pas. Elle éclaire le discours, sans jamais en décoder la structure inconsciente.
🧍♂️🧍♀️ L’illusion de lien… et le risque d’isolement
Se confier à une machine plutôt qu’à un être humain peut, sur le long terme, renforcer un isolement émotionnel, notamment chez les personnes les plus vulnérables psychiquement. Comme le souligne Joséphine Arrighi de Casanova, vice-présidente du collectif MentalTech, « l’usage exclusif d’une IA pour parler de sa souffrance risque de désocialiser davantage les individus fragiles, alors même que l’isolement est un facteur aggravant majeur de la souffrance psychique ».
Dans une société marquée par la solitude, le besoin de lien véritable fait d’altérité, de confrontation bienveillante et d’humanité ne peut être comblé par une entité virtuelle.
⚠️ En conclusion
Sans compter qu’on ne sait très bien où et comment vont terminer tous les secrets que vous lui confiez. Que vont devenir vos réflexions, réponses et questions existentielles ?
Si une IA peut accompagner ponctuellement une réflexion, proposer des outils ou encourager une prise de recul, elle ne peut ni soutenir un travail d’élaboration psychique profond, ni remplacer le cadre thérapeutique. La souffrance humaine exige une réponse humaine : incarnée, imparfaite parfois, mais vivante.Car ce qui soigne, au fond, ce n’est pas le discours… c’est la présence.
留言