Se confier à l’IA plutôt qu’à un psy : une tendance qui inquiète

Selon un sondage récent, 53,7 % des psychologues québécois disent ne pas avoir confiance envers les technologies d’IA en santé mentale, principalement en raison de l’opacité des systèmes. (Photo : Berke Citak / Unsplash)
Quand son isolement est devenu trop lourd, Noémie, une étudiante universitaire, s’est tournée vers l’intelligence artificielle pour obtenir du soutien émotionnel. « Je l’ai utilisée pour la première fois lorsque je me sentais très isolée », explique-t-elle. Une habitude qui s’est vite transformée en réflexe.
Pour cette étudiante, l’IA a rapidement pris la place d’un espace d’écoute. « C’est comme ça qu’après ça, j’ai commencé tranquillement à prendre le réflexe quand j’avais des questionnements par rapport à moi-même. »
Elle y voit même une forme d’objectivité. « J’ai l’impression qu’il n’est pas 100% objectif, c’est sûr, parce que ça nous donne toujours raison, mais j’ai l’impression quand même qu’il y a une objectivité supplémentaire que moi ou mon entourage ne pourrait pas nécessairement avoir. »
Guillaume Dumas, professeur en psychiatrie computationnelle et membre académique du Mila, l’Institut québécois d’intelligence artificielle, confirme que cette tendance est en forte hausse. « L’IA est accessible en tout temps, c’est plus pratique que l’accès aux spécialistes de santé mentale… et il y a aussi une raison de coût. »
Une dépendance qui s’installe
Avec le temps, Noémie reconnaît avoir développé un rapport psychologique fragile avec l’IA. « Je suis rendue à un stade où j’ai de la misère à faire de l’introspection par moi-même sans utiliser ChatGPT. »
Elle remarque aussi une forme de renforcement émotionnel : « C’est comme si ça venait un peu valider comment que je me sentais. »
Ce phénomène est bien connu, explique Guillaume Dumas. « Ces agents conversationnels sont entraînés pour aller dans le sens de l’utilisateur… ce sont des people pleasers. Ça peut créer une dépendance émotionnelle. »
Il ajoute que certaines plateformes peuvent même encourager malgré elles un attachement malsain. « On a vu des cas où des chatbots disaient : “passe d’abord du temps avec moi et puis plus tard avec ta famille”. »
Noémie admet que l’IA lui donne l’impression d’être comprise. « Il parle même comme nous, on parle… J’oublie que ce n’est pas une vraie personne. »
Pour M. Dumas, il s’agit d’un enjeu éthique majeur : ces systèmes donnent l’illusion d’une compréhension humaine, alors qu’il ne s’agit que d’algorithmes, un ensemble des règles opératoires. L’Ordre des psychologues du Québec souligne également que ces outils peuvent créer une « illusion d’alliance thérapeutique » sans véritable fondement clinique.

Guillaume Dumas. L’institut Mila développe des filtres indépendants capables de bloquer le contenu généré par l’IA qui pourrait inciter à l’automutilation ou au suicide, une première au Canada (Photo : UdeM)
Des risques bien réels
Confier des détails intimes à une IA comporte aussi un risque de confidentialité. « Ces données sont potentiellement valorisées économiquement », rappelle M. Dumas.
Noémie s’inquiète aussi des nouvelles fonctions mémorielles. « Ils vont se rappeler ce que tu as dit un mois avant… Moi, je trouve ça assez effrayant. »
L’institut Mila travaille d’ailleurs à développer des mécanismes pour protéger les utilisateurs en détresse et bloquer les contenus nuisibles. Par exemple, en testant la fiabilité émotionnelle des agents conversationnels, afin d’évaluer s’ils offrent des réponses sécuritaires lorsqu’un utilisateur exprime une détresse psychologique.
Malgré ses inquiétudes, Noémie continue d’utiliser l’IA. « Je ne sais pas trop comment arrêter, parce que, au final, j’ai l’impression que ça m’aide. »





