À la Une
Monde
07 mai 2026
Utilisation de l’IA comme “psy” : bénéfices ou risques ?
Utilisation de l’IA comme “psy” : bénéfices ou risques ? L’intelligence artificielle devient de plus en plus un confident pour de nombreux utilisateurs, notamment les jeunes. Selon une étude européenne de la CNIL et du Groupe VYV, de nombreux jeunes utilisent désormais des IA comme ChatGPT pour parler de leur stress, de leurs problèmes personnels ou de leur mal-être. Dans cette étude basée sur 3800 jeunes âgés de 11 à 25 ans (France, Allemagne, Suède, Irlande), il est indiqué qu’en France 48% des jeunes utilisent l’IA pour sujets personnels. Si la famille et les proches restent les premiers interlocuteurs en cas de problème, beaucoup se tournent de plus en plus vers l’IA, dont ils apprécient sa disponibilité permanente, son accessibilité et l’absence de jugement dans les échanges. Mais cette relation de plus en plus intime avec les chatbots interroge les spécialistes. L’institut français de l’EMDR, qui a consacré un article sur l’utilisation de l’IA comme psy, rappelle que plusieurs études alertent sur des limites structurelles des IA conversationnelles : tendance à valider les propos de l’utilisateur, difficulté à détecter certains états de crise ou encore confusion possible entre soutien émotionnel et véritable psychothérapie.Trois cas de suicides liés à l’usage intensif de chatbots ont été médiatisés entre 2023 et 2025. D’autres utilisateurs ont également développé des relations exclusives, voire amoureuses, avec ces IA, renforçant les inquiétudes. Toutefois, les chercheurs rappellent que ces situations concernaient souvent des personnes déjà fragilisées psychologiquement. L’IA apparaît davantage comme un facteur aggravant que comme une cause unique.Face à ces dérives potentielles, la psychologue et psychothérapeute Clara Falala-Séchet défend une approche nuancée. Cofondatrice du chatbot de soutien psychologique Owlie, elle estime que « ce n’est pas tant l’IA qui pose problème que son utilisation » (France 24). Selon elle, l’IA peut avoir des effets bénéfiques pour certaines personnes anxieuses, traumatisées ou en difficulté relationnelle. Elle peut aider à verbaliser des émotions, apporter un sentiment de sécurité, et parfois conduire à demander de l’aide à un humain.Mais la spécialiste souligne aussi les limites importantes de ces systèmes. Les chatbots sont conçus pour répondre de manière empathique et validante, ce qui peut parfois renforcer certaines croyances (y compris délirantes) ou créer un attachement émotionnel fort. Leur présence permanente sur smartphone favorise également des usages compulsifs, et habitue les utilisateurs à obtenir des réponses et du réconfort immédiatement. Selon les psychologues, les risques sont d’autant plus importants pour les personnes ayant des troubles psychiques, dans un contexte de manque de soignants et de déserts médicaux.Pour Clara Falala-Séchet, « pour le travail de fond, rien ne remplace la profondeur du lien humain ». Contrairement à un thérapeute, l’IA ne comprend pas réellement les émotions et ne peut pas accompagner un véritable changement psychologique.

