• CONTACT

QUESTION D'ACTU

Santé mentale

Pour un jeune sur trois, le psy est une IA

Une étude européenne révèle que près d’un jeune sur deux utilise une intelligence artificielle pour parler de sujets intimes et de santé mentale et un sur trois en fait un véritable "psy". Les experts alertent sur les limites et les risques d’isolement social.

Pour un jeune sur trois, le psy est une IA SeventyFour / istock




L'ESSENTIEL
  • Les jeunes utilisent de plus en plus les chatbots pour parler de santé mentale, selon une étude européenne.
  • Pas moins de 33 % considèrent même l'IA comme un "psy" dans certains cas, une proportion qui atteint 46 % chez ceux souffrant d’anxiété.
  • Selon un expert, il est parfois difficile, même pour des professionnels, de distinguer les conseils générés par une IA de ceux d’un expert humain.

De plus en plus de jeunes Européens se tournent vers les chatbots d’intelligence artificielle (IA) pour parler de leurs émotions et de leur intimité. C’est la conclusion, de moins en moins surprenante, d’une enquête Ipsos BVA, menée pour la CNIL et le Groupe VYV, relayée par l’agence de presse Reuters. Elle révèle un basculement : l’IA devient aujourd'hui un interlocuteur privilégié en matière de santé mentale.

Un "conseiller de vie" ou un "confident" pour trois jeunes sur cinq

Selon cette étude réalisée début 2026 auprès de 3.800 jeunes de 11 à 25 ans en France, Allemagne, Suède et Irlande, près d’un sur deux (48 %) a déjà utilisé une IA conversationnelle pour évoquer des sujets personnels ou intimes. Pas moins de 33 % des répondants considèrent même l'IA comme un "psy" dans certains cas, une proportion qui atteint 46 % chez ceux souffrant d’anxiété. Les jeunes trouvent également plus "facile" d’aborder leur santé mentale avec un chatbot (51 %) qu'avec un psychologue (37 %). Plus de trois utilisateurs sur cinq décrivent l'IA comme un "conseiller de vie" ou un "confident", rapporte Reuters.

Les amis et familles restent toutefois les "premiers interlocuteurs des jeunes pour parler de leurs difficultés", selon un communiqué de la CNIL. "L’IA ne s’y substitue pas, mais s’ajoute comme un relais complémentaire dans leur quotidien." Environ 28 % des jeunes interrogés présentent des signes compatibles avec un trouble anxieux généralisé, rappelle l'enquête. C'est dans ce contexte que les agents conversationnels peuvent apparaître comme des interlocuteurs accessibles.

Conseils psy : comment distinguer l’IA de l’humain ?

Ludwig Franke Föyen, psychologue au Karolinska Institutet en Suède, explique à Reuters que les modèles actuels peuvent produire des réponses de grande qualité. Selon lui, il est parfois difficile, même pour des professionnels, de distinguer les conseils générés par une IA de ceux d’un expert humain.

Pour autant, les spécialistes appellent à la prudence, car les IA conversationnelles restent limitées dans leur capacité à comprendre les émotions humaines et à offrir un accompagnement vraiment sécurisé. Il y a de quoi s'interroger : récemment, une plainte a été déposée contre Google aux Etats-Unis, accusant son chatbot Gemini d’avoir contribué à pousser un homme au suicide.

"L’IA peut offrir des informations et du soutien, mais elle ne doit pas remplacer les relations humaines ou les soins professionnels, rappelle Ludwig Franke Föyen. Si quelqu’un se tourne vers un chatbot au lieu de parler à un parent, un ami ou un professionnel, c’est préoccupant. Nous ne voulons pas que la technologie rende les gens plus seuls."

Vous aimez cet article ? Abonnez-vous à la newsletter !

EN DIRECT

LES MALADIES

J'AI MAL

J ai Mal Bras et mains Bras et mains Tête et cou Torse et haut du dos Jambes et pied

SYMPTÔMES