Une étude européenne rendue publique ce mardi 5 mai par la CNIL révèle que l’intelligence artificielle s’impose progressivement comme un interlocuteur privilégié pour les jeunes âgés de 11 à 25 ans. Selon les données recueillies, près d’un jeune sur deux dans cette tranche d’âge utilise désormais des outils d’IA pour évoquer ses problèmes personnels, son stress ou son mal-être. L’enquête, menée sous l’égide de l’autorité française de protection des données, montre que ces technologies, initialement conçues pour répondre à des requêtes factuelles, sont de plus en plus sollicitées dans un rôle d’écoute et de soutien psychologique.
Ce qu'il faut retenir
- Près de 45 % des jeunes Européens de 11 à 25 ans utilisent l’IA pour parler de leurs problèmes personnels, selon une étude de la CNIL publiée le 5 mai 2026.
- L’outil ne se limite plus à la recherche d’informations, mais sert désormais de confident, d’ami ou de « psychologue virtuel ».
- L’étude souligne une évolution des usages chez les jeunes, avec un recours accru à l’IA pour exprimer des émotions ou des difficultés du quotidien.
L’IA, un soutien psychologique de substitution pour la génération Z
Les résultats de l’enquête, dévoilés par la CNIL, mettent en lumière une tendance marquée chez les jeunes Européens. Alors que les générations précédentes se tournaient vers des proches ou des professionnels pour évoquer leurs difficultés, près de la moitié des 11-25 ans n’hésitent plus à confier leurs angoisses ou leur stress à des chatbots ou des assistants vocaux. « On observe une forme de désaffection envers les canaux traditionnels d’écoute, au profit d’outils perçus comme moins juges et plus accessibles », explique un porte-parole de la CNIL. Les raisons de ce changement ? Une disponibilité permanente de l’IA, l’anonymat qu’elle offre, et une absence de stigmatisation souvent associée à la consultation d’un psychologue.
Les jeunes interrogés évoquent également un sentiment de « neutralité » de la part de ces outils. « Un chatbot ne porte pas de regard sur moi, il ne me dit pas que je dramatise », témoigne un étudiant de 20 ans cité dans l’étude. Pour autant, la CNIL rappelle que ces dispositifs ne remplacent pas une prise en charge médicale ou psychologique, mais peuvent servir de premier recours en cas de détresse passagère.
Des usages qui interrogent : entre opportunité et limites
Si le phénomène peut sembler inédit, il s’inscrit dans une dynamique plus large de digitalisation des relations sociales. Les réseaux sociaux, les forums en ligne ou les applications de bien-être ont déjà modifié les codes de l’expression émotionnelle chez les jeunes. Avec l’IA, le pas est franchi vers une automatisation de l’écoute, parfois qualifiée de « psychologie low-cost ». « Ces outils répondent à un besoin réel, celui d’être entendu sans délai, mais ils ne peuvent garantir une écoute adaptée à toutes les situations », tempère une psychologue spécialisée en santé mentale des adolescents.
Parmi les risques pointés par l’étude, figure celui d’un désengagement des relations humaines. Certains experts craignent que le recours systématique à l’IA pour exprimer ses émotions n’affaiblisse le lien social ou ne retarde le recours à un professionnel en cas de troubles plus graves. La CNIL insiste par ailleurs sur la nécessité de sensibiliser les utilisateurs aux limites de ces technologies, notamment en matière de protection des données personnelles. « Un jeune peut partager des informations intimes avec un chatbot sans en mesurer les conséquences », rappelle l’autorité de régulation.
Quelle régulation pour ces nouveaux usages ?
Face à cette évolution, la CNIL appelle à un encadrement renforcé des outils d’IA à vocation « thérapeutique » ou d’écoute. Dans son rapport, elle recommande notamment la mise en place de garde-fous pour éviter les dérives, comme des algorithmes biaisés ou des conseils inadaptés. « Les développeurs doivent intégrer des mécanismes de signalement pour orienter les utilisateurs vers des ressources humaines en cas de besoin urgent », précise le document. Pour l’heure, aucune législation européenne ne réglemente spécifiquement ces usages, bien que le règlement sur l’intelligence artificielle (AI Act), entré en vigueur progressivement depuis 2024, commence à encadrer les systèmes considérés comme à haut risque.
Côté industriels, certains acteurs du secteur tech ont déjà pris les devants. Des entreprises comme Woebot ou Wysa, spécialisées dans les chatbots de bien-être mental, revendiquent des millions d’utilisateurs dans le monde. Leurs algorithmes s’appuient sur des techniques de thérapie cognitivo-comportementale pour proposer des échanges structurés. Pourtant, ces solutions restent critiquées par une partie du corps médical, qui les juge trop simplistes pour traiter des troubles psychiques avérés.
Reste à voir si les jeunes continueront à privilégier ces solutions numériques ou si, à terme, ils réinvestiront les canaux traditionnels d’écoute. Une chose est sûre : l’IA est désormais une pièce maîtresse du paysage des relations humaines pour une génération entière.
D’après la CNIL, ces outils ne peuvent se substituer à un professionnel de santé mentale, mais peuvent servir de premier recours en cas de stress passager. La prudence est de mise, notamment pour les situations graves (dépression, idées suicidaires), où un contact humain est indispensable. Les données échangées avec un chatbot doivent être considérées comme sensibles, même si les plateformes promettent une anonymisation.