Près de neuf jeunes sur dix en France utilisent désormais des intelligences artificielles (IA) conversationnelles, et près de la moitié d’entre eux s’en servent pour aborder des sujets personnels ou intimes. C’est ce que révèle une enquête menée par le groupe mutualiste VYV et la Commission nationale de l’informatique et des libertés (Cnil), publiée mardi 5 mai 2026, comme le rapporte Franceinfo – Santé.
Cette étude, réalisée auprès de 3 800 jeunes âgés de 11 à 25 ans dans quatre pays européens (France, Allemagne, Suède, Irlande), met en lumière une adoption massive de ces outils, tout en soulignant les risques potentiels pour la santé mentale des adolescents et jeunes adultes. Si ces IA sont perçues comme un soutien complémentaire, leur utilisation soulève des questions sur la confidentialité des données et la fiabilité des conseils prodigués.
Ce qu'il faut retenir
- 48 % des jeunes européens interrogés utilisent les IA conversationnelles pour parler de sujets personnels ou intimes, selon l’enquête.
- 33 % des jeunes considèrent ces outils comme un « psy » dans certains cas.
- 69 % des jeunes estiment qu’une IA peut donner des conseils fiables, tandis que 56 % pensent qu’elle garantit la confidentialité des échanges.
- Près d’un jeune sur quatre présente une suspicion de trouble anxieux généralisé.
- 34 % des jeunes ayant utilisé une IA pour des sujets personnels déclarent s’être sentis mal à l’aise après un conseil reçu.
- Seulement 32 % des jeunes savent ce que deviennent les données qu’ils partagent avec ces outils.
Une adoption massive, mais une compréhension limitée des enjeux
Selon les résultats de l’enquête, 89 % des jeunes en France utilisent des IA conversationnelles, un chiffre qui reflète une tendance européenne. 48 % d’entre eux s’en servent pour aborder des sujets personnels ou intimes, et 33 % les considèrent comme un soutien psychologique dans certains cas. Pourtant, cette confiance dans les conseils reçus ne s’accompagne pas toujours d’une compréhension claire des mécanismes sous-jacents.
En effet, 32 % des jeunes interrogés déclarent savoir ce que deviennent les données qu’ils partagent avec ces outils. Cette méconnaissance des enjeux de protection des données est d’autant plus préoccupante que 56 % des jeunes croient que les échanges avec ces IA restent confidentiels. Or, comme le souligne Marie-Laure Denis, présidente de la Cnil, « les IA conversationnelles collectent des données personnelles, parfois sensibles, sans que nous en ayons toujours conscience. »
Un soutien complémentaire, mais pas un substitut aux relations humaines
L’enquête insiste sur le fait que les liens humains restent centraux dans la prise en charge des difficultés des jeunes. « Les amis et la famille demeurent les premiers interlocuteurs des jeunes pour parler de leurs problèmes », rappelle la Cnil. Les IA conversationnelles ne sont donc pas destinées à remplacer ces relations, mais à s’y ajouter comme un relais complémentaire.
Cette nuance est importante, d’autant que plus d’un jeune sur quatre présente une suspicion de trouble anxieux généralisé. « L’intelligence artificielle conversationnelle apparaît comme un soutien supplémentaire », précise l’enquête, qui met en garde contre une substitution des relations humaines par ces outils. Pourtant, 34 % des jeunes ayant utilisé une IA pour des sujets personnels déclarent s’être sentis mal à l’aise après un conseil reçu, ce qui interroge sur la pertinence de ces recommandations.
« Il devient essentiel d’intégrer pleinement le numérique dans les politiques de prévention, en articulant innovation, protection des données et accompagnement des usages. »
Confiance dans les conseils, mais méfiance sur la gestion des données
Malgré les interrogations sur la confidentialité, 69 % des jeunes estiment qu’une IA peut donner des conseils fiables. Cette confiance contraste avec la réalité des pratiques : 34 % des jeunes ayant évoqué des sujets personnels avec une IA ont ressenti une gêne après avoir reçu un conseil. Autant dire que les attentes envers ces outils ne correspondent pas toujours à la réalité de leur fonctionnement.
L’enquête révèle également que 56 % des jeunes pensent que les échanges avec une IA restent secrets, une croyance qui contraste avec les pratiques réelles de ces outils. La Cnil rappelle ainsi que « les IA conversationnelles collectent des données personnelles, parfois sensibles, sans que nous en ayons toujours conscience. » Une situation qui souligne l’urgence d’informer les jeunes sur le devenir de leurs données et leurs droits en matière de protection de la vie privée.
Cette enquête soulève donc des questions essentielles sur l’équilibre entre innovation technologique et protection des jeunes. Si les IA conversationnelles peuvent offrir un soutien ponctuel, leur rôle dans la santé mentale des adolescents reste à clarifier. Une chose est sûre : leur utilisation massive ne sera pas sans conséquences, et il appartient aux pouvoirs publics et aux acteurs du numérique de veiller à ce que cet outil soit utilisé de manière responsable.