Depuis plusieurs années, l’Union européenne tente de renforcer la régulation des géants du numérique pour mieux protéger les jeunes utilisateurs. Selon Ouest France, la Commission européenne multiplie les enquêtes à l’encontre des plateformes comme Facebook et TikTok, tout en pointant du doigt l’insuffisance des mesures actuelles pour encadrer efficacement ces services.
Ce qu'il faut retenir
- La Commission européenne a lancé plusieurs enquêtes contre des plateformes majeures comme Facebook et TikTok.
- Les régulations existantes sont jugées insuffisantes pour garantir une protection réelle des mineurs en ligne.
- Les algorithmes de recommandation et le contrôle de l’âge restent des points de friction majeurs.
Des enquêtes ciblées pour des manquements persistants
Depuis 2023, Bruxelles a renforcé ses outils pour sanctionner les plateformes numériques qui ne respectent pas les obligations légales en matière de protection des données et de sécurité des mineurs. Ouest France souligne que les enquêtes actuelles visent notamment des manquements dans le contrôle de l’âge des utilisateurs. Certaines applications, comme TikTok, ont été critiquées pour leur incapacité à empêcher l’accès des moins de 13 ans à leurs services, malgré des dispositifs théoriques de vérification.
Les plateformes concernées, dont Meta (Facebook, Instagram), sont désormais sous surveillance accrue. En 2025, la Commission a infligé une amende de 1,2 milliard d’euros à Meta pour non-respect du règlement général sur la protection des données (RGPD), un signal fort envoyé aux autres acteurs du secteur. Pourtant, comme le relève Ouest France, ces mesures restent inégales et leur efficacité reste à prouver.
L’âge des utilisateurs : un défi technologique et éthique
L’un des principaux axes de ces enquêtes porte sur la vérification de l’âge, un exercice complexe pour les plateformes. Aujourd’hui, la plupart des réseaux sociaux s’appuient sur des déclarations spontanées des utilisateurs, sans véritable mécanisme de contrôle. Ouest France rappelle que des solutions technologiques existent, comme l’utilisation de pièces d’identité numérisées ou de systèmes de reconnaissance biométrique, mais leur déploiement reste limité, notamment en raison des coûts et des réticences liées à la protection de la vie privée.
Un rapport interne de la Commission européenne, révélé en mars 2026, estime que 40 % des mineurs européens déclarent avoir menti sur leur âge pour accéder à des plateformes comme TikTok ou Snapchat. Ces chiffres illustrent l’échec partiel des dispositifs actuels et l’urgence d’agir.
Les algorithmes de recommandation dans le viseur
Au-delà du contrôle de l’âge, les algorithmes de recommandation sont également pointés du doigt. Ces systèmes, conçus pour maximiser l’engagement des utilisateurs, exposent souvent les jeunes à des contenus inappropriés, allant des vidéos violentes aux discours de haine, en passant par des défis dangereux. Ouest France cite un exemple récent : en 2025, une enquête de l’ONG eurochild a montré que 30 % des adolescents avaient été exposés à des contenus à caractère sexuel ou violent en moins de 30 minutes après leur connexion.
Pour y remédier, la Commission européenne a proposé en 2024 un nouveau règlement, le Digital Services Act (DSA), qui impose aux plateformes de limiter la diffusion de contenus nuisibles aux mineurs. Cependant, son application se heurte à des résistances, notamment de la part des géants américains, qui arguent de la complexité technique et juridique des mesures demandées.
Reste à voir si ces mesures suffiront à combler le retard européen face à des acteurs comme les États-Unis ou la Chine, où les régulations sont soit inexistantes, soit peu contraignantes. Une chose est sûre : le débat sur la protection des jeunes en ligne n’est pas près de s’éteindre.
Les plateformes risquent des amendes pouvant aller jusqu’à 6 % de leur chiffre d’affaires mondial, voire une interdiction temporaire de leur service sur le territoire européen en cas de manquements répétés. Ces mesures s’appuient sur le règlement Digital Services Act (DSA), entré en vigueur en 2024.