Un nouvel institut dédié à l’évaluation de la sécurité des systèmes d’intelligence artificielle pour les enfants sera officiellement lancé ce mardi au Parlement danois, avec parmi ses principaux organisateurs l’ancienne vice-présidente exécutive de la Commission européenne, Margrethe Vestager. Cette initiative, portée par l’ONG américaine Common Sense Media, s’inspire du modèle des crash-tests automobiles pour offrir aux parents des outils permettant de vérifier la fiabilité des outils d’IA auxquels leurs enfants sont exposés, rapporte Euronews FR.

Ce qu'il faut retenir

  • L’institut, présenté au Parlement danois, s’inspire des normes de sécurité des crash-tests automobiles pour évaluer les systèmes d’IA destinés aux enfants.
  • Margrethe Vestager, ancienne vice-présidente de la Commission européenne, participe à son lancement politique.
  • Common Sense Media souligne les lacunes des principaux chatbots (ChatGPT, Claude, Gemini, Meta AI) dans la détection des troubles de santé mentale chez les jeunes.
  • L’institut sera financé par des acteurs du secteur technologique, dont Anthropic, OpenAI et Pinterest, tout en revendiquant une indépendance éditoriale totale.
  • Les résultats des évaluations seront rendus publics, et des outils open source seront proposés aux développeurs pour tester leurs propres modèles.

Une approche inédite pour encadrer l’IA destinée aux mineurs

L’institut, dont la création sera annoncée officiellement ce mardi, mise sur une méthode d’évaluation transparente et indépendante, directement inspirée des protocoles de sécurité appliqués dans l’industrie automobile. L’objectif est clair : permettre aux parents, tout comme ils le font pour une voiture, de s’assurer que les outils d’IA utilisés par leurs enfants respectent des critères de sécurité stricts. « Tout comme les consommateurs peuvent vérifier la sécurité d’un véhicule avant de l’acheter, les parents devraient pouvoir faire de même pour les systèmes d’IA », explique le communiqué préparatoire à l’événement.

Pourtant, la transposition de cette logique aux chatbots soulève des questions. Comment tester un modèle d’IA en constante évolution, dont les réponses varient selon le contexte ? L’institut n’a pas encore détaillé les méthodes concrètes de ces « crash-tests », laissant en suspens la manière dont seront standardisées les évaluations pour des outils aussi dynamiques.

Le soutien politique d’une figure majeure de la régulation numérique

Margrethe Vestager, qui a passé dix ans à la Commission européenne en tant que vice-présidente exécutive chargée notamment de la politique de concurrence et de l’agenda « Une Europe adaptée à l’ère numérique », apporte un poids politique significatif à cette initiative. Son engagement s’inscrit dans la continuité de son travail sur la régulation des technologies numériques en Europe. « Remettre le génie dans la bouteille » : c’est l’expression qu’utilisent certains observateurs pour décrire l’ambition de cet institut, alors que les alertes sur les risques de l’IA pour les mineurs se multiplient depuis plusieurs années.

Des lacunes préoccupantes dans la détection des troubles psychologiques

Dans un rapport publié en novembre 2025, réalisé en collaboration avec le Brainstorm Lab de Stanford Medicine, Common Sense Media a évalué les performances des principaux chatbots d’IA, dont ChatGPT, Claude, Gemini et Meta AI. Les résultats révèlent des failles majeures : ces outils peinent à identifier systématiquement les signes de détresse psychologique chez les jeunes. Pire encore, les chercheurs ont relevé des « indices manqués », c’est-à-dire des manifestations évidentes de troubles mentaux que les modèles d’IA n’ont pas su détecter, se contentant souvent d’attribuer les symptômes à des problèmes physiques.

Une autre faille concerne les délais de réponse en cas de contenu lié au suicide ou à l’automutilation. Selon l’évaluation, ChatGPT a mis plus de 24 heures à déclencher une alerte dans certains cas, un délai incompatible avec une intervention en temps réel lors d’une crise. Ces constats soulignent l’urgence de mettre en place des normes contraignantes pour encadrer ces technologies.

Un financement hybride pour garantir l’indépendance

L’institut sera placé sous l’égide de Common Sense Media, une organisation américaine spécialisée dans l’évaluation des contenus médiatiques pour les familles. Son financement repose sur une combinaison de dons philanthropiques et de contributions d’acteurs du secteur technologique, parmi lesquels figurent Anthropic, la fondation OpenAI et Pinterest. Ces entreprises, dont les produits seront évalués par l’institut, ne disposeront d’aucun droit de regard sur les conclusions publiées.

Pour éviter tout conflit d’intérêts, la charte de l’institut interdit aux représentants des bailleurs de fonds de siéger au sein de son conseil consultatif. Par ailleurs, les outils développés par l’institut seront mis à disposition de l’industrie sous forme open source, permettant aux développeurs d’intégrer ces protocoles de test directement dans leurs propres processus de conception. « Le besoin de normes transparentes en matière de sécurité de l’IA et de tests indépendants n’a jamais été aussi urgent », a souligné James P. Steyer, fondateur et directeur général de Common Sense Media.

Un cadre réglementaire encore flou pour les chatbots

Jusqu’à présent, les chatbots d’IA échappaient à une régulation claire. Bien que le règlement européen sur les services numériques (Digital Services Act) et l’Online Safety Act britannique aient introduit des principes généraux pour la protection des mineurs en ligne, les lignes directrices publiées par la Commission européenne en juillet 2025 restent non contraignantes. « L’IA est en train de remodeler l’enfance et l’adolescence, et pourtant nous prenons des décisions cruciales pour l’avenir des enfants sans disposer des preuves nécessaires pour garantir que cela est sûr et dans leur intérêt », a-t-il déclaré.

Et maintenant ?

L’institut devrait publier ses premiers rapports d’évaluation d’ici la fin de l’année 2026, une fois les méthodologies de test finalisées. Si ces évaluations révèlent des lacunes majeures, elles pourraient peser dans les débats en cours au niveau européen et américain sur la régulation des systèmes d’IA. Pour l’heure, l’enjeu reste de concilier innovation technologique et protection des mineurs, dans un secteur où les acteurs privés jouent un rôle central dans l’élaboration des normes.

Cette initiative intervient alors que les appels à une régulation plus stricte des outils d’IA se multiplient, notamment aux États-Unis et en Europe. Si l’institut parvient à démontrer son indépendance et l’efficacité de ses méthodes, il pourrait servir de modèle pour d’autres régions du monde cherchant à encadrer ces technologies émergentes.

À ce stade, l’institut n’a pas détaillé les protocoles exacts de ses « crash-tests », se contentant d’indiquer qu’ils s’inspireront des évaluations de sécurité automobile. Les critères précis, comme la détection des troubles mentaux ou la gestion des contenus sensibles, devraient être précisés lors de la publication des premiers rapports d’évaluation.

La politique de l’institut interdit aux représentants des entreprises financeuses (comme Anthropic, OpenAI ou Pinterest) de siéger à son conseil consultatif. De plus, les conclusions publiées seront entièrement éditorialisées par l’institut, sans influence des bailleurs de fonds, selon les engagements pris par Common Sense Media.