Comme le rapporte Futura Sciences, des chercheurs de l'École polytechnique fédérale de Zurich (EPFZ) ont développé une technologie innovante pour lutter contre les deepfakes, ces contenus truqués qui sapent la confiance du public dans les médias. Cette équipe de recherche, dirigée par Arnaud Pagès, a mis au point une puce intégrable aux appareils de prise de vue et d'enregistrement audio qui permet de vérifier à coup sûr si un contenu est authentique.

Cette technologie, basée sur la cryptographie, signe les images, les vidéos ou les signaux audio dès leur création, grâce à un capteur encastré dans la puce. La certification des contenus est ensuite opérée en produisant une clé privée qui est gravée de façon permanente dans le silicium. Cela permet de prouver que les données n'ont pas été modifiées ou truquées depuis leur enregistrement, car toute manipulation ultérieure laisserait inévitablement une trace.

Ce qu'il faut retenir

  • Les deepfakes sont des contenus truqués qui peuvent être indiscernables de la réalité.
  • Les chercheurs de l'EPFZ ont développé une technologie pour prouver l'authenticité des contenus.
  • Cette technologie est basée sur la cryptographie et utilise un capteur encastré dans la puce.
  • La certification des contenus est opérée en produisant une clé privée qui est gravée de façon permanente dans le silicium.

Le fonctionnement de la technologie

La technologie développée par les chercheurs suisses fonctionne de manière simple et efficace. Lorsqu'un contenu est créé, le capteur encastré dans la puce signe cryptographiquement les images, les vidéos ou les signaux audio. Cette signature est ensuite stockée dans un registre sécurisé, transparent, public et universellement accessible de type blockchain. Cela permet à n'importe quel utilisateur de vérifier de manière indépendante l'authenticité des données en obtenant la confirmation de leur origine.

Les premiers prototypes testés par les chercheurs suisses ont atteint un taux de détection supérieur à 96% sur des vidéos générées par les principaux modèles de type GAN (Generative Adversarial Networks), les IA qui produisent actuellement les trucages les plus réalistes. Cela prouve l'efficacité du système et ouvre des perspectives prometteuses pour la lutte contre les deepfakes.

Les applications potentielles

Cette technologie pourrait avoir des applications importantes dans différents domaines, tels que les médias, la publicité, la sécurité et la justice. Les diffuseurs pourraient utiliser cette technologie pour vérifier automatiquement l'authenticité des contenus avant leur mise en ligne, ce qui pourrait aider à prévenir la dissémination de deepfakes sur les réseaux et les plateformes.

Les chercheurs ont déposé une demande de brevet et étudient la manière dont cette technologie pourrait être industrialisée. La puce fonctionne avec très peu d'énergie, environ un dixième de la consommation d'un processeur graphique classique, ce qui pourrait faciliter son intégration dans les appareils électroniques les plus couramment utilisés.

Et maintenant ?

Les prochaines étapes consisteront à développer cette technologie et à la rendre accessible à un large public. Les chercheurs devront également travailler avec les entreprises et les institutions pour mettre en place des normes et des réglementations pour l'utilisation de cette technologie. La lutte contre les deepfakes est un défi complexe qui nécessite une approche multidisciplinaire et une collaboration entre les chercheurs, les entreprises et les gouvernements.

En conclusion, la technologie développée par les chercheurs suisses pour prouver l'authenticité des contenus est une avancée importante dans la lutte contre les deepfakes. Cette innovation pourrait avoir des applications importantes dans différents domaines et ouvre des perspectives prometteuses pour la protection de la confiance du public dans les médias.