Un montage photographique généré par intelligence artificielle a semé la confusion dans l’actualité politique française. Selon Euronews FR, la présidente de l’Assemblée nationale, Yaël Braun-Pivet, a été ridiculisée sur la chaîne CNews le 4 mai après que des commentateurs politiques aient évoqué une couverture du magazine Closer la présentant aux côtés de Najat Vallaud-Belkacem. Problème : cette image était totalement artificielle, ce que la chaîne a reconnu en direct quelques minutes plus tard.

Ce qu'il faut retenir

  • La couverture du magazine Closer diffusée par CNews le 4 mai était un montage généré par IA, représentant Yaël Braun-Pivet avec Najat Vallaud-Belkacem.
  • Le titre associé, « Pour eux, ce n’est pas la crise ! », a été interprété comme une tentative de Braun-Pivet de se positionner à gauche en vue de l’élection présidentielle.
  • Yaël Braun-Pivet a dénoncé une « frontière fragile entre vrai et faux » et annoncé saisir l’Arcom, le régulateur audiovisuel français.
  • Pascal Praud, animateur de l’émission concernée, a reconnu l’erreur et confirmé sa correction en direct.
  • En réalité, Braun-Pivet et Vallaud-Belkacem ont bien été photographiées ensemble fin avril à Paris, mais les images diffèrent de la fausse couverture.
  • CNews a déjà été condamnée à plusieurs reprises par l’Arcom pour diffusion de désinformation et de contenus haineux.

Une confusion médiatique rapidement corrigée

Le 4 mai dernier, la chaîne CNews a diffusé une image truquée en direct dans son émission d’information, suscitant des commentaires moqueurs sur l’apparente stratégie de Yaël Braun-Pivet. D’après les invités présents sur le plateau, la couverture du magazine Closer — pourtant clairement marquée du logo du tabloïd — aurait révélé une alliance politique entre Braun-Pivet, présidente de l’Assemblée nationale, et Najat Vallaud-Belkacem, figure historique du Parti socialiste. Le titre accrocheur, « Pour eux, ce n’est pas la crise ! », a été interprété comme un message adressé à l’opinion publique, suggérant une proximité idéologique entre les deux femmes.

Or, comme l’a révélé Euronews FR, cette couverture était en réalité un montage généré par intelligence artificielle. La chaîne a immédiatement rectifié l’information en direct, sans pour autant empêcher Yaël Braun-Pivet de réagir avec fermeté. Dans une vidéo publiée sur ses réseaux sociaux, elle a rappelé que « la frontière entre le vrai et le faux n’a jamais été aussi fragile » et souligné la responsabilité des médias dans la vérification des informations.

Yaël Braun-Pivet contre-attaque et saisit l’Arcom

Yaël Braun-Pivet n’a pas laissé passer cette erreur. Elle a annoncé sur ses comptes officiels qu’elle saisirait l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), l’organisme chargé de veiller au respect des règles déontologiques par les médias. Dans son communiqué, elle a rappelé que « le reportage ne consiste pas seulement à transmettre des informations, mais aussi à les vérifier ». Une prise de position qui s’inscrit dans un contexte de méfiance croissante envers les contenus numériques, notamment ceux générés par IA.

Cette affaire intervient alors que les fausses informations se multiplient dans le paysage médiatique, alimentant parfois des polémiques politiques. Yaël Braun-Pivet, figure centrale de la majorité présidentielle, n’est pas la première personnalité à être la cible de manipulations. Pourtant, cette fois, la révélation de l’utilisation de l’IA pour créer une fausse couverture ajoute une dimension nouvelle à l’affaire.

Les coulisses de la fausse couverture et la réaction de Closer

Malgré la confusion, il existe des preuves que Braun-Pivet et Vallaud-Belkacem ont bien été photographiées ensemble. Selon Euronews FR, des images des coulisses d’un tournage réalisé fin avril à Paris ont été publiées par Closer sur ses réseaux sociaux. On y voit Braun-Pivet en costume, tandis que Vallaud-Belkacem porte un ensemble en denim, des tenues éloignées de celles affichées sur le montage truqué. Le magazine a ainsi confirmé que les deux femmes avaient participé à une projection de film, mais que l’image diffusée par CNews était bien une création artificielle.

Cette affaire met en lumière les risques liés à l’utilisation de l’intelligence artificielle dans la création de contenus médiatiques. Les deepfakes et autres montages sophistiqués brouillent les repères entre réalité et fiction, posant un défi majeur pour les régulateurs et les professionnels de l’information.

CNews déjà sous le feu de l’Arcom pour des manquements répétés

Cette nouvelle polémique intervient alors que la chaîne CNews a déjà été condamnée à plusieurs reprises par l’Arcom pour des manquements à ses obligations déontologiques. Parmi les griefs retenus figurent la diffusion de désinformation climatique, de contenus haineux ou encore de théories complotistes. En 2025, la chaîne avait notamment écopé d’une amende de 2,5 millions d’euros pour avoir relayé des allégations infondées sur des militants écologistes.

Pascal Praud, l’animateur de l’émission concernée par la fausse couverture de Closer, a réagi sur le réseau social X en reconnaissant l’erreur de ses équipes. Il a précisé que la correction avait été apportée « en direct quelques minutes plus tard », tout en soulignant que l’essentiel était que l’information ait été rectifiée. Une réponse qui illustre la difficulté, pour les médias, de concilier rapidité et rigueur dans un paysage médiatique de plus en plus concurrentiel.

Et maintenant ?

L’Arcom dispose désormais d’un dossier pour examiner les manquements éventuels de CNews dans la diffusion de cette fausse couverture. Une décision pourrait intervenir dans les prochaines semaines, alors que la chaîne continue de faire l’objet de surveillances accrues. Par ailleurs, cette affaire relance le débat sur la régulation des contenus générés par IA en France, un sujet qui pourrait figurer à l’ordre du jour des prochaines sessions parlementaires. Yaël Braun-Pivet, de son côté, devrait maintenir la pression sur les médias, comme en témoigne sa décision de saisir le régulateur. Bref, la question de la fiabilité de l’information reste plus que jamais au cœur des préoccupations.

Cette polémique rappelle également l’importance pour les citoyens de vérifier les sources avant de partager une information. Avec la multiplication des outils de manipulation numérique, la vigilance individuelle devient un rempart essentiel contre la désinformation.

La couverture en question était un montage généré par intelligence artificielle, diffusé par erreur dans une émission de CNews le 4 mai. La chaîne a reconnu l’erreur en direct et l’a corrigée quelques minutes plus tard, mais la polémique a persisté.

L’Arcom pourrait ouvrir une procédure pour manquement déontologique, dans un contexte où la chaîne a déjà été condamnée à plusieurs reprises pour diffusion de désinformation. Une amende ou un avertissement pourrait être prononcé dans les semaines à venir.