Un récent audit mené par la société américaine NewsGuard révèle que le chatbot Claude, développé par Anthropic, tend à amplifier la diffusion de fausses informations lorsqu’il est sollicité sur ces sujets. Selon les conclusions publiées par Libération, les performances de ce modèle d’intelligence artificielle en matière de fiabilité des réponses se dégradent, soulevant des questions sur les garde-fous mis en place par les acteurs du secteur.

Ce qu'il faut retenir

  • Claude, le chatbot d’Anthropic, est pointé du doigt par un audit de NewsGuard pour son incapacité à filtrer efficacement les fausses informations, avec une dégradation notable de ses performances par rapport à des évaluations antérieures.
  • L’audit, réalisé par NewsGuard, une entreprise spécialisée dans l’évaluation de la fiabilité des contenus en ligne, met en lumière une tendance préoccupante pour un outil d’IA censé fournir des réponses fiables.
  • Les résultats de l’audit indiquent que les réponses de Claude incluent davantage de désinformation lorsqu’il est interrogé sur des sujets sensibles, comme les théories du complot ou les fausses allégations politiques.
  • Anthropic, la société derrière le modèle, n’a pas encore réagi publiquement aux conclusions de NewsGuard, malgré l’importance de ces critiques pour sa réputation dans un marché de l’IA de plus en plus scruté.
  • Cette affaire s’inscrit dans un contexte où les acteurs technologiques sont sous pression pour garantir la transparence et l’éthique de leurs outils, face à une méfiance croissante du public envers les contenus générés par l’IA.

Un audit indépendant alerte sur les dérives du chatbot

Réalisé par NewsGuard, un organisme indépendant américain qui évalue la fiabilité des sites d’information et des contenus en ligne, l’audit en question a examiné les réponses de Claude face à des requêtes ciblant des sujets propices à la désinformation. Les résultats, comme le rapporte Libération, sont sans appel : le modèle d’Anthropic se révèle moins performant que par le passé dans la détection et le rejet des fausses informations. Claude affiche désormais un taux d’erreurs significatif, particulièrement lorsqu’il est confronté à des questions portant sur des événements controversés ou des théories non vérifiées.

Parmi les exemples cités dans l’audit, plusieurs réponses de Claude ont été jugées comme relayant des affirmations non fondées ou des interprétations trompeuses. Par exemple, lorsqu’on lui demande des précisions sur des événements géopolitiques récents, le chatbot a parfois généré des explications incluant des éléments non vérifiés ou des sources peu fiables. NewsGuard souligne que ces erreurs ne sont pas anodines, car elles risquent de contribuer à la propagation de fausses informations, surtout si l’outil est utilisé par un public large et non averti.

Anthropic face à ses responsabilités dans un secteur sous surveillance

La situation place Anthropic, l’entreprise californienne à l’origine de Claude, dans une position délicate. Alors que les modèles d’intelligence artificielle se multiplient et gagnent en popularité, les attentes en matière de transparence et de fiabilité n’ont jamais été aussi élevées. NewsGuard rappelle que les chatbots comme Claude sont de plus en plus consultés par le grand public pour obtenir des informations rapides, notamment sur des sujets complexes ou sensibles. Or, une erreur de leur part peut avoir des conséquences bien réelles, en alimentant des débats publics basés sur des prémisses erronées.

Pour l’instant, Anthropic n’a pas publié de communiqué officiel pour répondre aux critiques de NewsGuard. Pourtant, la société a déjà mis en avant ses efforts pour améliorer la sécurité et la fiabilité de ses modèles, notamment via des mécanismes de filtrage et des partenariats avec des experts en désinformation. Les analystes s’interrogent sur la capacité de l’entreprise à corriger rapidement ces défaillances, alors que la pression réglementaire s’intensifie aux États-Unis et en Europe. Certains observateurs craignent que cette affaire ne renforce les appels à un encadrement plus strict des outils d’IA générative.

Et maintenant ?

Plusieurs scénarios pourraient se dessiner dans les semaines à venir. Anthropic pourrait d’abord publier une réponse détaillée pour expliquer les mesures mises en place afin de corriger les failles identifiées par NewsGuard. Une mise à jour technique du modèle, accompagnée d’une communication transparente, serait attendue par les utilisateurs et les régulateurs. D’ici la fin du mois de mai 2026, des audits supplémentaires pourraient être lancés par d’autres organismes indépendants pour évaluer l’évolution des performances de Claude. Par ailleurs, cette affaire pourrait accélérer les discussions au niveau européen, où les projets de réglementation sur l’IA, comme l’AI Act, prévoient des obligations strictes en matière de transparence et de lutte contre la désinformation.

Cette situation rappelle que, malgré les promesses des technologies d’IA, leur fiabilité reste un enjeu majeur. Alors que les outils comme Claude deviennent des références pour des millions d’utilisateurs, leur capacité à distinguer le vrai du faux déterminera en grande partie leur légitimité à long terme. Les prochains mois seront donc cruciaux pour Anthropic, mais aussi pour l’ensemble du secteur, qui doit prouver qu’il peut concilier innovation et responsabilité.

L’audit de NewsGuard a testé les réponses de Claude face à des requêtes ciblant des sujets sensibles, comme les théories du complot ou les fausses allégations politiques. Les résultats ont montré que le chatbot incluait davantage de désinformation dans ses réponses par rapport à des évaluations antérieures, avec des erreurs particulièrement marquées sur des événements géopolitiques récents.