Une maladie inventée, la bixonimanie, a réussi à duper plusieurs intelligences artificielles conversationnelles et à se glisser dans un article scientifique officiel, soulevant des interrogations sur la vérification des données à l'ère de l'IA. La chercheuse suédoise Almira Osmanovic Thunström est à l'origine de cette supercherie, créant de toutes pièces cette affliction pour tester la capacité des systèmes d'IA à intégrer de fausses données. Divers modèles conversationnels tels que Copilot, Gemini, Perplexity et ChatGPT ont rapidement propagé cette maladie fictive, allant même jusqu'à la citer dans des publications scientifiques réelles.

Ce qu'il faut retenir

  • La bixonimanie, une maladie fictive, a été créée par la chercheuse suédoise Almira Osmanovic Thunström.
  • Des modèles conversationnels d'IA ont propagé cette affliction fictive comme une réalité médicale.
  • La vérification des données en période d'IA est remise en question suite à l'infiltration de la bixonimanie dans la littérature scientifique.

Invention de la bixonimanie par Almira Osmanovic Thunström

Almira Osmanovic Thunström, chercheuse à l'Université de Göteborg, a introduit la bixonimanie en ligne en 2024 via des articles de blog et des prépublications. Cette maladie fictive était associée à des symptômes oculaires causés par une exposition prolongée aux écrans, avec des indications claires dans les textes publiés signalant son caractère inventé. Malgré ces avertissements, la propagation de la bixonimanie par les chatbots a été rapide, ces derniers intégrant cette affection fictive comme une condition réelle.

Propagation dans la littérature scientifique

En fin 2024, une étude de la revue Cureus a cité l'une des prépublications falsifiées de la chercheuse suédoise, présentant la bixonimanie comme une forme émergente de mélanose périorbitaire liée à la lumière bleue. Après la découverte de cette supercherie, l'article a été retiré en mars 2026. Malgré ses intentions éthiques, Almira Osmanovic Thunström a suscité des critiques pour avoir potentiellement diffusé de la désinformation.

Et maintenant ?

Les prochaines étapes impliquent une réflexion approfondie sur l'utilisation et la vérification des données en ligne à l'ère de l'IA, mettant en lumière la nécessité d'une vigilance accrue face aux informations propagées par les systèmes automatisés.