Les symptômes de la bixonimanie se résument à des yeux irrités et à une brûlure autour des orbites, le tout, bien entendu, étant une blague scientifique. En 2024, la chercheuse Almira Osmanovic Thunström et son équipe ont imaginé cette maladie fictive pour tester la capacité des intelligences artificielles à distinguer le vrai du faux.
La bixonimanie a été décrite comme une affection cutanée causée par une exposition prolongée aux écrans, avec des résultats hilarants. Selon l’étude, elle entraînerait une hyperpigmentation des paupières, un détail qui a suscité des interrogations dans le milieu médical. « La bixonimanie est une exposition excessive à la lumière bleue, surtout pour les personnes de plus de 35 ans », indique l'étude, qui précise même que le faux chercheur Lazljiv Izgubljenovic a été utilisé pour publier des « pre-prints » crédibles, mais clairement absurdes.
Une blague qui devient réalité
Rapidement, des modèles d’intelligence artificielle tels que ChatGPT et Gemini ont commencé à reconnaître la bixonimanie comme une vraie maladie, intégrant ses symptômes dans leur base de données. Malgré les signaux d’alerte présents dans les travaux originaux, des articles ont commencé à référencer ces informations fictives dans des revues scientifiques. L’équipe a alors constaté l’ampleur de la méprise, trouvant des références à des œuvres de fiction au sein même de leur texte.
« Nous souhaitions mettre en lumière la vulnérabilité des systèmes d'IA face à la désinformation », a commenté Thunström. Elle a également souligné que cela illustre un problème plus global qui pourrait toucher de nombreuses autres publications scientifiques.
« Il est effrayant de voir ces allégations sérieuses passer inaperçues dans la littérature scientifique, même lors des évaluations par les pairs », déclare-t-elle.
Les systèmes automatisés, comme Bing Copilot, ont intégré la bixonimanie dans leurs réponses comme une pathologie légitime. D'autres chercheurs ont aussi noté qu'il est crucial de vérifier les sources des données fournies par l’IA, car des erreurs peuvent avoir des conséquences désastreuses pour les utilisateurs cherchant des conseils médicaux.
À ce jour, OpenAI a affirmé travailler à l'amélioration des performances de ses modèles pour garantir des informations médicales fiables. Cependant, la découverte de cette supercherie a déjà conduit plusieurs revues à corriger ou retirer des articles basés sur ces fausses données.
Un avertissement pour l’avenir
Cette histoire, qui pourrait sembler banale, soulève des questions critiques sur la manière dont l'intelligence artificielle est intégrée dans nos vies. Comme l'a noté la chercheuse, nous pourrions être témoins de nombreux autres problèmes dans la recherche scientifique liée à l'IA. "Nous sommes cuits", a conclu un utilisateur sur un forum, reflétant la préoccupation générale quant à l'avenir de l'intégrité scientifique dans l’ère numérique.







