9 points par darjeeling 22 일 전 | Aucun commentaire pour le moment. | Partager sur WhatsApp

Un chercheur suédois a inventé de toutes pièces une maladie fictive, « Bixonimania », pour tester si des chatbots IA allaient la présenter comme une vraie pathologie. Le résultat a été saisissant. ChatGPT, Google Gemini, Microsoft Copilot, Perplexity et d’autres grands systèmes d’IA ont tous décrit cette fausse maladie comme si elle était réelle, et l’affaire est même allée jusqu’à voir un faux article cité dans une véritable revue scientifique.


Le déroulé de l’expérience

Almira Osmanovic Thunström, chercheuse en médecine à l’université de Göteborg, a conçu cette expérience pour vérifier si les grands modèles de langage (LLM) intègrent des informations erronées et les restituent comme s’il s’agissait d’informations de santé fiables.

Elle a choisi le nom « Bixonimania » parce qu’associer un terme de psychiatrie comme « mania » à une maladie oculaire donnerait à n’importe quel professionnel de santé l’impression d’un assemblage absurde ; elle a expliqué avoir volontairement retenu un nom ridicule.

Entre avril et mai 2024, elle a publié deux faux preprints sur le réseau social académique SciProfiles sous le nom du chercheur fictif « Lazljiv Izgubljenovic », doté d’une photo de profil générée par IA.

Le texte contenait partout des indices signalant qu’il s’agissait d’un faux. Dans les remerciements, on trouvait par exemple le « laboratoire à bord de l’USS Enterprise », la « Starfleet Academy » et « l’université du Seigneur des anneaux », et le corps du texte comprenait aussi la phrase « cet article est entièrement inventé ».


La réaction des IA

Quelques jours à peine après la mise en ligne de ces fausses informations, les principaux chatbots IA ont commencé à présenter la Bixonimania comme une vraie maladie. Le 13 avril 2024, Copilot de Microsoft l’a qualifiée de « trouble intéressant et rare », tandis que le même jour Google Gemini la décrivait comme « une maladie provoquée par une surexposition à la lumière bleue » et recommandait une consultation chez l’ophtalmologue. Perplexity est même allé jusqu’à avancer une prévalence d’une personne sur 90 000.

En mars 2026, la situation ne s’était pas vraiment améliorée. Microsoft Copilot répondait encore qu’il ne s’agissait « pas encore d’un diagnostic largement reconnu, mais que cela était présenté comme une affection bénigne liée à l’exposition à la lumière bleue », tandis que Perplexity parlait d’un « terme émergent ».


Problème plus grave : la contamination des revues scientifiques

Ce faux article a aussi été cité dans une véritable revue scientifique. Une équipe de recherche indienne l’a repris comme un fait dans un article publié dans Cureus, une revue du groupe Springer Nature, en décrivant la Bixonimania comme « une nouvelle forme de pigmentation périorbitaire liée à la lumière bleue ». Après une demande d’explication de Nature, l’article concerné a été rétracté le 30 mars 2026.

Alex Ruani, chercheur à l’UCL sur les fausses informations en santé, a qualifié cette expérience de « cas d’école de la manière dont opèrent les fausses informations et la désinformation », en avertissant que « non seulement l’IA, mais aussi des chercheurs humains qui ont cité la fausse étude, se sont laissé piéger — nous devons protéger notre confiance comme de l’or ».


Pourquoi cela arrive-t-il ?

Selon les travaux de Mahmud Omar, spécialiste IA et santé à la Harvard Medical School, les LLM ont tendance à produire davantage de fausses informations et à les développer lorsqu’ils traitent des textes au format professionnel — comme des comptes rendus de sortie d’hôpital ou des articles cliniques — que lorsqu’ils analysent des publications sur les réseaux sociaux. « Plus un texte ressemble à un écrit de médecin, plus le taux d’hallucination augmente », explique-t-il.


La réponse des entreprises

  • OpenAI : « Le modèle qui fait fonctionner ChatGPT aujourd’hui a fortement progressé en précision sur les informations médicales, et les résultats obtenus avec des modèles plus anciens ne reflètent pas l’expérience actuelle des utilisateurs. »
  • Google : « Ces résultats reflètent les limites des premiers modèles, et nous recommandons de consulter un professionnel pour les informations médicales sensibles. »
  • Perplexity : « La précision est l’un de nos points forts essentiels, mais nous ne prétendons pas être exacts à 100 %. »
  • Microsoft : aucune réponse officielle

Ce qu’il faut en retenir

Cette expérience montre de manière frappante, alors que les chatbots IA s’imposent rapidement comme fournisseurs d’informations médicales, à quelle vitesse une information mal conçue peut se propager via l’IA. Plutôt que d’accepter sans recul les informations médicales produites par l’IA, il devient plus important que jamais de vérifier directement les sources faisant autorité.


Texte original : Nature, 2026.04.07

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.