1 points par GN⁺ 2026-02-16 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Un article sur l’effondrement de la confiance envers Internet, centré sur le cas de la découverte d’un faux article généré par IA à propos de la réédition « Phantasy Star Fukkokuban » sur Sega Genesis au Japon, alors qu’un tel article n’existait pas en réalité
  • Un site bien positionné dans les résultats de recherche publiait un texte mentionnant des améliorations graphiques, des effets météo et d’autres éléments totalement absents du jeu réel ; il s’est révélé être une fiction produite par un grand modèle de langage (LLM)
  • L’auteur a aussi vérifié directement le phénomène d’hallucination lié au manque de données d’entraînement en demandant à ChatGPT de décrire le même jeu, qui a alors fourni la mauvaise plateforme et un contenu erroné
  • Ce type de contenu généré automatiquement afflue massivement vers des sites publicitaires à visée SEO, renforçant une mécanique qui diffuse des informations fausses mais plausibles sans vérification
  • En conséquence, le socle de connaissances partagé d’Internet est en train d’être endommagé, et l’auteur conclut qu’il faut désormais se reposer sur des sites réputés datant d’avant l’ère des LLM pour obtenir des informations fiables

Le cas de Phantasy Star Fukkokuban

  • « Phantasy Star Fukkokuban » pour Sega Genesis, sorti au Japon en 1994, est une réédition qui reprend telle quelle la version originale du jeu sur Master System
    • Certaines consoles Genesis ne peuvent pas exécuter les jeux Master System, ce qui fait que cette cartouche ne fonctionne pas non plus sur ces modèles
    • En cherchant à vérifier la date de sortie du jeu, l’auteur est tombé, parmi les premiers résultats, sur un site contenant de fausses informations
  • Le site en question, Press Start Gaming, évoquait des améliorations graphiques, des effets météo et un cycle jour-nuit, alors que rien de tout cela n’existe dans le jeu réel
    • Bien que la première phrase de l’article soit « Game data not found », elle était suivie d’une description plausible générée par IA

Le problème des hallucinations des grands modèles de langage

  • Les LLM fonctionnent sur la base de la prédiction du token suivant et produisent, sur des sujets rares absents de leurs données d’entraînement, des fictions plausibles
    • En combinant le sens de la série « Phantasy Star » et du mot « Fukkokuban » (édition rééditée), le modèle a imaginé une version remake qui n’existe pas
  • Lorsque l’auteur a demandé à ChatGPT de décrire ce même jeu, il a reçu une réponse l’identifiant à tort comme une compilation sur Sega Saturn
    • Il semble qu’il y ait eu confusion avec un autre jeu réel, « Phantasy Star Collection »
  • De manière similaire, pour un autre jeu rare traité par l’auteur, « Mahjong Daireikai », il existe aussi sur le web japonais des descriptions fictives générées par IA

L’effondrement de la confiance dans Internet

  • Le site Press Start Gaming est soupçonné d’être une plateforme de contenu automatisé visant les revenus publicitaires
    • En bas du site figure la mention « ©2025 Cloud Gears Media », sans qu’un lien réel avec une entreprise identifiable soit clair
    • Ce type de site donne la priorité au référencement dans les moteurs de recherche (SEO) plutôt qu’à la transmission de faits
  • Avec l’arrivée des LLM, le coût de production de fausses informations a chuté brutalement, entraînant une diffusion massive de contenus non vérifiés
    • Autrefois, même des rédacteurs mal payés faisaient au moins un minimum de vérification ; désormais, l’IA produit une fiction complète
  • L’auteur explique qu’« il est désormais difficile de faire confiance à de nouveaux sites » et qu’il en est venu à ne s’appuyer que sur des médias ayant construit leur réputation avant l’ère de l’IA

Dégradation de l’écosystème informationnel à l’ère de l’IA

  • L’auteur estime que le savoir partagé d’Internet a déjà été endommagé de manière irréversible
    • Même des sources d’information fiables risquent d’être contaminées par des contenus IA
    • Il cite comme exemple Ars Technica, qui a publié un article contenant une citation générée par IA avant de le corriger puis de le retirer
  • Les LLM pourront peut-être un jour gagner en précision à mesure qu’ils intégreront davantage de données, mais les dégâts actuels sont déjà en cours
  • L’auteur précise qu’« il ne s’agit que d’un rant », tout en soulignant la perception très concrète de la perte de confiance envers Internet

Conclusion

  • L’écosystème de contenu centré sur l’IA et le SEO privilégie l’efficacité de production au détriment de la véracité de l’information
  • En conséquence, des textes générés automatiquement sans vérification factuelle se hissent en tête des résultats de recherche et sapent les bases de l’apprentissage et de l’exploration des utilisateurs
  • L’auteur conclut par la déclaration « On ne peut plus faire confiance à Internet », laissant entendre qu’il est urgent de restaurer la fiabilité du savoir numérique

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.