2 points par GN⁺ 2026-02-02 | Aucun commentaire pour le moment. | Partager sur WhatsApp
  • Wiki Education a étudié de manière systématique, tout au long de 2025, l’impact de l’IA générative (ChatGPT, etc.) sur l’édition de Wikipédia
  • En analysant 3 078 articles rédigés depuis 2022 à l’aide de l’outil de détection d’IA Pangram, l’organisation a constaté que 178 articles étaient soupçonnés d’avoir été rédigés par IA, et que plus des deux tiers d’entre eux ont échoué à la vérification
  • En réponse, elle a renforcé la formation des participants et mis en place des consignes d’usage de l’IA et un système de détection en temps réel pour bloquer le copier-coller direct de texte généré par IA
  • L’IA est inadaptée à la rédaction de brouillons d’articles, mais peut être utile à l’étape de recherche, notamment pour explorer des sources, trouver des références et repérer des lacunes de contenu
  • Wiki Education souligne que l’automatisation de la détection de l’IA et l’élargissement de la formation des éditeurs sont essentiels pour préserver la fiabilité de Wikipédia

La relation entre l’IA générative et Wikipédia

  • Wiki Education représente environ 19 % des nouveaux contributeurs actifs de la Wikipédia anglophone et a analysé l’impact et les risques liés à l’IA générative
    • Avec la banalisation de chatbots comme ChatGPT, Gemini et Claude, les tentatives d’usage dans l’édition de Wikipédia se sont multipliées
    • L’organisation a évalué les usages de l’IA par les participants et en a publié les résultats
  • En conclusion, elle pose un principe clair : il ne faut pas copier-coller tel quel la sortie d’une IA dans Wikipédia

Détection de l’IA et résultats de vérification

  • Parmi les articles créés après le lancement de ChatGPT en 2022, 178 ont été détectés par Pangram comme rédigés par IA
    • Avant 2022, aucun signe d’usage de l’IA n’avait été observé, puis le phénomène a augmenté progressivement
  • Seuls 7 % utilisaient de fausses sources ; les autres citaient de vraies sources, mais plus de 2/3 ont échoué à la vérification
    • Les informations citées ne figuraient pas dans les sources mentionnées, rendant les faits impossibles à confirmer
  • Wiki Education a mobilisé des ressources humaines importantes pour nettoyer les articles en échec de vérification
    • Certains articles ont été réduits à l’état de stub, d’autres proposés à la suppression (PROD), et d’autres encore jugés irrécupérables

Améliorations du programme et système de détection de l’IA

  • Avec le soutien de Pangram, un dispositif d’analyse en temps réel des contributions des participants a été mis en place
    • La plateforme interne Dashboard permet le suivi des modifications et l’envoi d’alertes automatiques
  • Un nouveau module de formation, “Using generative AI tools with Wikipedia”, a été introduit
    • Il distingue clairement les usages autorisés et interdits de l’IA
    • Son message central est : « ne pas copier-coller de texte généré par IA »
  • Au second semestre 2025, sur 1 406 alertes d’édition liées à l’IA, seulement 22 % concernaient réellement l’espace principal des articles
    • La majorité a été détectée au stade du bac à sable d’entraînement
  • Pangram a produit quelques faux positifs sur des textes non phrastiques, comme le formatage ou les listes, mais a conservé une forte précision sur l’analyse des phrases du corps de texte

Comportements d’usage de l’IA et effet de la formation

  • Au semestre d’automne 2025, parmi 6 357 personnes, seulement 5 % ont été détectées avec de l’IA dans de vrais articles, et la plupart des ajouts ont été annulés manuellement ou automatiquement
    • Participants, enseignants et experts Wikipédia ont coopéré pour supprimer le texte généré par IA
  • Les enseignants ont évalué les travaux des étudiants en se concentrant sur la « vérifiabilité » (verifiability)
    • Ils ont confirmé que les phrases générées par l’IA sont inadaptées à Wikipédia dès lors qu’elles ne peuvent pas être vérifiées factuellement
  • Grâce aux interventions précoces fondées sur Pangram, le taux d’usage de l’IA a été ramené de 25 % attendus à 5 %

Usages positifs possibles de l’IA

  • L’IA peut être utile au stade de la recherche pour identifier des lacunes dans les articles, explorer des sources et proposer des pistes d’accès à l’information
    • Dans 7 cours, sur 102 signalements d’usage, 87 % ont répondu que l’outil leur avait été utile
    • L’outil le plus utilisé était ChatGPT, suivi de Grammarly
  • Les étudiants ont utilisé l’IA pour corriger des phrases, suggérer des catégories et évaluer des brouillons
    • Toutefois, aucun cas de rédaction du corps de texte par IA n’a été observé
  • L’organisation souligne que l’IA n’est utile que si ses résultats sont examinés de manière critique, et que le jugement humain reste indispensable

Conclusion de Wiki Education et plans à venir

  • Au niveau actuel, l’IA générative produit des textes impossibles à vérifier, ce qui la rend inadaptée à la rédaction du contenu principal de Wikipédia
    • Le temps nécessaire pour vérifier des phrases générées par IA dépasse celui d’une rédaction directe
  • En revanche, elle peut servir d’outil d’appui pour la recherche documentaire et l’exploration d’idées
  • Le système de détection Pangram sera maintenu et amélioré en 2026
  • Wiki Education a constaté un manque de culture IA chez les participants et ajoutera des modules de formation sur les grands modèles de langage (LLM)
  • En coopération avec Princeton et d’autres partenaires, l’organisation mène une étude sur l’évolution des contributions étudiantes avant et après l’adoption de l’IA
    • Il a été confirmé que Pangram identifie avec exactitude comme humaines 100 % des modifications effectuées entre 2015 et 2022

Ce que cela implique pour l’ensemble de Wikipédia

  • 10 % des adultes dans le monde utilisent ChatGPT, et une part importante s’en sert pour rédiger du texte
    • Il existe donc un risque que des contributeurs débutants ajoutent du contenu généré par IA sans le vérifier
  • Des outils de détection automatique comme Pangram sont indispensables pour maintenir la qualité de Wikipédia
    • Aujourd’hui, seul un affichage manuel de bannière est possible, mais un système de détection automatisé est nécessaire
  • Il est proposé de renforcer, pour les nouveaux contributeurs, les avertissements sur l’usage de l’IA et la formation à une édition centrée sur les sources
    • Les logiciels d’aide à l’édition de la Wikimedia Foundation devraient eux aussi privilégier des modes de synthèse centrés sur l’humain
  • Pour que Wikipédia s’adapte aux évolutions technologiques tout en préservant sa fiabilité, il est important de développer des politiques et des outils adaptés à l’ère de l’IA

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.