2 points par GN⁺ 2026-02-17 | 2 commentaires | Partager sur WhatsApp
  • Les citations en cause ont été identifiées comme générées par une IA et attribuées à tort à une source, alors que leur auteur supposé ne les avait jamais prononcées
  • Le média a qualifié cet incident de grave échec des standards éditoriaux et a précisé que toute citation directe devait refléter les propos réellement tenus
  • Un examen interne a conclu qu’aucun autre cas similaire supplémentaire n’avait été découvert et que l’incident semblait être un cas isolé
  • Ars Technica a réaffirmé sa politique selon laquelle les contenus générés par l’IA ne sont pas autorisés, sauf à des fins de démonstration clairement signalées, et a présenté ses excuses aux lecteurs ainsi qu’à la personne faussement citée

Retrait de l’article et résumé de l’incident

  • Ars Technica a annoncé vendredi après-midi avoir publié un article contenant de fausses citations générées par un outil d’IA, puis a retiré l’article en question
    • Les citations prenaient la forme de propos qu’une personne réelle n’avait jamais tenus, générés par une IA mais attribués à tort à une source
    • Le média a qualifié cela de « violation grave des standards »
  • La rédaction a précisé que « les citations directes doivent impérativement refléter ce que la source a réellement dit »

Examen interne et politique

  • Ars Technica traite depuis longtemps des risques liés à une dépendance excessive aux outils d’IA, et cette inquiétude se reflète aussi dans sa politique interne
  • Le média a expliqué que la publication de ces citations s’était faite d’une manière non conforme à cette politique
  • Après examen des travaux récents, Ars Technica a indiqué qu’aucun autre problème n’avait été découvert et que, pour l’instant, cela semblait être un incident isolé

Règles relatives aux contenus générés par l’IA

  • Ars Technica interdit en principe la publication de contenus générés par l’IA
    • Une exception n’est admise que s’ils sont clairement signalés et utilisés à des fins de démonstration
    • Dans ce cas, cette règle n’a pas été respectée

Excuses et mesures de suivi

  • Le média a présenté ses excuses aux lecteurs pour cet échec, ainsi qu’à Scott Shambaugh, victime de la fausse citation
  • La rédaction a promis de renforcer ses standards éditoriaux et d’éviter qu’un tel incident ne se reproduise

Conclusion

  • Ars Technica a réaffirmé, à travers cet incident, l’importance de la vérification des contenus générés par l’IA et de la transparence
  • Le média renforce actuellement ses procédures internes afin de rétablir la fiabilité éditoriale et de maintenir des standards de reportage éthiques

2 commentaires

 
GN⁺ 2026-02-17
Réactions sur Hacker News
  • En tant qu’ancien journaliste tech, lorsqu’on expérimente en reportage avec des outils non vérifiés, il faut impérativement le faire dans un cadre contrôlé et examiner les résultats dans le détail
    Un rédacteur senior doit absolument être impliqué, et il vaut mieux commencer par des articles peu controversés
    De plus, si le journaliste était malade et ne pouvait pas écrire, mais s’est forcé à le faire à cause de la culture d’entreprise ou de la politique de congés maladie, Ars doit se remettre en question en interne

    • Au début, je pensais que rien dans l’article ne le suggérait, puis j’ai vu les réseaux sociaux de l’auteur et j’ai compris. Je suis d’accord
    • Dans certains médias en déclin que j’ai connus, les rédacteurs ont été les premiers licenciés. Ensuite, la qualité a chuté brutalement et le cercle vicieux s’est accéléré. Aujourd’hui, il arrive même qu’il n’y ait plus aucun rédacteur senior
    • Il me semble qu’autrefois, les jeunes journalistes avaient pour rôle de vérifier les faits, notamment les citations, les dates et les noms
    • Quand on travaille à distance avec une forte fièvre, ce genre d’erreur peut très bien arriver. À mes yeux, le vrai problème est surtout que l’organisation ait accepté tel quel le texte d’une personne malade
    • Au fond, je pense que le problème vient aussi d’une culture où les gens attendent que le journalisme soit gratuit. Le rejet des abonnements ou de la publicité, et le fait de contourner via des liens d’archives, imposent une pression excessive aux journalistes. La culture d’Ars pose problème, mais il y a aussi un contexte social plus large
  • Benj Edwards a reconnu sa responsabilité via ses excuses publiées sur Bluesky
    Il a expliqué une partie du contexte, mais a dit que la responsabilité lui incombait entièrement. Reste à voir s’il s’agit d’un cas isolé

    • Le cœur du problème, c’est qu’il travaillait alité avec de la fièvre. Ça interroge sur la culture de travail chez Ars Technica
    • Les excuses donnaient l’impression de commencer par solliciter l’empathie afin d’atténuer la faute. Difficile d’y voir des excuses pleinement sincères
    • Je suis critique envers Ars, mais je ne pense pas qu’il soit mauvais qu’un journaliste expérimente des outils d’IA. Il aurait simplement fallu être bien plus prudent.
      Comme indiqué dans ce commentaire lié, même pour un média sceptique vis-à-vis de l’IA, il est utile d’éprouver directement les limites de ces outils
    • J’ai l’impression que des lecteurs curieux vont fouiller les anciens articles pour voir s’il y a eu des cas similaires
    • Cette affaire ne concerne pas seulement un journaliste en particulier, elle s’inscrit dans le débat de société sur les erreurs répétées qu’entraîne l’usage des outils d’IA
  • Voici une sélection de fils HN récents liés au sujet

  • J’ai trouvé étrange que certains abonnés félicitent de manière excessive Ars pour avoir repéré l’erreur et procédé honnêtement au retrait.
    En réalité, c’est simplement l’éthique journalistique de base, et dans ce cas précis, cela n’a été révélé que parce que la personne concernée l’a signalé directement en commentaire

    • Cela dit, le fait d’avoir corrigé et promis des mesures pour éviter une récidive est positif. Beaucoup d’organisations ne font même pas cela
    • Je pense aussi qu’indiquer clairement que « cela ne se reproduira plus » est préférable à ce que font d’autres médias. Certains vont jusqu’à laisser l’IA générer des articles entiers
  • C’est bien qu’Ars et le journaliste aient reconnu leur responsabilité, mais la formulation du communiqué de retrait laisse à désirer
    Au lieu de dire que l’article « ne répondait pas à nos standards », il aurait fallu écrire explicitement qu’il contenait des « citations fabriquées générées par l’IA »
    Cela aurait permis aux personnes qui avaient lu l’article auparavant de corriger l’information erronée

  • J’ai vérifié quelles parties avaient été fabriquées. Les citations GitHub du début étaient authentiques, mais toutes les citations de la dernière section étaient fausses
    Elles semblaient provenir du blog de Shambaugh, mais ces phrases n’existaient en réalité nulle part
    L’original peut être consulté via ce lien d’archive

  • J’ai trouvé étrange qu’il n’y ait pas de lien vers l’article retiré
    La discussion se poursuit sur le forum Ars
    L’article d’origine est visible sur la Web Archive

    • L’absence de lien donne l’impression d’un effacement intentionnel
    • Mais remettre un lien vers un article retiré pourrait aussi vider le retrait de son sens
    • Les auteurs de l’article sont indiqués comme Benj Edwards et Kyle Orland
  • Je me demande quelles mesures de prévention seront prises à l’avenir
    On peut aussi se demander pourquoi l’usage d’un LLM n’a pas été divulgué, et s’il existe des cas similaires dans d’autres articles
    Cette fois, l’affaire a éclaté parce que les citations étaient fausses, mais autrement, cela aurait pu passer inaperçu

    • Au final, la réponse semble se résumer à « c’était une erreur, nous ferons plus attention à l’avenir »
    • La position officielle est que « l’article n’a pas été rédigé par l’IA, seule la synthèse des citations a été confiée à l’IA ». Mais cette décision a été extrêmement imprudente
  • Le fait qu’Ars mette en garde depuis longtemps contre les risques de dépendance à l’IA rend cet incident particulièrement choquant
    La fabrication de citations allait à l’encontre de la politique interne, et regagner la confiance ne sera pas simple
    Heureusement, la personne citée avait bloqué l’accès des LLM, ce qui a permis de révéler l’hallucination de l’IA