2 points par GN⁺ 2026-03-04 | 1 commentaires | Partager sur WhatsApp
  • Ars Technica a licencié le journaliste Benj Edwards après la polémique autour d’un article contenant de fausses citations générées par un outil d’IA
  • L’article en cause portait sur un incident où une IA avait publié un texte critiquant l’ingénieur humain Scott Shambaugh ; il a ensuite été retiré après la découverte de fausses citations
  • Edwards a expliqué qu’une erreur s’était produite lors de l’utilisation d’un outil d’IA basé sur Claude Code, et qu’en essayant d’identifier le problème avec ChatGPT, il avait inclus des citations erronées
  • Ars Technica a qualifié l’incident de « violation grave des standards », a mené une revue interne, et prévoit de publier à l’avenir des directives sur l’usage de l’IA
  • L’affaire montre qu’à un moment où l’usage de l’IA dans les médias et les normes éthiques entrent en conflit, même les spécialistes de l’IA peuvent être exposés aux erreurs humaines et aux limites techniques

Aperçu de l’affaire du licenciement chez Ars Technica

  • Ars Technica a mis fin à l’emploi du journaliste Benj Edwards après la polémique liée à un article contenant de fausses citations générées par l’IA
    • Le média appartient à Condé Nast
  • L’article en question, publié le 13 février, couvrait un incident lié à l’IA : un agent IA avait publié un texte critiquant l’ingénieur humain Scott Shambaugh
  • Après que Shambaugh a signalé que l’article contenait des citations qu’il n’avait jamais prononcées, le rédacteur en chef Ken Fisher a publié des excuses et retiré l’article

Excuses du rédacteur en chef et mesures internes

  • Dans ses excuses, Fisher a reconnu que l’article contenait des « fausses citations générées par un outil d’IA » et a qualifié cela de « violation grave des standards »
  • Il a ajouté que l’incident semblait être « un cas isolé », puis Ars Technica a annoncé avoir achevé son examen interne
  • Le directeur créatif Aurich Lawson a fermé le fil de commentaires des lecteurs en indiquant que « les mesures internes appropriées ont été prises »
    • Il a également mentionné qu’un guide destiné aux lecteurs sur les usages et non-usages de l’IA serait publié ultérieurement

Explications de Benj Edwards

  • Dans un message publié sur Bluesky, Edwards a déclaré qu’il avait « inclus par erreur de fausses citations lors de l’utilisation d’un outil d’IA » et en a assumé l’entière responsabilité
    • Il a expliqué qu’il était alors en arrêt maladie et qu’une erreur s’était produite alors qu’il tentait d’organiser des citations avec un outil d’IA expérimental basé sur Claude Code
    • Il a ensuite indiqué qu’en utilisant ChatGPT pour comprendre l’origine du problème, il avait fini par intégrer dans l’article des phrases reformulées plutôt que de véritables propos
  • Il a insisté sur le fait que « l’article a été écrit par un humain, et qu’aucun article généré par l’IA n’existe », et a précisé que le co-auteur Kyle Orland n’était pas lié à l’erreur

Réactions des lecteurs et évolutions ultérieures

  • Les lecteurs d’Ars Technica ont exprimé une forte déception et leur colère dans le fil de commentaires de l’article
  • Au 28 février, le profil Ars Technica d’Edwards avait été modifié au passé, confirmant qu’il ne faisait plus partie de la rédaction
  • Futurism a interrogé Ars Technica, Condé Nast et Edwards sur sa situation professionnelle ; ni le média ni son propriétaire n’ont répondu, et Edwards a indiqué qu’il ne pouvait pas faire de commentaire

Polémique plus large sur l’usage de l’IA dans les médias

  • L’affaire est présentée comme un nouvel exemple après d’autres controverses liées à l’IA chez CNET, Sports Illustrated, entre autres
  • L’article souligne que les médias encouragent actuellement l’usage de l’IA tout en manquant de normes éthiques claires
  • Dans cet environnement, les litiges sur le droit d’auteur, la prolifération des contenus générés par l’IA et la baisse du trafic due aux AI Overviews de Google agissent conjointement
  • Dans ce contexte, l’affaire Ars Technica illustre le point de croisement entre la technologie IA et l’erreur humaine
  • Edwards a déclaré ressentir « l’ironie d’un journaliste spécialisé IA tombé dans une hallucination de l’IA », ajoutant que, malgré l’importance qu’il accorde à l’exactitude, il s’agissait cette fois d’un échec douloureux

1 commentaires

 
GN⁺ 2026-03-04
Réactions sur Hacker News
  • Les journalistes et les blogueurs analysent souvent les erreurs et excuses des autres pour juger de leur sincérité

    • Dans cette affaire, Aurich Lawson d’Ars Technica a supprimé un article contenant de fausses citations générées par un LLM et a publié une non-excuse ambiguë
    • Le journaliste a finalement été licencié, mais Ars n’a même pas publié d’article à ce sujet
    • À une époque où l’honnêteté est perçue comme une faiblesse, on aurait espéré qu’Ars soit un exemple de transparence et de responsabilité, d’où la déception
    • Ars a reconnu son erreur et licencié le journaliste, ce qui constitue une prise de responsabilité
      • Le journaliste lui-même s’est aussi expliqué en détail sur Bluesky
      • Le reproche est simplement que cette explication n’a pas été jugée suffisamment satisfaisante
    • S’il couvrait le domaine de l’IA, le journaliste aurait dû vérifier impérativement les citations générées par le LLM
      • Si la rédaction ne l’a pas vérifié non plus, cela en dit long sur les standards éditoriaux d’Ars
      • Il faudrait vérifier si d’autres articles ont disparu de la même manière
    • On peut se demander s’il est vraiment courant qu’un média annonce publiquement qu’il a licencié quelqu’un
      • Ars avait, à l’époque, couvert la question de la source des citations en quelques jours
    • La rédaction d’Ars avait déjà depuis longtemps des standards faibles
      • La moitié des titres sont putaclic, formulés pour induire en erreur et attirer des clics
      • Il y a beaucoup trop de titres peu fiables
    • Dire qu’Aurich Lawson a supprimé l’article ressemble à une manière de « blâmer le messager »
      • Il n’est que le visage de la communauté et n’avait probablement pas ce pouvoir
  • Partage d’une expérience personnelle avec le journaliste Benji

    • Au départ, l’interview s’était bien passée, mais lorsque le projet a ensuite gagné en visibilité, il a refusé tout nouveau contact en invoquant des consignes d’embargo
    • La relation avec les journalistes manquait de transparence, donnant une impression d’opacité médiatique
    • Quand on échange avec un journaliste, il vaut mieux toujours garder une trace écrite
    • En Allemagne, essayer d’utiliser un journaliste pour promouvoir un projet personnel est très mal vu
      • La réaction de Benji paraît au contraire être une décision normale et éthique
    • Comme journaliste, lorsqu’on reçoit une proposition sur un sujet déjà traité ailleurs, on la refuse généralement
      • C’est parce qu’on recherche l’exclusivité, et les pitchs PR sont presque tous refusés
    • Il arrive aussi que les journalistes ne répondent pas simplement parce qu’ils sont débordés ou ont du mal à formuler un refus
    • Les journalistes hésitent à traiter deux fois le même sujet
    • Ars a tendance à résumer et réécrire des articles externes, ou à ne mener ses propres enquêtes que pour des exclusivités
  • Notre organisation utilise un garde-fou automatisé pour vérifier les citations juridiques générées par l’IA

    • Si une citation ne correspond pas à la base de données officielle, elle est marquée comme hallucination et revérifiée par un humain
    • L’IA n’est qu’une aide au brouillon ; la décision finale doit passer par une vérification humaine
    • Comme dans l’approche d’Anders Hejlsberg, il est plus sûr de faire créer des outils à l’IA que de lui faire faire directement le travail
      • Cela réduit le périmètre de vérification, puisqu’il suffit alors de valider la précision de l’outil
  • Le vrai problème dépasse le licenciement d’un journaliste : c’est l’effondrement de la structure éditoriale

    • Depuis dix ans, les médias ont réduit les effectifs chargés de la vérification, et le système de fact-checking a disparu en conséquence
    • En y ajoutant des outils d’IA, ils ont augmenté la production sans vérification, provoquant une défaillance systémique
    • Cela ressemble au « modèle du fromage suisse » des accidents industriels : un problème structurel
    • Il faut désormais ouvrir le débat sur l’obligation, pour les médias, de déclarer de manière transparente leur usage de l’IA
  • Je respecte et soutiens Ars Technica, mais dans cette affaire, c’est la responsabilité de la rédaction qui est en cause

    • Si un article est publié sous la marque, il aurait forcément dû passer par une procédure de vérification des faits
    • Malgré tout, Ars compte beaucoup d’excellents journalistes, et il serait injuste de juger l’ensemble sur une seule erreur
    • Eric Berger a un biais favorable à Musk, et Dan Goodin manque de compréhension technique
      • En revanche, Ashley Belanger est la plus fiable grâce à son travail de terrain et son écriture approfondie
      • Beth Mole allie elle aussi expertise et sens de l’humour
    • Les anciennes signatures Maggie Koerth et Jon Stokes manquent
    • Il ne faut pas surestimer les processus internes de vérification des grands médias
  • Récapitulatif du contexte de la discussion précédente, avec une chronologie de la polémique autour des articles sur l’IA

  • Les grands médias imposent déjà l’usage des LLM

    • Des consignes internes existent sur la manière de retoucher les sorties de l’IA pour qu’elles ne se remarquent pas, ainsi que sur la vérification des citations
    • Sous la pression des résultats, des journalistes qui n’utilisent pas l’IA sont parfois licenciés
    • Ce n’est pas un problème propre à Ars, mais un phénomène plus large créé par une logique centrée sur les clics
    • Certains ont toutefois demandé quelles preuves étayaient ces affirmations
      • Sans éléments concrets, présenter cela comme un « secret de Polichinelle » peut ressembler à une façon d’éluder les responsabilités managériales
    • D’autres ont aussi dit vouloir en savoir plus sur l’existence réelle de telles consignes et sur les méthodes pour masquer les sorties de l’IA
  • Le titre mentionnait le licenciement du journaliste, mais en réalité les faits confirmés sont insuffisants

    • Le passage de « is » à « was » dans sa bio, ainsi que l’absence de démenti des personnes concernées, ont été avancés comme éléments
    • À lire le post Bluesky de Benj, cela ne ressemble pas à une démission volontaire
  • Malgré la vague de critiques contre Ars, le journaliste a déjà payé le prix

    • On espère qu’Ars sera plus prudent à l’avenir
  • L’amélioration de la précision de Google AI Overview est presque surprenante

    • Il arrive désormais de ne même plus vérifier les liens
    • Mais cela reste surtout un résumé des résultats de recherche, dans une logique qui absorbe le contenu des sites sources
    • En pratique, l’outil fournit encore souvent des informations erronées
    • Il y a fréquemment un décalage entre le résumé et le contenu des liens
    • Un utilisateur affirme même que l’IA a inventé un projet de recherche inexistant
    • Il faut donc continuer à vérifier souvent les liens et garder à l’esprit les limites de fiabilité de l’IA