- Les citations en cause ont été identifiées comme générées par une IA et attribuées à tort à une source, alors que leur auteur supposé ne les avait jamais prononcées
- Le média a qualifié cet incident de grave échec des standards éditoriaux et a précisé que toute citation directe devait refléter les propos réellement tenus
- Un examen interne a conclu qu’aucun autre cas similaire supplémentaire n’avait été découvert et que l’incident semblait être un cas isolé
- Ars Technica a réaffirmé sa politique selon laquelle les contenus générés par l’IA ne sont pas autorisés, sauf à des fins de démonstration clairement signalées, et a présenté ses excuses aux lecteurs ainsi qu’à la personne faussement citée
Retrait de l’article et résumé de l’incident
- Ars Technica a annoncé vendredi après-midi avoir publié un article contenant de fausses citations générées par un outil d’IA, puis a retiré l’article en question
- Les citations prenaient la forme de propos qu’une personne réelle n’avait jamais tenus, générés par une IA mais attribués à tort à une source
- Le média a qualifié cela de « violation grave des standards »
- La rédaction a précisé que « les citations directes doivent impérativement refléter ce que la source a réellement dit »
Examen interne et politique
- Ars Technica traite depuis longtemps des risques liés à une dépendance excessive aux outils d’IA, et cette inquiétude se reflète aussi dans sa politique interne
- Le média a expliqué que la publication de ces citations s’était faite d’une manière non conforme à cette politique
- Après examen des travaux récents, Ars Technica a indiqué qu’aucun autre problème n’avait été découvert et que, pour l’instant, cela semblait être un incident isolé
Règles relatives aux contenus générés par l’IA
- Ars Technica interdit en principe la publication de contenus générés par l’IA
- Une exception n’est admise que s’ils sont clairement signalés et utilisés à des fins de démonstration
- Dans ce cas, cette règle n’a pas été respectée
Excuses et mesures de suivi
- Le média a présenté ses excuses aux lecteurs pour cet échec, ainsi qu’à Scott Shambaugh, victime de la fausse citation
- La rédaction a promis de renforcer ses standards éditoriaux et d’éviter qu’un tel incident ne se reproduise
Conclusion
- Ars Technica a réaffirmé, à travers cet incident, l’importance de la vérification des contenus générés par l’IA et de la transparence
- Le média renforce actuellement ses procédures internes afin de rétablir la fiabilité éditoriale et de maintenir des standards de reportage éthiques
2 commentaires
Un agent IA a publié un texte me diffamant
Un agent IA a écrit un texte me diffamant — puis d’autres choses se sont produites
Réactions sur Hacker News
En tant qu’ancien journaliste tech, lorsqu’on expérimente en reportage avec des outils non vérifiés, il faut impérativement le faire dans un cadre contrôlé et examiner les résultats dans le détail
Un rédacteur senior doit absolument être impliqué, et il vaut mieux commencer par des articles peu controversés
De plus, si le journaliste était malade et ne pouvait pas écrire, mais s’est forcé à le faire à cause de la culture d’entreprise ou de la politique de congés maladie, Ars doit se remettre en question en interne
Benj Edwards a reconnu sa responsabilité via ses excuses publiées sur Bluesky
Il a expliqué une partie du contexte, mais a dit que la responsabilité lui incombait entièrement. Reste à voir s’il s’agit d’un cas isolé
Comme indiqué dans ce commentaire lié, même pour un média sceptique vis-à-vis de l’IA, il est utile d’éprouver directement les limites de ces outils
Voici une sélection de fils HN récents liés au sujet
J’ai trouvé étrange que certains abonnés félicitent de manière excessive Ars pour avoir repéré l’erreur et procédé honnêtement au retrait.
En réalité, c’est simplement l’éthique journalistique de base, et dans ce cas précis, cela n’a été révélé que parce que la personne concernée l’a signalé directement en commentaire
C’est bien qu’Ars et le journaliste aient reconnu leur responsabilité, mais la formulation du communiqué de retrait laisse à désirer
Au lieu de dire que l’article « ne répondait pas à nos standards », il aurait fallu écrire explicitement qu’il contenait des « citations fabriquées générées par l’IA »
Cela aurait permis aux personnes qui avaient lu l’article auparavant de corriger l’information erronée
J’ai vérifié quelles parties avaient été fabriquées. Les citations GitHub du début étaient authentiques, mais toutes les citations de la dernière section étaient fausses
Elles semblaient provenir du blog de Shambaugh, mais ces phrases n’existaient en réalité nulle part
L’original peut être consulté via ce lien d’archive
J’ai trouvé étrange qu’il n’y ait pas de lien vers l’article retiré
La discussion se poursuit sur le forum Ars
L’article d’origine est visible sur la Web Archive
Je me demande quelles mesures de prévention seront prises à l’avenir
On peut aussi se demander pourquoi l’usage d’un LLM n’a pas été divulgué, et s’il existe des cas similaires dans d’autres articles
Cette fois, l’affaire a éclaté parce que les citations étaient fausses, mais autrement, cela aurait pu passer inaperçu
Le fait qu’Ars mette en garde depuis longtemps contre les risques de dépendance à l’IA rend cet incident particulièrement choquant
La fabrication de citations allait à l’encontre de la politique interne, et regagner la confiance ne sera pas simple
Heureusement, la personne citée avait bloqué l’accès des LLM, ce qui a permis de révéler l’hallucination de l’IA