1 points par GN⁺ 2025-08-27 | 1 commentaires | Partager sur WhatsApp
  • Une vidéo de concert de Will Smith a été soupçonnée de montrer un faux public généré par IA, alors qu’elle reposait en réalité sur des images filmées de vrais fans
  • La vidéo en question mélangeait des scènes du concert et de véritables photos de spectateurs de festivals, et certains plans du public ont été animés à l’aide de modèles d’IA image-vers-vidéo
  • Mais l’expérimentation de post-traitement de YouTube Shorts (défloutage et réduction du bruit) s’y est ajoutée, rendant les visages du public étrangement déformés et les pancartes altérées, ce qui donnait l’impression d’une manipulation par IA
  • La même vidéo publiée sur Instagram et Facebook présente moins de déformations, ce qui montre que la correction automatique de YouTube a aggravé la situation
  • En conclusion, le public était réel, mais la combinaison des retouches IA de l’équipe de l’artiste et des filtres de YouTube a déclenché une controverse sur le vrai et le faux

Début de la controverse

  • Dès la publication de cette vidéo d’une minute, de grands médias comme Rolling Stone, NME et Mashable ont relayé des soupçons de manipulation par IA
  • Les visages du public dans la vidéo présentaient des déformations typiques de l’IA, des doigts en trop et des signes étranges
  • En particulier, une pancarte portant le texte « From West Philly to West Swizzy » a été mal interprétée, alimentant davantage la polémique

Vérification des images du concert réel

  • La vidéo est un montage alterné de scènes de public tournées notamment au Positiv Festival d’Orange, en France, ainsi qu’aux Gurtenfestival et Paléo Festival en Suisse et au Ronquieres Festival en Belgique
  • Des photos de concert associées et des vidéos tournées par des fans ont permis d’identifier les mêmes personnes et pancartes, apportant la preuve qu’il s’agissait d’un vrai public
  • Une pancarte racontant l’histoire d’un couple touché par le cancer existe également, et plusieurs photos et vidéos restent visibles sur l’Instagram de Will Smith

Deux étapes de manipulation par IA

  1. L’équipe de Will Smith a utilisé des photos officielles du concert pour générer de courts clips avec des modèles d’IA image-vers-vidéo (Runway, Veo 3, etc.)
  2. Le post-traitement automatique de YouTube Shorts (défloutage, réduction du bruit) s’y est superposé, déformant encore davantage la vidéo, devenue plus floue et moins naturelle

Expérience YouTube Shorts

  • Les versions mises en ligne sur Instagram et Facebook sont relativement nettes, mais YouTube a appliqué une « expérimentation de technologies d’amélioration par IA », produisant un effet d’image globalement gondolé
  • YouTube a expliqué qu’il s’agissait d’une technologie de netteté fondée sur le machine learning traditionnel, mais son application sans notification préalable a amplifié la controverse
  • Face à la colère des créateurs, l’entreprise a ensuite annoncé l’ajout d’une fonction d’opt-out

Conclusion

  • La majorité des utilisateurs de YouTube, Reddit et X pensent qu’il s’agit d’une vidéo de faux fans créés par IA générative
  • En réalité, on y voit un vrai public, mais son apparence artificielle a été fortement accentuée par la conversion image-vers-vidéo opérée par l’équipe de Will Smith et par le post-traitement de YouTube
  • Cela soulève la nécessité de distinguer, sur le plan éthique, entre le fait d’ajouter de brèves animations à des photos de concert avec des modèles image-vers-vidéo et la génération d’une foule entièrement fictive
  • En définitive, ce cas montre comment un vrai concert peut paraître “moins réel” sous l’effet d’outils d’IA

1 commentaires

 
GN⁺ 2025-08-27
Commentaires sur Hacker News
  • Les vidéos upscalées par IA sont aussi désagréables à regarder que l’effet gênant d’une nouvelle TV avant de désactiver l’interpolation d’images. Je me demande vraiment qui trouve cette fausse netteté artificielle plus belle. J’ai récemment vu une version upscalée par IA d’un concert de David Bowie & Nine Inch Nails, et surtout vers la 2e minute, cela donnait une impression de décalage avec la réalité qui m’a mis très mal à l’aise psychologiquement. La vidéo d’origine est en basse résolution, mais à mon avis elle restitue bien mieux l’ambiance et l’effet intentionnel. Maintenant qu’on a d’excellentes caméras et lentilles, il n’y a pas besoin de forcer artificiellement la qualité d’image avec l’IA
    • Ce qui est frappant, c’est que les gens semblent en fait aimer ce rendu. Hier, mon/ma partenaire choisissait un nouveau smartphone et insistait sur l’importance de la qualité photo, en disant apprécier le fait que l’image reste nette même après zoom. Mais voir, après un petit délai, une image artificiellement reconstruite et déformée, qui rappelait les filtres d’upscaling des émulateurs de vieilles consoles, m’a laissé un goût amer : la personne que j’aime vraiment préfère apparemment des selfies avec le visage lissé et un faux bokeh artificiel en arrière-plan plutôt que des photos naturelles et réalistes
    • Cette image est vraiment hilarante
    • Il y a longtemps, en regardant une série que j’aimais sur la nouvelle TV de mes parents, je trouvais que quelque chose clochait : cela paraissait bizarre, cheap, le jeu des acteurs semblait maladroit, et même les dialogues donnaient l’impression d’être moins bons. Je me suis longtemps demandé pourquoi, avant de comprendre que cela venait de l’auto-smoothing de cette TV. C’est ce qu’on appelle le Soap Opera Effect
    • Le fait de continuer à pousser des technologies que les consommateurs ne veulent pas, c’est la pression pour maintenir le cours de l’action -> la pression managériale pour gagner des parts de marché -> les PM à qui l’on demande d’ajouter de nouvelles fonctionnalités -> les développeurs qui veulent tester de nouvelles technos -> et au final on se retrouve avec des chatbots IA, des résumés IA, des écrans tactiles dans les voitures, de l’upscaling IA, bref tout ce qu’on ne voulait pas
    • La plupart des gens ne perçoivent pas vraiment ces différences. Je n’ai pas de TV chez moi, mais quand je vais chez des amis, je repère tout de suite le Soap Opera Effect. Les deux fois où j’ai demandé qu’on désactive cette option, mes amis ont fini par être d’accord et ne l’ont jamais remise. Mais au fond, ils m’ont peut-être juste fait confiance, sans réellement voir la différence. Si vous voulez désactiver ça, cherchez simplement « nom de la marque de la TV soap opera effect » et vous trouverez généralement comment accéder au réglage. Attention, les fabricants utilisent souvent des appellations absurdes. À 2 min 6 s, on voit particulièrement le visage se transformer, alors que dans l’original cette portion est très floue. La version IA ne comprend absolument pas les effets de caméra. La comparaison entre la version upscalée par IA et l’originale est vraiment flagrante. Merci d’ailleurs d’avoir donné les deux liens, cela rend la comparaison très facile
  • Beaucoup de commentaires parlent de YouTube, mais d’après l’article, l’essentiel du travail IA a été fait par l’équipe de Will, qui a utilisé l’IA pour transformer des photos fixes en vidéo. En pratique, YouTube se contente plutôt de rendre légèrement le résultat final moins flou, et la majorité des artefacts IA vraiment gênants proviennent du processus de production vidéo lui-même. Cela ne s’applique qu’aux Shorts. Voir la vidéo de comparaison
    • Dans cette vidéo, la différence ne saute pas vraiment aux yeux
  • Je me demande ce que cela aurait donné si Coldplay avait utilisé ce genre de technologie cet été. Plus sérieusement, la tendance à injecter de l’IA partout est franchement préoccupante. Avant, j’aimais vraiment découvrir de nouveaux morceaux via Spotify Discover Weekly, mais aujourd’hui il y a tellement de titres générés par IA que cela casse complètement l’immersion
    • J’ai presque envie d’arrêter Spotify, d’acheter des CD chez le disquaire du coin et de reconstruire moi-même ma collection avec un lecteur CD USB. À force de courir après les nouveautés et de viser « toutes les chansons possibles », on a l’impression d’avoir perdu l’aspect émotionnel d’un vrai partage humain autour de la musique
    • C’est possible. Une grande partie du plaisir des recommandations musicales vient de la découverte inattendue de pépites, et si des morceaux générés par IA se mélangent au lot, cette magie disparaît. Spotify n’a jamais déclaré officiellement qu’il recommandait davantage de morceaux IA, mais depuis un an, la musique IA explose sur l’ensemble des plateformes de streaming. Les algorithmes de Spotify recommandent souvent sans distinction morceaux humains et morceaux générés par IA, surtout dans les genres faciles à imiter par l’IA comme l’ambient, le lo-fi, l’EDM ou la pop passe-partout. Au final, beaucoup de gens sont mal à l’aise de voir l’IA s’infiltrer dans des domaines qui relèvent normalement de la curation humaine ou d’une démarche artistique. Si cela t’intéresse, je peux aussi chercher s’il existe des moyens de filtrer la musique IA selon les services, ou d’obtenir seulement des recommandations d’artistes humains
  • Le vrai sujet ici, c’est le <i>consentement</i>. On peut partir du principe que tout le monde sait qu’en entrant dans une salle de concert, on accepte d’être photographié ou filmé. Mais combien de personnes ont réellement donné un consentement explicite au fait que l’équipe de l’artiste transforme ensuite leur visage en fausse vidéo avec de l’IA ? Je me demande vraiment si c’est légal selon les pays
    • Il y avait probablement une formule du type « en entrant, vous acceptez d’être filmé » quelque part dans les conditions d’achat du billet ou sur un panneau à l’entrée de la salle. Moralement, ce n’est pas terrible, mais juridiquement, cela couvre probablement assez bien le cas
  • Si j’étais marketeur, je ferais exprès de rendre une image réelle semblable à une création IA afin de profiter gratuitement de l’effet viral. Rien n’attire plus l’attention qu’une polémique sur une erreur ou un montage. Si ce n’est pas réellement faux, l’artiste ou son équipe n’ont rien à y perdre. J’ai déjà discuté avec un social media manager d’une grande marque qui m’expliquait publier volontairement des posts avec des fautes d’orthographe pour provoquer davantage de commentaires et de réactions
    • On appelle ça du ragebait. C’est déjà une méthode courante dans le marketing
    • Le nouveau film Naked Gun est un autre exemple : l’affiche a volontairement dessiné trop de doigts
  • Je ne sais pas si c’est mon matériel, mon logiciel ou mes yeux qui ont un problème, mais même en comparant YouTube et Instagram côte à côte, je ne vois pas une énorme différence. Si ce n’est pas un problème de vue, je me demande ce que je devrais vérifier, ou si je devrais changer de moniteur. Mon GPU n’est pas mauvais, mais j’utilise aussi un adaptateur HDMI-VGA. En revanche, sur les photos, c’était vraiment affreux. Je suppose que les vidéos contiennent elles aussi beaucoup d’images artificiellement déformées à ce point
    • Dans la vidéo, la différence est plus subtile. Ce n’est pas visible de manière flagrante sur chaque frame, mais on voit souvent l’arrière-plan devenir soudain net puis flou, ou des textures bizarres apparaître sur les cheveux et le cou des personnes, avec seulement le contour du visage bien défini tandis que la peau semble anormalement lisse. Ça donne presque un côté Max Headroom
  • Je ne connais littéralement personne autour de moi qui veuille vraiment de ce genre de fonctionnalités. Je me demande sincèrement pourquoi on continue à introduire des choses aussi compliquées et inutiles
    • Un peu comme certains pays qui testent leurs armements en conditions réelles pour accumuler du savoir-faire, j’en viens à imaginer que Google est peut-être en train de renforcer ses capacités internes en prévision du jour où il saura vraiment exploiter tout cela
    • La complexité existe aussi dans des choses nécessaires, mais si cela ne rapporte pas, il n’y a aucune raison que ce soit poussé
  • PM YouTube : « Rendons les vidéos générées par IA encore plus difficiles à distinguer des vraies vidéos pour que les utilisateurs aient l’impression que c’est naturel ! »
    • Je ne pense même pas qu’il y ait derrière cela une malveillance aussi planifiée. Les gens vraiment enthousiastes vis-à-vis de l’IA veulent en mettre dans tous les produits, et dès qu’un supérieur dit « l’IA, c’est formidable, ajoutez-en », tout le monde en arrose son coin. Les réunions ne tournent plus autour de « comment résoudre le problème utilisateur X », mais autour de « où peut-on modifier le produit avec de l’IA ? »
    • Plus que la malveillance, ce sont de mauvais incentives qui paraissent plausibles. Le KPI de quelqu’un est peut-être lié à l’ajout de fonctionnalités IA, ce qui explique qu’un « AI enhancement » ait remplacé l’ancien filtre sharpen + Denoise de YouTube
    • Il existe même un guide explicatif officiel de YouTube sur les transformations IA
    • Une telle approche peut au contraire faire passer de vraies vidéos d’actualité pour des montages IA et ainsi affaiblir la confiance. Cela risque surtout de rendre les gens encore plus méfiants et incrédules
    • Les générations à venir grandiront déjà dans un environnement médiatique totalement différent de celui des générations précédentes
  • Je me demande vraiment de qui peut venir cette idée de fonctionnalité, censée être une tentative de « rendre l’IA utile ». Comme il existe de toute façon une source HD d’origine, je ne vois pas pourquoi il faudrait dépenser pour proposer un upscaling. Et même si on ne l’appliquait qu’aux vidéos basse qualité, la déformation du réel n’en paraîtrait que plus grave
    • Pour Google, la fidélité au réel n’a pas d’importance. Seuls comptent la pub et l’engagement
  • Si on vendait des t-shirts marqués « AI glitch », le fait que cet effet apparaisse sur les photos pourrait rendre impossible toute distinction entre vrai et faux
    • Avec le temps, ces t-shirts deviendront probablement des accessoires de mode éphémères, comme le sixième doigt emblématique des problèmes de l’IA générative, ou les masques à cinq paires de lunettes destinés à perturber la reconnaissance faciale
    • Ce genre de t-shirt existe déjà, et il arrive souvent qu’on imprime directement sans aucune vérification des slogans générés par ChatGPT