3 points par GN⁺ 2025-10-12 | 1 commentaires | Partager sur WhatsApp
  • AMD et Sony ont dévoilé « Project Amethyst », un chipset destiné à la prochaine génération de consoles PlayStation, et développent une architecture centrée sur un traitement graphique basé sur le machine learning afin de dépasser les limites des structures GPU existantes
  • Pour corriger les inefficacités de la rasterization (méthode consistant à calculer l’image pixel par pixel), l’objectif est d’améliorer l’efficacité du traitement neuronal
  • Le chipset fournit un moteur de shaders extensible qui, grâce à une structure Neural Array, permet aux compute units de partager les données et de fonctionner comme un moteur IA unique, afin de traiter et d’améliorer par ML une plus grande partie de l’image
  • Il intègre aussi un Radiance Core dédié au ray tracing ainsi qu’une Universal Compression appliquée à l’ensemble des données transférées, pour une utilisation plus efficace de la bande passante
  • L’objectif est d’améliorer simultanément la qualité graphique et l’efficacité de calcul, ce qui pourrait ouvrir une nouvelle voie à une époque où les progrès du hardware console ralentissent

Présentation de Project Amethyst

  • Mark Cerny (architecte matériel chez Sony) et Jack Huynh (vice-président senior de l’AMD Computing and Graphics Group) ont publié une vidéo de 9 minutes présentant Project Amethyst, un projet d’ingénierie mené conjointement par les deux entreprises
    • Près de cinq ans après le lancement de la PS5, ils ont annoncé une nouvelle technologie de puce AMD pour une « future console qui sortira dans quelques années »
    • Le projet avait été évoqué pour la première fois en juillet 2025 et n’existe pour l’instant qu’à l’état de simulation, mais les résultats sont jugés très prometteurs malgré son stade précoce

Une architecture centrée sur le machine learning

  • Les GPU actuels rendent déjà possible l’affichage en 4K en temps réel grâce à des technologies d’upscaling comme FSR (AMD FidelityFX Super Resolution) et Sony PSSR
  • Mais selon Cerny, « la structure même du GPU force à fragmenter les calculs », ce qui met en évidence l’inefficacité de certains traitements parallèles
  • Project Amethyst introduit une approche « Neural Array », conçue pour que plusieurs compute units partagent les données et se comportent comme un moteur IA unique
    • Au lieu de relier l’ensemble du GPU, de petites unités sont regroupées pour former un Shader Engine extensible
    • En traitant de grandes zones de l’écran en une seule fois, cette architecture augmente la part du traitement graphique basé sur le ML
  • Huynh a indiqué que « davantage de parties de l’écran seront améliorées par le ML »

Amélioration de l’efficacité du ray tracing

  • Dans l’approche actuelle, le calcul des ray paths et le texture shading sont exécutés par les mêmes shaders, ce qui crée une structure inefficace
  • Sur la base d’une technologie brevetée déposée par Sony en 2022, un bloc matériel dédié baptisé « Radiance Core » est introduit
    • Il prend en charge le ray traversal (calcul du trajet des rayons jusqu’aux objets)
    • Le CPU et le GPU peuvent ainsi se concentrer sur les calculs de shading liés aux textures et aux matériaux
  • Cette architecture vise à améliorer à la fois la vitesse de traitement et la qualité des calculs de lumière

Optimisation de la bande passante mémoire

  • Le goulet d’étranglement le plus important que Sony et AMD cherchent à résoudre est la limitation de bande passante mémoire du GPU
  • AMD utilisait déjà la technologie Delta Color Compression (DCC) pour compresser et traiter les données de texture
  • Avec Project Amethyst, cette approche est étendue via « Universal Compression », qui compresse toutes les données d’entrée du GPU
    • L’architecture est conçue pour que la bande passante réellement perçue dépasse les spécifications nominales
  • Cerny a déclaré que « la bande passante effective dépassera les chiffres indiqués dans les spécifications »

Perspectives

  • En l’absence même d’une démo conceptuelle, il est encore trop tôt pour juger de la performance supplémentaire que cette nouvelle architecture pourra réellement apporter
    • Alors que le rythme des progrès du silicium ralentit par rapport au passé, l’efficacité réelle de cette nouvelle approche sera suivie de près
  • Mais l’évolution vers une architecture de traitement graphique centrée sur le machine learning est déjà considérée comme une tendance importante dans le renouvellement des générations de consoles
    • L’amélioration des performances par l’efficacité et l’innovation structurelle devrait devenir un facteur clé de la compétition entre consoles de nouvelle génération

1 commentaires

 
GN⁺ 2025-10-12
Avis Hacker News
  • Je me demande si la PS6 pourrait être la dernière génération de consoles à montrer des progrès vraiment visibles en calcul et en graphismes, les gains liés à la miniaturisation diminuent progressivement, le prix de l’électronique augmente et les coûts de fabrication des puces dominent la situation, diverses techniques visant à compenser le manque de puissance de calcul ont été introduites en continu (AA en post-traitement, astuces temporelles, upscaling IA, etc.), et on s’attendait récemment à voir l’upscaling IA et la génération d’images encore davantage mis en avant, mais je suis pessimiste quant à leur trajectoire d’évolution, le ray tracing occupe déjà une grande partie du budget en transistors et les solutions IA avancées monopolisent des ressources supplémentaires, l’upscaling IA non génératif et la génération d’images semblent presque avoir atteint leurs limites, si bien que sur une PS7 il faudrait probablement que l’IA générative produise un photoréalisme détaillé à partir d’images grossières, et je pense que cela dépasserait de plusieurs fois un budget en transistors économiquement viable, donc je me demande si on va finir par voir la fin de l’ère des consoles, avec tout qui bascule vers le cloud et des serveurs hautes performances chargés du rendu des jeux, ou si les progrès de la miniaturisation arriveront assez vite pour permettre à une nouvelle génération de consoles de créer une rupture comparable au passage de la SNES à la N64

    • Mes enfants s’amusent très bien avec Fortnite sur PS4 et trouvent le rendu très satisfaisant (moi, j’ai un certain âge), et en pratique le plus gros problème quand on joue, c’est la stabilité de la connexion Internet, on aime aussi souvent des jeux au design simple comme les jeux de société ou les jeux de cartes, et là le cœur du plaisir, c’est le gameplay, un meilleur hardware peut ajouter du réalisme, mais à long terme ce qui compte vraiment, c’est la qualité du gameplay, comme la narration dans un bon film

    • J’ai l’impression que même la PS6 n’apportera pas de progrès net, et qu’en fait la PS5 était déjà la dernière console vraiment innovante, la PS5 Pro est aussi la première console centrée sur la génération d’images, et d’après l’article la PS6 poursuivra cette tendance

    • Je pense que les consoles sont la meilleure plateforme pour une révolution du ray tracing, le ray tracing est la voie la plus claire vers un photoréalisme total mais son coût est énorme, et la question est de savoir combien de hardware dédié on peut intégrer dans un GPU qui doit aussi bien faire tourner d’anciens jeux, c’est pourquoi les jeux récents n’ont d’autre choix que d’adopter des approches hybrides (ray tracing partiel), alors qu’un ray tracing de scène complète dépend surtout de la résolution et du framerate, ce qui permettrait même à des développeurs indés d’atteindre des graphismes AAA, et à ce moment-là il n’y aurait plus besoin d’upscaling IA ni de génération d’images, l’idéal serait un GPU consacré à 100 % au ray tracing et abandonnant l’ancien pipeline à triangles, mais je pense que c’est difficile sur PC, tandis que sur console la rétrocompatibilité parfaite n’est pas indispensable, donc on peut expérimenter

    • La grande révolution après le ray tracing sera probablement le path tracing, les consoles adoptent généralement les nouvelles technologies graphiques avec retard, mais le ray tracing, et même le path tracing, finiront un jour par s’appliquer aux graphismes console, l’avantage des consoles est de viser un hardware fixe, ce qui permet de tester les jeux sur des performances précises et de rendre la qualité de l’expérience prévisible

    • Je me demande si l’upscaling IA non génératif ne pourrait pas provoquer un grand changement, avec une structure globale construite via des modèles 3D traditionnels et une IA générative utilisée pour les textures détaillées et l’éclairage, l’ajout de polygones ou d’éclairage approche de ses limites, et tant qu’il n’y a pas besoin d’obtenir exactement le bon nombre de doigts, l’IA générative peut sans doute encore apporter plus d’améliorations ici

  • Le fait que DirectX 12 soit sorti il y a 10 ans me fait sentir que le temps file, son objectif principal était de mieux exploiter le hardware à mesure qu’il s’éloignait du pipeline fixe, et je pense que des fonctions comme la génération d’images, l’upscaling ou l’interpolation d’images ont du potentiel, mais qu’il faut une méthode d’intégration totalement différente pour produire un effet réel

    • À mon avis, la refonte a déjà commencé avec les mesh shaders et les neural shaders, mais le hardware n’est pas encore assez répandu pour que les jeux les utilisent largement, et les développeurs ont aussi du mal à les adopter pour améliorer l’expérience

    • Il ne faut pas oublier mantle non plus

    • Je me souviens avoir découvert directx 1 dans le magazine PC Gamer

  • J’ai l’impression que toute l’industrie du jeu et sa communauté ne s’intéressent plus tant que ça aux progrès graphiques en eux-mêmes, les jeux AAA sont trop complexes et trop coûteux, et l’expérience de jeu toujours plus vaste et plus complexe ne passe pas bien à l’échelle, les joueurs se sont fragmentés en une multitude de petits goûts (années 80, années 90, PS1, etc.), et l’ère des grandes entreprises de consoles et des studios géants touche à sa fin

    • Je ne suis pas d’accord, les gens veulent des graphismes haut de gamme, mais ils attendent aussi des simulations à la hauteur, si GTA6 suscite autant d’attente, ce n’est pas seulement pour ses graphismes, c’est aussi parce qu’on croit qu’il offrira un niveau de simulation jamais vu jusque-là, les deux doivent avancer ensemble

    • J’ai l’impression que les consoles de génération actuelle ne suffisent pas à offrir des graphismes fluides et immersifs, j’ai fait BG3 d’abord sur PS puis plus tard sur PC, et il n’y a pas de comparaison possible, même chose pour Cyberpunk, je serais tout à fait prêt à upgrader et à acheter ce genre de jeux pour avoir du 120/4K et des graphismes cohérents à haute résolution, et les jeux AAA misent toujours sur les graphismes au premier plan tout en générant de gros revenus

    • Les progrès des techniques d’éclairage peuvent aider tous les jeux, pas seulement les AAA, par exemple Tiny Glade et Teardown sont excellents dans leur style artistique respectif grâce à l’illumination globale basée sur le ray tracing plutôt qu’au réalisme pur, mais pour l’instant c’est difficile à mettre en œuvre techniquement et cela ne marche que dans des environnements limités, les développeurs doivent prendre en charge plusieurs générations de GPU, ce qui est bien pour limiter les déchets électroniques et améliorer l’accessibilité, mais oblige encore à concevoir les assets et les niveaux pour un éclairage rasterisé et des ombres imprécises, donc si on applique simplement un excellent éclairage, les anciennes astuces ressortent encore plus et l’ensemble manque de finition vis-à-vis du nouveau système d’éclairage, ce qui explique pourquoi les options actuelles de ray tracing déçoivent souvent

    • Quand on voit le succès écrasant de la switch sur la génération précédente, avec beaucoup de jeux limités à de la HD en 30 fps et certains AAA même jamais portés, elle a pourtant vendu énormément de machines et de jeux, et la plupart des gens ne s’en sont pas plaints, au final ce qui comptait, c’était le fun

    • battlefield 6, sorti aujourd’hui, a des critiques très positives, et ses graphismes sont superbes

  • Je me souviens que dans les années 90 je disais qu’un jour le ray tracing dominerait tout le rendu, et aujourd’hui je suis heureux de voir que c’est devenu réalité, contrairement à mes amis qui se moquaient de cette prédiction

    • Si on reste réaliste, l’usage du ray tracing (RT) dans les jeux se limite généralement à des rayons secondaires d’appoint, et le rendu principal repose toujours sur la rasterisation, même si on bascule de plus en plus vers du rendu logiciel (via compute shaders)

    • Salut à l’ado que tu étais, ta prédiction s’est très bien vérifiée, et l’idée de radiance core me paraît aussi vraiment cool

    • Je me demande si je verrai un jour de mon vivant de vrais objets courbes affichés tels quels, sans approximation

  • J’ai l’impression que SCE arrive avec une idée innovante à chaque lancement de console, mais qu’au bout de deux ans ça redevient simplement une console parmi d’autres

    • J’ai l’impression que cela crée un phénomène étrange, les jeux exclusifs PlayStation exploitent le hardware au maximum mais n’ont pas de point de comparaison, alors que les jeux multiplateformes n’ont comme motivation que de se conformer aux standards de plusieurs plateformes, au final il y a peu d’incitation à faire l’effort de modifier le moteur en profondeur juste pour que la version PlayStation soit meilleure, c’est pourquoi on a tendance à voir de superbes jeux exploitant vraiment le potentiel du hardware seulement en fin de cycle de la console, et j’ai l’impression qu’on répète ce cycle depuis des décennies

    • J’ai peut-être beaucoup subi le marketing, mais j’ai vraiment l’impression que la prise en charge du SSD de la PS5 a fait grimper les standards de vitesse de chargement des jeux, et ça se ressent sur tout le multiplateforme

    • C’est vrai que ça a fini comme ça, mais je ne pense pas que ce soit mauvais, au moins les consoles gardent la volonté de prendre des risques calculés sur l’architecture, alors qu’aujourd’hui une console est de fait pratiquement un PC à l’intérieur

    • J’ai l’impression que les consoles ont commencé à suivre une voie un peu différente depuis la Xbox 360 et Unity, avant cela il fallait créer soi-même un hardware ou un OS atypique, un moteur 3D, un toolkit GUI, ce qui rendait le développement indé sur console très difficile, si les consoles poussaient des caractéristiques bizarres c’était aussi à cause de la loi de Moore, car elles devaient avoir quelques années d’avance sur le PC pour pouvoir encore rivaliser avec lui en fin de cycle, je pense qu’on a tous dépassé cette époque, et je vois positivement la direction de cette évolution

  • Je pense que la plus grande avancée de la PS5, c’est son stockage extrêmement rapide, l’absence d’écrans de chargement est un vrai point de bascule dans l’expérience de jeu, et j’aimerais bien que la fonctionnalité Xbox instant resume existe aussi sur PlayStation, les graphismes sont bien, mais ce n’est pas ma priorité numéro un

    • L’accélération matérielle de l’audio 3D (HRTF avancé) est vraiment géniale, c’est dommage que les jeux tiers l’utilisent si peu, et d’après mon expérience, Xbox instant resume n’est pas toujours fiable à cause de problèmes comme la synchronisation des sauvegardes, avec des horodatages différents dans les sauvegardes cloud, je me suis souvent retrouvé avec des conflits de fichiers de sauvegarde et je n’ai pas vraiment pu l’utiliser correctement

    • J’ai entendu dire que le support de stockage rapide de la PS5 venait d’une implémentation matérielle d’un codec de compression sous licence de RAD, et il semble qu’ils aillent dans une direction similaire aussi pour les vitesses de transfert GPU

  • Cette vidéo fait suite à celle où Cerny expliquait la philosophie de conception de la PlayStation 5 Pro et la feuille de route à venir, leur approche consiste pratiquement à produire une image basse résolution presque parfaite puis à la mettre à l’échelle en 4K via un réseau neuronal, et quand on voit à quel point les upscaleurs actuels n’arrivent pas à éliminer complètement les artefacts, le bruit et les cassures même sur des images parfaitement rendues, sans parler du fait que ce n’est même pas en temps réel dans ces cas-là, j’en conclus qu’au final il faudra forcément masquer ces erreurs à l’étape de post-traitement, au prix d’une perte équivalente de netteté

    • Je suis convaincu qu’un bon slogan marketing suffit à changer complètement la perception des utilisateurs, du genre : « Marre de la précision des pixels ? Blessé par la netteté ? Donnez de la liberté à votre imagination et accueillez l’avenir du flou. Les artefacts, c’est de l’art ! »

    • Je pense qu’on peut obtenir un résultat d’upscaling bien meilleur avec un upscaling personnalisé pour chaque jeu, au lieu d’utiliser seulement une seule image basse résolution, on peut aussi fournir les vecteurs de mouvement, la profondeur de scène, les normales de scène, les couleurs non éclairées, un upscaling dédié aux éléments transparents et opaques, etc., il y a énormément de possibilités avec ça, et de nos jours les upscaleurs des appareils photo de smartphones sont presque en temps réel, comparer génération d’image et simple upscaling est une mauvaise approche

  • Je considère que le ray tracing matériel et l’upscaling IA sont les pires tendances actuelles dans le domaine des graphismes, et je détesterais un futur où l’on en dépendrait totalement

    • J’ai l’impression que la polémique autour de l’upscaling IA est devenue excessive, le cadrage autour de l’IA et des pixels fantômes peut sembler artificiel, mais en réalité le rendu graphique a toujours reposé sur toutes sortes d’astuces et d’approximations, même sans IA basée sur le deep learning, les pixels du pipeline de rendu traditionnel n’ont jamais tous été des œuvres artisanales faites à la main

    • Personnellement, j’ai l’impression que ces deux technologies n’ont absolument aucun intérêt pour les jeux que j’aime, j’aimerais qu’AMD sorte une carte graphique qui les exclut toutes les deux, mais en pratique ça me semble difficile à espérer

    • Je me demande ce que tu trouves exactement problématique dans le ray tracing matériel

    • Les produits concrets issus des technologies de pointe ne sont pas seulement des numéros de show ou des idées à la mode, et les vrais clients des technologies à la frontière de l’industrie ne sont pas les consommateurs ordinaires, les passionnés fidèles et les early adopters servent en pratique d’équipe QA, les futurs domaines de croissance de l’accélération de calcul sont la simulation, la modélisation, l’entraînement et l’inférence, c’est pourquoi beaucoup de gens n’adhèrent pas à cette tendance, mais Sony et AMD ne cherchent pas simplement à prolonger la mode actuelle, ils veulent exploiter leur portefeuille pour mener le marché du futur dans 20 à 40 ans, et je trouve cette démarche extrêmement audacieuse

    • D’après ce que j’ai lu, l’usage du RT dans les jeux fait gagner énormément de temps aux artistes sur les itérations de level design, avant il fallait placer les sources lumineuses une à une et tout refaire au moindre changement du niveau, avec le RT il n’est plus nécessaire de précalculer et stocker les shadow maps, ce qui apporte aussi un avantage côté stockage

  • Cette fois, j’y vois une tentative d’AMD de rattraper Nvidia sur le RT, l’upscaling IA et la génération d’images, en tant qu’utilisateur de GPU AMD et de Linux, j’en suis plutôt content, mais j’ai tout de même l’impression qu’il est un peu exagéré de présenter cela comme révolutionnaire ou comme le fruit exclusif de la collaboration avec Sony, AMD a largement les capacités d’y parvenir seul, et cela arrivera probablement aussi sur PC et Xbox assez bientôt

    • Il manque encore trop de détails pour trancher, Sony a déjà montré par le passé du hardware de jeu original comme l’architecture CELLS, donc j’espère qu’ils feront encore quelque chose d’unique cette fois, ou alors ils utiliseront simplement un modèle légèrement personnalisé, voire exactement ce qu’AMD a prévu pour les prochaines années, seul le temps le dira, je n’ai pas acheté de console depuis longtemps, mais j’aimerais vraiment voir arriver un hardware vraiment atypique, à condition cette fois d’en tirer les leçons côté compatibilité avec les développeurs
  • Je n’aime pas trop le ton général de la discussion, trop centré sur les graphismes, et je pense que beaucoup de gens passent à côté de l’aspect efficacité mis en avant dans l’article, si des textures haute qualité et une meilleure efficacité de bande passante permettent de fournir un double flux 4K avec une bande passante de 1080p, cela peut résoudre l’instabilité de la VR, réduire la consommation électrique diminue aussi la taille et la chaleur, et grâce à ces avantages on pourrait un jour voir la Playstation Portal devenir elle-même une console, je vais bientôt prendre un avion pour la Suède, donc j’aimerais vraiment avoir un appareil compact comme le Steam Deck, qui chauffe peu et produit moins d’erreurs de rendu, Sony a tendance à se concentrer sur les graphismes depuis les années 90, mais si de vrais changements de form factor révolutionnaires et un vrai support VR deviennent plus proches des attentes, cela pourrait complètement rebattre les cartes