- Une nouvelle démonstration du théoricien de l’informatique du MIT Ryan Williams montre que la mémoire peut être une ressource de calcul plus puissante que le temps
- Elle met fin à 50 ans de stagnation sur la relation entre complexité en temps et en espace et présente une méthode permettant de transformer n’importe quel algorithme pour qu’il utilise moins de mémoire
- Le cœur de la démonstration consiste à généraliser la simulation économe en espace, avec l’idée de réduire l’usage mémoire d’un algorithme jusqu’à l’ordre de la racine carrée du temps
- Cela marque un progrès vers une démonstration quantitative de la différence entre les classes PSPACE et P, et ouvre aussi la possibilité d’établir un écart plus large
- Les experts jugent cette avancée comme un « développement étonnant et le point de départ d’une nouvelle exploration », qui pourrait aider à résoudre d’autres problèmes difficiles de l’informatique théorique
One Small Step for Space, One Giant Leap for Complexity
Aperçu de la nouvelle démonstration de Ryan Williams
- À l’été 2024, Ryan Williams, du MIT, relisait sa démonstration lorsqu’il a compris qu’une idée qu’il croyait erronée était en réalité valable
- Il a proposé une procédure générale permettant de transformer tout algorithme pour qu’il s’exécute avec moins de mémoire
- Cela permet de prouver que certains problèmes ne peuvent pas être résolus avec un temps limité
Temps et espace : les deux ressources du calcul
- Tout algorithme utilise du temps et de la mémoire (espace)
- Jusqu’ici, on considérait que, pour résoudre certains problèmes, l’espace était proportionnel au temps
- La démonstration de Williams établit mathématiquement que l’espace peut être plus puissant que le temps
Origines et histoire de l’informatique théorique
- Juris Hartmanis et Richard Stearns ont posé dans les années 1960 les définitions de la complexité en temps et en espace
- Ils ont jeté les bases de la classification des problèmes en classes de complexité selon les ressources nécessaires pour les résoudre
- P désigne les problèmes résolubles en un temps raisonnable, PSPACE ceux résolubles avec une quantité raisonnable de mémoire
Première avancée : la technique de simulation de 1975
- Hopcroft, Paul et Valiant ont développé une procédure universelle de simulation capable de transformer n’importe quel algorithme pour qu’il utilise un peu moins d’espace
- Cela a constitué un premier pas pour éclairer le lien entre temps et espace, mais les progrès se sont ensuite heurtés à une limite
- On pensait qu’il était impossible d’aller plus loin à cause de l’hypothèse selon laquelle des données ne peuvent pas occuper simultanément le même espace
Le tournant : Squishy Pebbles
- En 2010, le pionnier de la théorie de la complexité Stephen Cook et ses collègues ont conçu le problème de l’évaluation d’arbre - Pebbles and Branching Programs for Tree Evaluation et ont démontré qu’il était impossible à résoudre pour des algorithmes disposant d’un budget mémoire inférieur à un certain seuil
- Mais il y avait une faille. Cette démonstration reposait sur la même hypothèse de bon sens que celle formulée des décennies plus tôt par Paul et ses collègues
- À savoir qu’un algorithme ne peut pas stocker de nouvelles données dans un espace déjà plein
- Pendant plus de dix ans, les théoriciens de la complexité ont cherché à combler cette faille
- James Cook, le fils de Stephen Cook, et Ian Mertz ont publié en 2023 un algorithme pour le problème d’évaluation d’arbre qui brise cette hypothèse : Tree Evaluation Is in Space 𝑂 (log 𝑛 · log log 𝑛)
- Ils ont proposé un nouveau modèle de représentation dans lequel les données en mémoire peuvent se superposer physiquement
- Cette approche est devenue la clé pour dépasser les limites des simulations existantes
Le saut décisif de Williams
- Après avoir découvert la technique de Cook-Mertz grâce à une présentation d’étudiants, Williams a eu l’idée de l’appliquer à la simulation universelle
- La nouvelle simulation permet de réduire les besoins en espace d’un algorithme jusqu’à l’ordre de la racine carrée du temps
- Il a publié la version finale de son article sur arXiv en février 2025, où elle a reçu les éloges du monde académique
Ce que signifie ce résultat
- Cette démonstration ne prouve pas directement que PSPACE > P, mais constitue une avancée décisive qui crée une “ouverture” dans cette direction
- Si cette procédure peut à l’avenir être appliquée de façon répétée pour creuser un écart plus important, il deviendra possible de se rapprocher d’une résolution du problème P vs PSPACE
- Cela pourrait fournir un point d’appui pour résoudre l’un des plus anciens problèmes ouverts de l’informatique
Une conclusion marquante
- Williams a ainsi résumé son résultat :
« Je n’ai pas réussi à prouver ce que je voulais vraiment démontrer, mais ce que j’ai finalement prouvé est encore meilleur que ce que j’espérais. »
2 commentaires
....Hein ?
Avis Hacker News
fuzz), une machine de Turing multitape qui s’exécute en temps t peut être simulée en utilisant un espace O(sqrt(t log t)) (en général avec un temps d’exécution supérieur à t) Simulating Time With Square-Root Spacelookup tables) où l’on stocke des valeurs pré-calculées. Autrefois, je me disais que si l’on pouvait centralement stocker tous les calculs, au point de ne presque plus avoir besoin de processeur, la vitesse de traitement pourrait être révolutionnée (même s’il reste bien sûr le problème distinct de la recherche rapide)