1 points par GN⁺ 4 일 전 | 1 commentaires | Partager sur WhatsApp
  • Il est désormais admis qu’un ancien problème — selon lequel la valeur minimale de la somme d’Erdős d’un primitive set est de 1 et s’en approche à mesure que ses éléments tendent vers l’infini — a été résolu grâce à une méthode produite par GPT-5.4 Pro
  • La solution est le résultat obtenu par Liam Price avec un seul prompt, puis publié sur erdosproblems.com ; elle a ensuite rapidement attiré l’attention après examen par Kevin Barreto et des experts
  • Cette preuve a suivi une voie différente de la première approche habituellement choisie par les chercheurs et se distingue par une combinaison inattendue de formules connues du domaine appliquées à ce problème
  • La preuve originale de ChatGPT était beaucoup trop brute pour être utilisée telle quelle ; des experts en ont extrait l’idée centrale, l’ont comprise, puis l’ont reformulée sous une forme plus courte et plus structurée
  • Le fait qu’une nouvelle approche par LLM ait fonctionné sur un problème que même des mathématiciens de premier plan n’avaient pas résolu pourrait changer la manière de voir la structure des grands nombres et de relier entre eux des problèmes similaires

Le problème et la méthode de résolution

  • Un primitive set désigne un ensemble d’entiers dans lequel aucun nombre n’est divisible par un autre élément de l’ensemble
    • Erdős a défini pour ces ensembles une somme d’Erdős, et pensait que ce score diminuait à mesure que les nombres de l’ensemble devenaient plus grands
    • La conjecture selon laquelle sa valeur minimale est exactement de 1, et qu’on s’en approche lorsque les éléments de l’ensemble tendent vers l’infini, était restée ouverte pendant longtemps
  • Cette solution est le résultat que Liam Price a obtenu en donnant un seul prompt à GPT-5.4 Pro, avant de le publier sur erdosproblems.com
    • Sans connaître l’historique du problème, Price essayait simplement de soumettre des problèmes d’Erdős à une IA lorsqu’il a obtenu une solution qui paraissait correcte
    • Il l’a ensuite examinée avec Kevin Barreto, puis les experts contactés s’y sont rapidement intéressés
  • Il y avait déjà eu des articles affirmant que l’IA avait résolu plusieurs Erdős problems, mais l’importance et la difficulté variaient fortement selon les cas, ce qui en faisait une mesure imparfaite du niveau mathématique ; de plus, certaines solutions étaient moins nouvelles qu’elles n’en avaient l’air
    • Ce résultat a été reçu différemment, car il porte sur un problème que même des mathématiciens renommés n’avaient pas réussi à résoudre, et parce qu’il utilise une méthode qui n’était pas employée pour ce type de problème

Pourquoi cette solution est jugée différemment

  • Les chercheurs adoptaient généralement des premières approches assez similaires pour ce problème, mais cette solution par LLM emprunte une voie entièrement différente
    • Elle mobilise des formules bien connues dans un domaine mathématique connexe, mais leur combinaison pour ce type de problème n’avait pas été envisagée
  • Terence Tao estime que le problème lui-même était peut-être plus facile qu’il n’y paraissait, et qu’il existait peut-être une sorte de blocage mental dans les approches initiales
  • Jared Lichtman a expliqué que la preuve originale de ChatGPT était, en l’état, très brute et qu’il avait fallu un travail d’expert pour identifier ce qu’elle cherchait à dire et en comprendre le sens
    • Aujourd’hui, Lichtman et Tao ont retravaillé la preuve pour la rendre plus courte, afin que l’intuition centrale du LLM apparaisse plus clairement
  • Cette avancée pourrait mener à une nouvelle manière de penser les grands nombres et leur structure
    • Il est encore trop tôt pour en mesurer l’importance à long terme, mais elle est déjà perçue comme une approche qui renforce l’intuition selon laquelle des problèmes similaires sont liés entre eux

1 commentaires

 
GN⁺ 4 일 전
Avis Hacker News
  • https://archive.ph/2w4fi

  • Paul Erdős était un mathématicien extrêmement célèbre et assez excentrique, qui a vécu pendant la majeure partie du XXe siècle
    Il avait l’habitude de repérer et consigner les problèmes auxquels les mathématicens s’attaquaient, avec une difficulté allant d’exercices de niveau licence actuels jusqu’à des problèmes dignes d’une médaille Fields
    Le point commun entre ces problèmes, c’est que l’un des esprits les plus brillants des 100 dernières années n’avait pas de réponse immédiate à leur donner
    De nos jours, on essaie de produire des démonstrations de ce genre de problèmes avec des LLM, en les utilisant comme une sorte de benchmark, et à chaque nouveau modèle quelques-uns de plus sont résolus

    • D’après les réactions des mathématiciens, cette preuve d’un problème d’Erdős semble être un jalon assez particulier
      Le problème avait déjà été examiné par plusieurs mathématiciens spécialistes, et la preuve obtenue serait surprenante, élégante, et montrerait même de nouveaux liens
      Les précédentes résolutions de problèmes d’Erdős par ChatGPT étaient en général moins impressionnantes, davantage proches de l’exploration bibliographique ou de la résolution de problèmes relativement faciles mais négligés
      En lisant le prompt, on se demande aussi si le fait d’encourager quelque chose de « non standard » n’a pas contribué au succès
      [1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
    • L’article parle ici d’un cas où un problème déjà ouvert a été résolu, donc on est évidemment dans une catégorie plus difficile
  • Le prompt réel était celui-ci
    Il demandait de ne pas faire de recherche sur Internet, et de produire une preuve ou une réfutation non triviale, nouvelle et créative, concernant un problème de number theory and primitive sets
    Il exigeait une preuve ou réfutation complète et unconditional, en réinsistant sur le fait qu’une telle affirmation pouvait nécessiter des éléments non banals et créatifs
    Et il y avait la mention Thought for 80m 17s
    https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c

    • En l’exécutant avec 5.5 Pro, Extended Thinking, il a répondu en 17 minutes,
      en affirmant que la bound proposée était correcte et que la constante 1 était sharp,
      puis en disant qu’il allait prouver w(a)= 1/alog(a) et uniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x))
      Il soutenait que c’était une conclusion plus forte que le 1+o(1) demandé
      https://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
    • Dans mon cas, avec Pro, cela a pris 20 minutes
      https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
      Cela dit, je n’ai pas assez de bagage en maths pour juger si la preuve est réellement correcte
    • J’ai essayé le même prompt avec le free plan, et le résultat était très en dessous
  • Les progrès scientifiques se produisent souvent quand on applique une technique X d’un domaine à un problème Y d’un autre domaine, et les LLM semblent meilleurs que les humains pour ce type de connexions interdomaines
    Parce qu’ils connaissent bien plus de théories et d’approches qu’une seule personne ne peut en maîtriser, et qu’ils n’ont pas à craindre d’avoir l’air idiots devant leurs collègues

    • C’est exactement comme ça que je conçois le reasoning
      La capacité à généraliser des connaissances et à les appliquer à d’autres domaines
    • Une grande partie du travail intellectuel relève en réalité davantage de l’intellectual labor, c’est-à-dire de la combinaison d’informations variées au même endroit
      Et sur ce terrain, les LLM sont bien meilleurs que les humains ; on a peut-être aussi eu tendance à classer à tort cela sous l’étiquette de créativité
    • En pratique, c’est aussi comme ça que je m’en sers
      Je ne dirais pas que j’ai obtenu des percées majeures, mais j’ai déjà eu plusieurs fois l’impression d’obtenir des intuitions qui pourraient valoir un livre blanc
      Le simple fait de tester des corrélations à travers plusieurs domaines est en soi une expérience LLM assez amusante
    • La civilisation a surtout avancé selon un mode left-brained/sequential/language based, et les ordinateurs comme l’IA en semblent être l’aboutissement
      Quand j’étais enfant, je lisais une page entière d’un seul coup, puis à un moment je suis passé à une lecture mot par mot et ligne par ligne, et ce mode s’est figé
      À une époque, à l’université, j’ai aussi connu une forme de perception plus profonde, plus large et moins linéaire dans mon domaine de spécialité en maths, sans trop savoir si c’était de l’entraînement du cerveau gauche ou davantage d’implication du cerveau droit
      Les LLM vont clairement nous dépasser dans ce type de pensée séquentielle, et je me demande donc si les humains devront pousser davantage le reste de right-brainness, ou si l’IA y arrivera elle aussi encore plus vite
    • Pour voir un exemple classique d’application de techniques d’un domaine à un autre, il suffit de regarder le Langlands project
  • L’IA est mon collaborateur étrange préféré

  • Certains problèmes d’Erdős deviennent presque triviaux une fois qu’on utilise des techniques sophistiquées développées plus tard
    L’un de mes professeurs avait cosigné un article avec Erdős, et il était très fier de pouvoir donner en quiz de licence un problème d’Erdős qui était resté ouvert pendant un temps

    • J’ajouterais une chose à ce sujet : ces problèmes ont déjà presque tous été passés dans des LLM
      Ce cas-ci ressemble donc à une preuve que les modèles sont réellement devenus plus puissants
      Les générations précédentes de LLM n’arrivaient pas à résoudre ce problème
    • D’après Tao, l’approche classique existante pour ce problème semble être une impasse, tout en étant tellement évidente que c’est la première chose que tout le monde essaie
      C’est aussi pour cela que ce résultat paraît plus encourageant
      Il ouvre une nouvelle piste d’approche qui mérite d’être évaluée sur des problèmes similaires
  • À ce stade, ce serait bien de créer un repo GitHub, d’y mettre en masse des problèmes ouverts de dry lab, et de construire un harness qui les exécute tous à chaque sortie d’un nouveau modèle

    • En fait, Terence Tao et d’autres mathématiciens maintiennent déjà un tel dépôt, et l’utilisent activement pour chercher des solutions avec des LLM
      [1] https://github.com/teorth/erdosproblems
    • C’est littéralement les problèmes d’Erdős eux-mêmes
      Cet article raconte justement que l’un d’entre eux a été résolu
  • En lisant la phrase disant que la preuve originale de ChatGPT était en fait assez mauvaise, et qu’il a fallu qu’un expert la filtre pour comprendre ce qu’elle essayait de dire, j’ai eu exactement le même sentiment que quand je lis des articles de maths

  • Si ce problème est un problème vieux de 60 ans, je me suis demandé s’il n’avait pas en réalité déjà été résolu indirectement, et que le modèle n’avait fait que retrouver la solution en croisant plusieurs informations
    En regardant le site, il y avait très peu de traces de discussions humaines antérieures, et les commentaires récents parlaient seulement du fait que GPT l’avait trouvé, ce qui renforçait cette impression
    Pour un problème vieux de 60 ans, je m’attendais à voir des discussions plus anciennes, donc je me demande ce qui m’échappe
    Cela reste malgré tout une excellente découverte, et il y a probablement d’autres problèmes similaires qui mériteraient d’être revérifiés avec GPT

  • Les humains, comme les machines qu’ils ont construites, résolvent en général les problèmes de manière cumulative
    On continue d’empiler sur les fondations existantes, ce qui fait qu’à force de ne pas vouloir réinventer la roue, on se retrouve facilement enfermé dans certaines façons de penser
    Donc même si un LLM naïf a proposé une approche que les spécialistes n’avaient pas tentée, ce n’est pas si surprenant
    Dans ce type de cas limité, les LLM peuvent être très utiles pour proposer une approche différente, sans même devoir être corrects : il suffit qu’ils avancent une alternative qui rebatte les cartes
    En revanche, je ne vois pas très bien quelle valeur pratique ce problème d’Erdős a en lui-même
    Si on demande si c’est la preuve que les LLM ne sont pas des gadgets inutiles, cela me fait penser à quelqu’un qui, en 1928, aurait demandé s’il fallait investir des millions de dollars dans la théorie des nombres
    À l’époque, la réponse aurait sans doute été non, et maintenant sortez de mon bureau