18 points par GN⁺ 2026-02-11 | 3 commentaires | Partager sur WhatsApp
  • En analysant 5 indicateurs réels pour mesurer les progrès de l’IA et en calculant le moment d’arrivée à la singularité jusqu’à la milliseconde près, on obtient le mardi 18 juillet 2034
  • En ajustant indépendamment 5 indicateurs, dont le score MMLU, le nombre de tokens par dollar, l’intervalle entre les sorties des modèles frontier, le nombre d’articles arXiv contenant "emergent" et la part de code produite par Copilot, un seul présente réellement une courbure hyperbolique : le nombre d’articles arXiv contenant "emergent"
  • Tous les indicateurs de capacités des machines suivent une tendance linéaire sans signal de singularité, et la seule chose qui accélère réellement est l’intérêt humain et l’excitation/l’anxiété autour des phénomènes émergents de l’IA
  • Dès 2026, on observe déjà une singularité sociale qui précède la singularité technologique, avec licenciements massifs, retards institutionnels, concentration du capital, baisse de la confiance et recomposition politique
  • L’essence de la singularité n’est pas le moment où les machines atteignent la superintelligence, mais celui où les humains perdent leur capacité de décision collective cohérente face aux machines

Données : 5 indicateurs des progrès de l’IA

  • Utilisation de 5 indicateurs sélectionnés selon leur « importance anthropique (anthropic significance) » au sens grec du terme (sans rapport avec l’entreprise Anthropic)
  • Score MMLU : un benchmark équivalent au SAT pour les modèles de langage, avec des données allant de GPT-3 (juin 2020, 43,9 %) à Claude Opus 4.5 (novembre 2025, 90,8 %)
  • Nombre de tokens générés par dollar : mesure l’effondrement du coût de l’intelligence, avec transformation logarithmique, de GPT-3 davinci (16 667 tokens/$) à Gemini 2.0 Flash (2 500 000 tokens/$), soit un écart de 5 ordres de grandeur
  • Intervalle entre les sorties de modèles frontier : réduction du temps entre les moments « choc », passant de GPT-3→ChatGPT (902 jours) à Gemini 2.5 Pro→GPT-4.1 (20 jours)
  • Nombre d’articles arXiv contenant "emergent" : calculé sur 12 mois glissants, comme mesure mémétique de l’excitation académique
  • Part de code produite par Copilot : proportion de code écrite par l’IA
  • Chaque indicateur est normalisé sur [0,1] ; l’intervalle entre sorties est inversé (plus il est court, plus la valeur est élevée), les tokens/$ sont transformés en log puis normalisés, et chaque série conserve sa propre échelle

Pourquoi un modèle hyperbolique ?

  • La fonction exponentielle f(t) = ae^(bt) utilisée dans la plupart des extrapolations sur l’IA n’atteint l’infini que lorsque t→∞, et ne peut donc pas représenter une singularité en temps fini
  • La croissance polynomiale (t^n) ne peut pas non plus atteindre l’infini en temps fini
  • La fonction hyperbolique x(t) = k/(t_s − t) + c diverge lorsque t→t_s, car le dénominateur devient nul, ce qui permet une explosion en temps fini
  • La croissance hyperbolique apparaît lorsque la croissance accélère sa propre croissance : meilleure IA → meilleurs outils de recherche en IA → meilleure IA → boucle de rétroaction positive superlinéaire

Méthodologie d’ajustement

  • Pour chaque indicateur j, on ajuste indépendamment une hyperbole y_i^(j) = k_j/(t_s − t_i) + c_j, avec un instant de singularité partagé t_s
  • Chaque série possède sa propre échelle k_j et son propre offset c_j, ce qui permet à des indicateurs aux axes y différents, comme le score MMLU et les tokens par dollar, de s’accorder sur t_s
  • En minimisant le RSS global, le meilleur t_s tend toujours vers l’infini : une hyperbole lointaine dégénère en droite et s’ajuste bien à des données bruitées
  • À la place, une recherche en grille des pics de R² est effectuée indépendamment pour chaque série
    • Si R² atteint un pic pour un t_s fini, cela indique un vrai signal hyperbolique
    • Si R² continue d’augmenter quand t_s→∞, la série est en réalité linéaire et ne contient aucun signal de singularité
  • Résultat : seul arXiv "emergent" présente un pic de R² net, les 4 autres sont mieux décrits par un modèle linéaire

La date obtenue

  • Instant prédit de la singularité : mardi 18 juillet 2034 à 02:52:52.170 UTC
  • n = 52 (5 séries), intervalle de confiance à 95 % : janvier 2030 à janvier 2041 (largeur de 132,4 mois)
  • R² par série (avec t_s partagé) : MMLU 0,747, tokens/$ 0,020, intervalle entre sorties 0,291, arXiv "emergent" 0,926, part de code Copilot 1,000
  • L’intervalle de confiance à 95 % est dérivé de la vraisemblance profilée (profile likelihood) sur t_s, selon un seuil critique F

Analyse de sensibilité

  • Analyse Drop-One-Out : mesure du déplacement de t_s lorsqu’on retire un indicateur
  • Retirer MMLU, tokens/$, l’intervalle entre sorties ou la part de code Copilot ne change en rien t_s (+0,0 mois)
  • Retirer arXiv "emergent" déplace t_s à février 2036, soit 18,6 mois plus loin (repoussé vers la borne de recherche)
  • Conclusion : tout le travail est fait par arXiv, les autres séries ne fournissant qu’une courbe de contexte autour du t_s partagé
  • Copilot n’a que 2 points de données pour 2 paramètres, donc 0 degré de liberté ; il s’ajuste parfaitement à n’importe quelle hyperbole et n’influence pas t_s

Ce que signifie réellement t_s

  • Dire que le nombre d’articles arXiv va vers l’infini ne signifie pas qu’un nombre infini d’articles sera publié ce mardi de 2034
  • t_s marque le point où la courbure de la trajectoire actuelle ne peut plus être maintenue, c’est-à-dire un marqueur de transition de phase où l’on soit bascule vers quelque chose de qualitativement nouveau, soit démontre que l’hyperbole était fausse par saturation
  • Le fait réellement dérangeant est que le seul indicateur qui suit une hyperbole est l’intérêt humain, pas les capacités des machines
  • Les vrais indicateurs de capacités et d’infrastructure — MMLU, tokens/$, intervalle entre sorties — sont tous linéaires et sans point extrême
  • La seule courbe qui pointe vers une date finie est la fréquence à laquelle les chercheurs découvrent et nomment de nouveaux comportements, autrement dit « l’excitation académique mesurée de façon mémétique »
  • Conclusion des données : les machines progressent à un rythme constant, tandis que les humains s’emballent et s’accélèrent à leur sujet à un rythme croissant

Singularité sociale : un phénomène déjà en cours

  • Si t_s est le moment où la vitesse des surprises liées à l’IA dépasse la capacité humaine à les absorber, la vraie question intéressante est ce qui arrive aux humains, pas aux machines
  • Bouleversement du marché du travail : en 2025, 1,1 million de licenciements annoncés (6e fois depuis 1993 que ce seuil est franchi), dont plus de 55 000 mentionnant explicitement l’IA comme cause
    • Constat de HBR : les entreprises réduisent leurs effectifs sur la base non pas des performances de l’IA, mais de son potentiel
    • La courbe n’a même pas besoin d’atteindre son point extrême : il suffit qu’elle en donne l’impression pour provoquer des restructurations préventives
  • Échec de la réponse institutionnelle : les règles « haut risque » de l’AI Act européen sont repoussées à 2027 ; aux États-Unis, le décret IA de 2023 est abrogé en janvier 2025, puis remplacé en décembre par un nouvel ordre visant à préempter les lois des États, tandis que California et Colorado suivent leur propre trajectoire
    • Les lois rédigées aujourd’hui régulent les problèmes de 2023, et au moment où elles rattraperont GPT-4, on sera déjà à GPT-7
    • L’incapacité visible des gouvernements n’érode pas simplement la confiance : elle la fait s’effondrer, avec une confiance mondiale dans l’IA tombée à 56 %
  • Concentration du capital de niveau dot-com : les 10 plus grosses valeurs du S&P 500 (principalement liées à l’IA) atteignent 40,7 % de l’indice en 2025, au-delà du pic de la bulle internet
    • Depuis la sortie de ChatGPT, les actions liées à l’IA représentent 75 % des gains du S&P 500, 80 % de la croissance des bénéfices et 90 % de la croissance des dépenses d’investissement
    • Le Shiller CAPE est à 39,4, un niveau observé pour la dernière fois en 1999
  • Impact psychologique : les thérapeutes signalent une flambée du FOBO (Fear of Becoming Obsolete), avec des patients disant que « l’univers leur dit qu’ils ne sont plus nécessaires »
    • 60 % des travailleurs américains s’attendent à ce que l’IA supprime plus d’emplois qu’elle n’en crée
    • L’usage de l’IA augmente de 13 % sur un an, tandis que la confiance dans l’IA baisse de 18 % : plus on l’utilise, moins on lui fait confiance
  • Fracture épistémique : moins d’un tiers de la recherche en IA est reproductible, moins de 5 % des chercheurs partagent leur code, et les laboratoires d’entreprise publient moins
    • L’écart entre ce que savent les laboratoires frontier et ce que sait le public se creuse, tandis que les décideurs politiques opèrent avec des informations déjà obsolètes
    • Les experts auditionnés devant le Congrès se contredisent, car le domaine évolue plus vite que l’expertise n’a le temps de se former
  • Recomposition politique : TIME parle d’un retour de bâton populiste contre l’IA, Foreign Affairs estime que « l’économie de la colère renforcera le populisme », et HuffPost écrit que l’IA définira les élections de mi-mandat de 2026
    • MAGA se divise sur la question de savoir si l’IA est pro-entreprises ou anti-travail, tandis que Sanders propose un moratoire sur les data centers
    • L’axe gauche-droite traditionnel est en train de s’effondrer sous le poids de cette question
  • Tout cela se produit 8 ans avant t_s : la singularité sociale précède la singularité technologique, et le chaos institutionnel et psychologique commence non pas quand les capacités montent à la verticale, mais dès que cette trajectoire est perçue

Réserves (Caveats)

  • La date provient d’une seule série : seul arXiv "emergent" présente une véritable courbure hyperbolique, les 4 autres étant mieux décrites par des droites
    • Le sens concret de cette date est donc « le moment où la recherche sur l’émergence en IA s’emballe à la verticale », et la vraie question est de savoir si l’excitation académique est un indicateur avancé ou retardé
  • Le modèle suppose la stationnarité : la courbe finira forcément par s’infléchir vers une logistique (saturation du battage médiatique) ou vers une forme que le modèle ne peut pas représenter (vraie transition de phase) ; t_s est le point où le régime actuel devient insoutenable, pas une prévision de l’après
  • Effet plafond du MMLU : artefact de compression lié à la saturation du benchmark, ce que reflète son faible R²
  • Les tokens/$ sont transformés en log et non monotones : GPT-4 était plus cher que 3.5, et Opus 4.5 coûte plus que DeepSeek-R1 ; la courbe des coûts n’est pas lisse et mélange avancées de Pareto et modèles coûteux
  • Cinq indicateurs, ce n’est pas suffisant : ajouter SWE-bench, ARC, GPQA, les achats de compute ou les salaires des talents pourrait réduire la dépendance à arXiv ; si cinq ont été retenus, c’est parce qu’ils tenaient sur la table
  • Copilot n’a que 2 points de données : avec 0 degré de liberté, il ne contribue pas à t_s

Conclusion

  • Les données réelles et le modèle mathématique produisent un moment de singularité clair et unique
    • Mais cette singularité ne désigne pas une superintelligence machinique : elle renvoie à l’effondrement de l’attention de la société humaine
  • Ce que les maths ont trouvé, c’est un indicateur qui trace une courbe vers un point extrême à une milliseconde précise : la vitesse à laquelle les humains découvrent des comportements émergents de l’IA
    • Les 4 autres indicateurs sont linéaires : les machines s’améliorent régulièrement, et ce qui accélère, ce sont les humains
  • Dans le travail, les institutions, le capital, la connaissance et la politique, une singularité sociale est déjà en cours
  • Avant toute singularité technologique, c’est d’abord une limite collective de la capacité humaine à absorber la vitesse du changement lié à l’IA qui sera atteinte
  • La singularité que révèlent les données est une singularité de l’attention humaine, qui exerce déjà sa gravité sur tout ce qu’elle touche
    • L’humanité est déjà entrée dans le compte à rebours

3 commentaires

 
mammal 2026-02-11

Ce qui est amusant, c’est que les grandes annonces, comme les nouveaux modèles d’OpenAI, Google ou Anthropic, tombent généralement le mardi ou le jeudi.

Comme elles sont publiées vers 2 h ou 3 h du matin le mercredi et le vendredi, heure de Corée (soit vers 10 h du matin en Californie), si vous ne dormez pas la nuit, pensez à jeter un œil aux actualités à ce moment-là.

 
GN⁺ 2026-02-11
Commentaires sur Hacker News
  • J’ai trouvé cet article vraiment intéressant. L’auteur passe beaucoup de temps à expliquer son modèle et sa méthodologie, puis finit par arriver au point essentiel — plus que de savoir si la singularité arrivera réellement, la vraie question est de savoir combien de personnes y croient et agissent en conséquence
    Du coup, j’ai déplacé l’attention du débat technique vers le débat social. L’idée selon laquelle « chercher à remplacer le travail humain sans changer une société structurée autour de la dépendance au salariat pour survivre est une très mauvaise chose » suscite bien plus d’adhésion

    • Cela m’a rappelé un concept que j’aime beaucoup, celui d’« epistemic takeover » (prise de contrôle épistémique).
      Sa forme simple consiste à « faire croire à tout le monde qu’on a déjà gagné », sa forme sophistiquée consiste à « faire croire à chacun que tous les autres le croient aussi ». Au final, les gens finissent par agir conformément à cette croyance
    • Je pense qu’expliquer « comment les LLM fonctionnent réellement » ressemble un peu à dire : « les humains ne sont qu’un ensemble de molécules et de neurones, donc cela n’a pas de sens ».
      Les LLM ne sont que des moteurs de prédiction statistique, mais il est possible que, dans ce processus, apparaisse un emergent behavior, autrement dit un comportement intelligent. On ne peut pas encore l’affirmer avec certitude
    • Beaucoup de gens s’opposent aussi à l’argument selon lequel « il est mauvais que le remplacement du travail arrive avant la réforme sociale ». Le problème, c’est qu’eux n’en paient pas le prix ; ils reçoivent des stock-options à la place
    • Je ne suis pas d’accord avec l’idée que « peu importe que la singularité se produise réellement ».
      Si la singularité n’arrive pas, alors les croyances des gens comptent énormément ; mais si elle arrive vraiment, alors ces croyances deviennent presque insignifiantes
    • Ce genre de discussions existait déjà dans les années 1980. L’industrie technologique devrait encourager les gens qui s’intéressent aux capacités réelles et à leurs nuances, et écarter les adeptes de développement personnel qui prétendent qu’on peut réussir « même sans produit »
  • En citant un passage de Dune de Frank Herbert, quelqu’un affirme qu’en confiant la pensée aux machines, d’autres humains en sont venus à dominer l’humanité au moyen des machines
    Il prévient qu’on finira par ne plus lire, ne plus écrire, ne plus penser. Si les LLM font tout à notre place, cela conduira à la fin de l’humanité
    Il mentionne aussi le projet Poison Fountain, présenté comme une arme anti-IA qui injecte chaque jour des « données toxiques » dans les crawlers du web. Il encourage à y participer

    • Les LLM n’ont pas cet effet sur moi. Au contraire, je les utilise utilement comme un outil de recherche renforcé
    • Face à la dystopie de Herbert, j’imagine une utopie à la Iain Banks
    • Il ne faut pas prendre les propos d’un auteur de SF pour des prophéties. Herbert a simplement créé un dispositif pour expliquer, dans son univers, pourquoi la singularité ne s’y était pas produite
    • « La fin de l’humanité » a été annoncée de nombreuses fois, mais l’humanité a toujours changé et survécu. Quand on résout un problème, un nouveau problème apparaît simplement
  • Quelqu’un présente la nouvelle de 1965 de R.A. Lafferty, « Slow Tuesday Night ».
    C’est une œuvre de SF de 2 600 mots sur une société ultra-rapide, où une journée entière passe en quelques minutes

    • On y voit un philosophe terminer un traité de philosophie en seulement sept minutes, ce qui ressemble presque à de l’ajustement de prompt pour LLM. Le mélange des mots et l’ajout d’une « signature de personnalité » rappellent l’écriture par IA d’aujourd’hui
  • Quelqu’un cite avec admiration cette phrase : « La singularité n’est pas le moment où les machines deviennent superintelligentes, mais le moment où les humains ne sont plus capables de prendre des décisions collectives cohérentes au sujet des machines »

    • J’ai l’impression que nous avons déjà largement dépassé ce point
    • En plus, l’attitude des entreprises Big Tech, qui cherchent à aller plus vite que la bureaucratie tout en contournant la régulation, aggrave la situation
  • Le contenu de l’article était intéressant. En 2025, 1,1 million de licenciements ont été annoncés, et parmi eux 55 000 invoquaient l’IA comme motif. Mais il s’agissait de licenciements fondés non sur les performances réelles de l’IA, mais sur son “potentiel”
    Au fond, l’IA n’a fait que révéler ce que nous savions déjà : il existe trop d’emplois de bureau dénués de sens

    • Depuis 1993, on a connu six vagues de licenciements de cette ampleur en 32 ans. Autrement dit, une tous les cinq ans environ, donc rien de si historique
    • Ce n’est qu’une prolongation du « next quarter problem », c’est-à-dire l’obsession des résultats à court terme. Les entreprises en situation de monopole peuvent réduire leurs effectifs de moitié sans perdre leurs clients
    • Si les postes de management intermédiaire ont proliféré, c’est aussi parce que d’autres emplois ont disparu. Pour ne pas mourir de faim, les gens acceptent même des postes bureaucratiques absurdes
    • On pensait que le DevOps ferait disparaître les DBA et les SysAdmin, mais il a au contraire créé une nouvelle industrie. Les « emplois sans sens » existent toujours
    • Si les postes administratifs ont triplé depuis les années 1960, c’est aussi parce que la population a triplé. On ne peut donc pas conclure si simplement qu’ils sont dénués de sens
  • Quelqu’un présente une équation différentielle comme modèle simplifié de « l’explosion d’intelligence »
    `dx/dt = x²` a pour solution `x = 1/(C - t)`, ce qui est plus brutal qu’une croissance exponentielle dont le taux de croissance est proportionnel à x.
    Mais si l’on tient compte des contraintes réelles (électricité, ressources, etc.), cela finit par converger vers une forme qui ressemble à une croissance logistique

    • À cause du cône de lumière (light cone), une croissance à grande échelle ne peut pas aller plus vite que x³, et en pratique x² semble déjà être une limite
    • Quelqu’un réagit sur le ton de la plaisanterie : « Oser introduire de la logique et du réel dans un débat sur la singularité ! »
  • Quelqu’un rappelle que tout cela existe grâce aux jeux vidéo. Sans les progrès du matériel GPU, il n’y aurait probablement pas eu de LLM
    En réalité, l’IA est le résultat d’une accumulation technologique sur plusieurs décennies — puces, internet, open source, cloud, datacenters, mathématiques et physique : tout cela a constitué une marche inévitable vers la singularité

    • Mais certains restent sceptiques : « même sans NVIDIA, une autre industrie aurait bien fini par développer du matériel pour les opérations d’algèbre linéaire »
    • Un autre balaie tout cela d’un « pur non-sens »
  • « Tant mieux, on est tranquilles jusqu’en 2034 », dit quelqu’un avec un soulagement teinté d’ironie

  • Quelqu’un se demande pourquoi on ne parle plus de la singularité à travers le concept de doublement des connaissances (knowledge doubling)
    En mentionnant la « Knowledge Doubling Curve » de Buckminster Fuller et la « Law of Accelerating Returns » de Ray Kurzweil,
    il fait remarquer qu’autrefois les connaissances humaines doublaient une fois tous les 100 ans, puis tous les 25 ans, et demande si le moment où cette vitesse converge vers l’infini ne devrait pas être considéré comme la singularité

  • Quelqu’un se réjouit de ne pas avoir à subir le problème du timestamp Unix de 2038

    • Il imagine une courte fiction apocalyptique dans laquelle, le 20 janvier 2038, des essaims de drones tombent du ciel tandis que l’humanité survit
    • En réalité, ce désir de fin du monde est peut-être une force psychologique qui pousse vers l’apocalypse
    • Quelqu’un plaisante en disant qu’au moins, on n’aura pas à maintenir les logiciels vibecodés des années 2020
    • Un autre se souvient avoir acheté un t-shirt « Y2038 » en 1998. À l’époque, cela semblait appartenir à un futur lointain, et pourtant il ne reste déjà plus que 12 ans
    • « Ouf, les machines s’en occuperont bien toutes seules », conclut quelqu’un avec un sentiment de soulagement
 
pencil6962 2026-02-11

Même avec une prévision optimiste, il reste encore 8 ans : on aura beaucoup de temps et beaucoup de choses à faire. On ne peut pas vivre sans rien faire pendant tout le temps qu’il faut à un nouveau-né pour devenir élève de primaire.