- En analysant 5 indicateurs réels pour mesurer les progrès de l’IA et en calculant le moment d’arrivée à la singularité jusqu’à la milliseconde près, on obtient le mardi 18 juillet 2034
- En ajustant indépendamment 5 indicateurs, dont le score MMLU, le nombre de tokens par dollar, l’intervalle entre les sorties des modèles frontier, le nombre d’articles arXiv contenant "emergent" et la part de code produite par Copilot, un seul présente réellement une courbure hyperbolique : le nombre d’articles arXiv contenant "emergent"
- Tous les indicateurs de capacités des machines suivent une tendance linéaire sans signal de singularité, et la seule chose qui accélère réellement est l’intérêt humain et l’excitation/l’anxiété autour des phénomènes émergents de l’IA
- Dès 2026, on observe déjà une singularité sociale qui précède la singularité technologique, avec licenciements massifs, retards institutionnels, concentration du capital, baisse de la confiance et recomposition politique
- L’essence de la singularité n’est pas le moment où les machines atteignent la superintelligence, mais celui où les humains perdent leur capacité de décision collective cohérente face aux machines
Données : 5 indicateurs des progrès de l’IA
- Utilisation de 5 indicateurs sélectionnés selon leur « importance anthropique (anthropic significance) » au sens grec du terme (sans rapport avec l’entreprise Anthropic)
- Score MMLU : un benchmark équivalent au SAT pour les modèles de langage, avec des données allant de GPT-3 (juin 2020, 43,9 %) à Claude Opus 4.5 (novembre 2025, 90,8 %)
- Nombre de tokens générés par dollar : mesure l’effondrement du coût de l’intelligence, avec transformation logarithmique, de GPT-3 davinci (16 667 tokens/$) à Gemini 2.0 Flash (2 500 000 tokens/$), soit un écart de 5 ordres de grandeur
- Intervalle entre les sorties de modèles frontier : réduction du temps entre les moments « choc », passant de GPT-3→ChatGPT (902 jours) à Gemini 2.5 Pro→GPT-4.1 (20 jours)
- Nombre d’articles arXiv contenant "emergent" : calculé sur 12 mois glissants, comme mesure mémétique de l’excitation académique
- Part de code produite par Copilot : proportion de code écrite par l’IA
- Chaque indicateur est normalisé sur [0,1] ; l’intervalle entre sorties est inversé (plus il est court, plus la valeur est élevée), les tokens/$ sont transformés en log puis normalisés, et chaque série conserve sa propre échelle
Pourquoi un modèle hyperbolique ?
- La fonction exponentielle f(t) = ae^(bt) utilisée dans la plupart des extrapolations sur l’IA n’atteint l’infini que lorsque t→∞, et ne peut donc pas représenter une singularité en temps fini
- La croissance polynomiale (t^n) ne peut pas non plus atteindre l’infini en temps fini
- La fonction hyperbolique x(t) = k/(t_s − t) + c diverge lorsque t→t_s, car le dénominateur devient nul, ce qui permet une explosion en temps fini
- La croissance hyperbolique apparaît lorsque la croissance accélère sa propre croissance : meilleure IA → meilleurs outils de recherche en IA → meilleure IA → boucle de rétroaction positive superlinéaire
Méthodologie d’ajustement
- Pour chaque indicateur j, on ajuste indépendamment une hyperbole y_i^(j) = k_j/(t_s − t_i) + c_j, avec un instant de singularité partagé t_s
- Chaque série possède sa propre échelle k_j et son propre offset c_j, ce qui permet à des indicateurs aux axes y différents, comme le score MMLU et les tokens par dollar, de s’accorder sur t_s
- En minimisant le RSS global, le meilleur t_s tend toujours vers l’infini : une hyperbole lointaine dégénère en droite et s’ajuste bien à des données bruitées
- À la place, une recherche en grille des pics de R² est effectuée indépendamment pour chaque série
- Si R² atteint un pic pour un t_s fini, cela indique un vrai signal hyperbolique
- Si R² continue d’augmenter quand t_s→∞, la série est en réalité linéaire et ne contient aucun signal de singularité
- Résultat : seul arXiv "emergent" présente un pic de R² net, les 4 autres sont mieux décrits par un modèle linéaire
La date obtenue
- Instant prédit de la singularité : mardi 18 juillet 2034 à 02:52:52.170 UTC
- n = 52 (5 séries), intervalle de confiance à 95 % : janvier 2030 à janvier 2041 (largeur de 132,4 mois)
- R² par série (avec t_s partagé) : MMLU 0,747, tokens/$ 0,020, intervalle entre sorties 0,291, arXiv "emergent" 0,926, part de code Copilot 1,000
- L’intervalle de confiance à 95 % est dérivé de la vraisemblance profilée (profile likelihood) sur t_s, selon un seuil critique F
Analyse de sensibilité
- Analyse Drop-One-Out : mesure du déplacement de t_s lorsqu’on retire un indicateur
- Retirer MMLU, tokens/$, l’intervalle entre sorties ou la part de code Copilot ne change en rien t_s (+0,0 mois)
- Retirer arXiv "emergent" déplace t_s à février 2036, soit 18,6 mois plus loin (repoussé vers la borne de recherche)
- Conclusion : tout le travail est fait par arXiv, les autres séries ne fournissant qu’une courbe de contexte autour du t_s partagé
- Copilot n’a que 2 points de données pour 2 paramètres, donc 0 degré de liberté ; il s’ajuste parfaitement à n’importe quelle hyperbole et n’influence pas t_s
Ce que signifie réellement t_s
- Dire que le nombre d’articles arXiv va vers l’infini ne signifie pas qu’un nombre infini d’articles sera publié ce mardi de 2034
- t_s marque le point où la courbure de la trajectoire actuelle ne peut plus être maintenue, c’est-à-dire un marqueur de transition de phase où l’on soit bascule vers quelque chose de qualitativement nouveau, soit démontre que l’hyperbole était fausse par saturation
- Le fait réellement dérangeant est que le seul indicateur qui suit une hyperbole est l’intérêt humain, pas les capacités des machines
- Les vrais indicateurs de capacités et d’infrastructure — MMLU, tokens/$, intervalle entre sorties — sont tous linéaires et sans point extrême
- La seule courbe qui pointe vers une date finie est la fréquence à laquelle les chercheurs découvrent et nomment de nouveaux comportements, autrement dit « l’excitation académique mesurée de façon mémétique »
- Conclusion des données : les machines progressent à un rythme constant, tandis que les humains s’emballent et s’accélèrent à leur sujet à un rythme croissant
Singularité sociale : un phénomène déjà en cours
- Si t_s est le moment où la vitesse des surprises liées à l’IA dépasse la capacité humaine à les absorber, la vraie question intéressante est ce qui arrive aux humains, pas aux machines
- Bouleversement du marché du travail : en 2025, 1,1 million de licenciements annoncés (6e fois depuis 1993 que ce seuil est franchi), dont plus de 55 000 mentionnant explicitement l’IA comme cause
- Constat de HBR : les entreprises réduisent leurs effectifs sur la base non pas des performances de l’IA, mais de son potentiel
- La courbe n’a même pas besoin d’atteindre son point extrême : il suffit qu’elle en donne l’impression pour provoquer des restructurations préventives
- Échec de la réponse institutionnelle : les règles « haut risque » de l’AI Act européen sont repoussées à 2027 ; aux États-Unis, le décret IA de 2023 est abrogé en janvier 2025, puis remplacé en décembre par un nouvel ordre visant à préempter les lois des États, tandis que California et Colorado suivent leur propre trajectoire
- Les lois rédigées aujourd’hui régulent les problèmes de 2023, et au moment où elles rattraperont GPT-4, on sera déjà à GPT-7
- L’incapacité visible des gouvernements n’érode pas simplement la confiance : elle la fait s’effondrer, avec une confiance mondiale dans l’IA tombée à 56 %
- Concentration du capital de niveau dot-com : les 10 plus grosses valeurs du S&P 500 (principalement liées à l’IA) atteignent 40,7 % de l’indice en 2025, au-delà du pic de la bulle internet
- Depuis la sortie de ChatGPT, les actions liées à l’IA représentent 75 % des gains du S&P 500, 80 % de la croissance des bénéfices et 90 % de la croissance des dépenses d’investissement
- Le Shiller CAPE est à 39,4, un niveau observé pour la dernière fois en 1999
- Impact psychologique : les thérapeutes signalent une flambée du FOBO (Fear of Becoming Obsolete), avec des patients disant que « l’univers leur dit qu’ils ne sont plus nécessaires »
- 60 % des travailleurs américains s’attendent à ce que l’IA supprime plus d’emplois qu’elle n’en crée
- L’usage de l’IA augmente de 13 % sur un an, tandis que la confiance dans l’IA baisse de 18 % : plus on l’utilise, moins on lui fait confiance
- Fracture épistémique : moins d’un tiers de la recherche en IA est reproductible, moins de 5 % des chercheurs partagent leur code, et les laboratoires d’entreprise publient moins
- L’écart entre ce que savent les laboratoires frontier et ce que sait le public se creuse, tandis que les décideurs politiques opèrent avec des informations déjà obsolètes
- Les experts auditionnés devant le Congrès se contredisent, car le domaine évolue plus vite que l’expertise n’a le temps de se former
- Recomposition politique : TIME parle d’un retour de bâton populiste contre l’IA, Foreign Affairs estime que « l’économie de la colère renforcera le populisme », et HuffPost écrit que l’IA définira les élections de mi-mandat de 2026
- MAGA se divise sur la question de savoir si l’IA est pro-entreprises ou anti-travail, tandis que Sanders propose un moratoire sur les data centers
- L’axe gauche-droite traditionnel est en train de s’effondrer sous le poids de cette question
- Tout cela se produit 8 ans avant t_s : la singularité sociale précède la singularité technologique, et le chaos institutionnel et psychologique commence non pas quand les capacités montent à la verticale, mais dès que cette trajectoire est perçue
Réserves (Caveats)
- La date provient d’une seule série : seul arXiv "emergent" présente une véritable courbure hyperbolique, les 4 autres étant mieux décrites par des droites
- Le sens concret de cette date est donc « le moment où la recherche sur l’émergence en IA s’emballe à la verticale », et la vraie question est de savoir si l’excitation académique est un indicateur avancé ou retardé
- Le modèle suppose la stationnarité : la courbe finira forcément par s’infléchir vers une logistique (saturation du battage médiatique) ou vers une forme que le modèle ne peut pas représenter (vraie transition de phase) ; t_s est le point où le régime actuel devient insoutenable, pas une prévision de l’après
- Effet plafond du MMLU : artefact de compression lié à la saturation du benchmark, ce que reflète son faible R²
- Les tokens/$ sont transformés en log et non monotones : GPT-4 était plus cher que 3.5, et Opus 4.5 coûte plus que DeepSeek-R1 ; la courbe des coûts n’est pas lisse et mélange avancées de Pareto et modèles coûteux
- Cinq indicateurs, ce n’est pas suffisant : ajouter SWE-bench, ARC, GPQA, les achats de compute ou les salaires des talents pourrait réduire la dépendance à arXiv ; si cinq ont été retenus, c’est parce qu’ils tenaient sur la table
- Copilot n’a que 2 points de données : avec 0 degré de liberté, il ne contribue pas à t_s
Conclusion
- Les données réelles et le modèle mathématique produisent un moment de singularité clair et unique
- Mais cette singularité ne désigne pas une superintelligence machinique : elle renvoie à l’effondrement de l’attention de la société humaine
- Ce que les maths ont trouvé, c’est un indicateur qui trace une courbe vers un point extrême à une milliseconde précise : la vitesse à laquelle les humains découvrent des comportements émergents de l’IA
- Les 4 autres indicateurs sont linéaires : les machines s’améliorent régulièrement, et ce qui accélère, ce sont les humains
- Dans le travail, les institutions, le capital, la connaissance et la politique, une singularité sociale est déjà en cours
- Avant toute singularité technologique, c’est d’abord une limite collective de la capacité humaine à absorber la vitesse du changement lié à l’IA qui sera atteinte
- La singularité que révèlent les données est une singularité de l’attention humaine, qui exerce déjà sa gravité sur tout ce qu’elle touche
- L’humanité est déjà entrée dans le compte à rebours
Aucun commentaire pour le moment.