Ce n’est pas vraiment une idée nouvelle à ce stade, mais cela me semble être une bonne approche dans la mesure où elle peut être mise en œuvre sans casser les signatures d’interface ni le workflow.

 

Plus précisément, on dirait que ce commentaire a été posté parce que les raisons pour lesquelles OpenAI, à l’époque où Amodei y était, a gardé GPT-2 privé ressemblent à celles invoquées pour ne pas rendre public le modèle Mischief. L’Amodei de l’époque et l’Amodei d’aujourd’hui n’ont pas changé...

 

La plupart sont censés être récupérés, mais celui-ci a été traité en étant étrangement omis. Je vais le corriger pour qu’on n’y touche pas.

 

Ce n’est pas tant que l’équipe en charge de l’AX soit mauvaise...
J’ai plutôt l’impression que le problème, c’est de créer une équipe AX puis de lui dire : « Vous êtes l’équipe AX, alors dépêchez-vous d’automatiser avec l’IA. »...
Le mieux serait sans doute que les opérationnels métier pilotent l’initiative, avec le soutien de spécialistes AX, pour introduire l’IA.

 

À titre de référence, si vous regardez le contenu du billet qui mentionne GPT-2 ou l’année de rédaction du texte original, 2019, vous verrez qu’il y a l’idée que, concernant la décision récente d’Anthropic de ne pas publier le modèle Misos au motif qu’il serait trop dangereux, OpenAI aussi avait déjà fait beaucoup de bruit autour de GPT-2 à l’époque.

Dans le cas de HN, il semble qu’il y ait l’usage d’ajouter l’année pour les anciens billets (je ne sais pas si c’est ajouté automatiquement), et je me dis que ce serait bien si GeekNews l’affichait aussi.

 

Sam Altman s’identifie à Oppenheimer, peut-être ? Si c’est dangereux, il vaudrait mieux le rendre public après l’avoir sécurisé correctement ; je trouve qu’encourager son utilisation n’est pas très cohérent. Je pense que c’est pareil pour le cas d’Anthropic Mythos.

 

J’ai trouvé ce qu’Anthropic disait crédible, mais pourquoi ce qu’OpenAI dit m’inspire-t-il si peu confiance ?
Est-ce parce qu’Anthropic a fait du show-and-proof en créant un patch zero-day ?
Ou parce qu’OpenAI a déjà ressorti ce répertoire plusieurs fois ?

 

Je pense que les pilotes Windows, c’est autre chose.

 

Chaque fois que je vois ce genre de chose, je me dis que la vérification des signatures ne doit pas être faite par la plateforme, mais par l’utilisateur. Le développeur signe avec sa propre clé, et l’utilisateur doit autoriser sur son appareil la clé d’un développeur digne de confiance pour l’utiliser.

Ne pas le savoir et demander qu’on s’en charge à sa place n’a aucun sens. Que l’on s’intéresse ou non à l’informatique, si c’est quelque chose qu’on utilise soi-même, c’est une habitude qu’il faut absolument avoir.
Si vous utilisez un téléphone portable et naviguez sur Internet, il ne faut jamais croire aveuglément ce qu’une page web, un message ou un appel téléphonique vous dit, et il faut avoir la capacité de faire le tri : c’est une consigne de base de ce niveau-là.

Avec une interface du type UAC de Windows, où l’on peut vérifier d’un simple bouton si l’on fait confiance à un développeur donné, même des personnes qui ne connaissent pas les notions de signature de code et de clé pourraient probablement l’utiliser.

 

C’est vraiment très bien résumé. Merci.

 

Des projets à moitié finis prolifèrent…
Et ceux qui ne comprennent la programmation qu’à moitié s’enthousiasment…

 

On nous a demandé en interne d’essayer de développer uniquement avec le vibe coding, donc j’ai testé plusieurs approches. Mais une fois lancé, je me suis rendu compte qu’avoir d’excellentes compétences en développement ne garantit pas forcément une qualité élevée..
J’ai plutôt l’impression que l’essentiel, c’est la capacité à relire et à comprendre le code généré par l’IA. Plus les outils s’améliorent, plus cette ironie devient frappante : la capacité à « lire et juger » devient encore plus importante.

 
  • À l’ère de l’IA, l’ARR pourrait ne plus être un indicateur partagé aussi fiable qu’auparavant
  • Les indicateurs phares de l’industrie tech ont changé selon les époques
    • Ère sociale : DAU/MAU
    • Ère SaaS : ARR/MRR
    • Ère IA : remise en cause de l’idée que l’ARR traditionnel peut de plus en plus déformer la réalité
  • Le point de départ de l’article est l’incohérence des chiffres d’Anthropic
    • En février 2026, l’entreprise mettait en avant un ARR de 14 milliards de dollars
    • Un mois plus tard, dans un document déposé au tribunal, il était indiqué « plus de 5 milliards de dollars de chiffre d’affaires cumulé depuis la création »
    • Pour une même entreprise, à une période proche, la signification de ces chiffres diffère fortement
    • L’auteur y voit « un signal que, à l’ère de l’IA, l’ARR n’explique plus correctement l’état réel de l’activité »
  • Trois raisons expliquent pourquoi l’ARR vacille dans l’IA
    1. L’hypothèse SaaS d’un coût marginal quasi nul ne tient plus
      • Dans l’IA, chaque appel d’inférence entraîne un coût réel en GPU/cloud
      • Plus l’usage augmente, plus les coûts augmentent aussi
    2. L’écart de coût par client est très important
      • À tarif identique, certains clients coûtent peu et d’autres très cher
      • Vu seulement via l’ARR, les deux ressemblent à du « bon revenu », alors que la rentabilité réelle est très différente
    3. La stabilité du revenu récurrent est plus faible
      • Les coûts de changement sont plus bas que dans le SaaS, donc il est plus facile de passer à un autre modèle ou service
      • Le caractère même de « recurring » est moins solide qu’auparavant
  • Ainsi, l’ARR des entreprises d’IA peut montrer la « croissance », mais bien moins la rentabilité, la durabilité et la qualité du business
    • Selon l’auteur, la structure ressemble à celle de l’époque où le DAU/MAU montrait l’intérêt des utilisateurs sans vraiment refléter la santé de l’activité
  • Les cas d’Anthropic et d’OpenAI illustreraient aussi ce problème
    • Il existe des écarts entre l’ARR annoncé et le chiffre d’affaires cumulé réel, les résultats semestriels ou le rythme de consommation de trésorerie
    • Autrement dit, il peut y avoir malentendu si des chiffres « annualisés » sont lus comme l’équivalent d’une performance annuelle réelle
  • Les indicateurs candidats de nouvelle génération pour l’ère de l’IA proposés par l’auteur
    1. Productivité par dollar dépensé (Productivity per Dollar Spent)
      • Il ne suffit pas de regarder ARR/effectif
      • Il faut plutôt observer quelque chose comme ARR / (masse salariale + coûts IA) pour faire apparaître l’efficacité réelle
    2. Valeur de première année (First Year Value)
      • Plutôt que de supposer un futur lointain comme avec la LTV
      • l’idée est de voir si le client a obtenu suffisamment de valeur au cours des 12 premiers mois pour renouveler
    3. Des indicateurs centrés sur les unit economics, comme la marge brute par token
      • Plus que le volume traité
      • c’est la capacité à traiter en conservant de la marge qui devient essentielle
  • Message clé
    • À l’ère de l’IA, il faut regarder moins la taille du chiffre d’affaires que la structure de marge brute, la rentabilité par client et la valeur conservée dès la première année
    • L’enjeu est de lire la structure des chiffres, pas seulement leur taille
  • Il existe aussi un problème très concret
    • Pour suivre correctement ces indicateurs de troisième génération
    • il faut que la facturation, les coûts d’infrastructure et les systèmes financiers soient connectés
    • or la plupart des entreprises d’IA ne disposent pas encore d’une infrastructure de mesure à ce niveau

Résumé en une phrase
Les activités IA sont devenues difficiles à décrire avec le seul ARR comme dans le SaaS, et les indicateurs capables de montrer « combien il reste » et « à quel point cela se maintient » vont probablement devenir plus importants que ceux qui montrent simplement « combien a été vendu ».

 

Il faut donc vraiment redémarrer avant 49 jours.

En fait, il ne faut jamais comparer le temps directement avec <.

if ((int32_t)(tmp - current_tcp_now) < 0) {
        os_atomic_cmpxchg(&tcp_now, tmp, current_tcp_now, ...);
}

Il faut faire comme ça pour regarder la différence entre les deux valeurs... les humains finissent toujours par refaire la même erreur.

 

Plusieurs SaaS vont sans doute disparaître.

 

Franchement, à ce niveau-là, il pourrait sans doute trouver très vite des failles de sécurité dans du code désassemblé.

 

En tant que membre de l’une des fondations mentionnées ci-dessus, j’ai suivi ce processus et j’en ai ressenti un profond malaise. En façade, on affichait une « IA éthique », mais en interne, cette décision a été prise de manière verticale, sans aucun consensus de la communauté.

Alors que les tensions géopolitiques s’intensifiaient, même si je n’étais plus actif depuis longtemps, j’ai pensé qu’il fallait tout de même dire un mot et j’ai ouvert un fil de discussion sur l’éthique, mais je n’ai eu droit qu’à des esquives bureaucratiques. Cette initiative ne vise pas à défendre les valeurs de l’open source ; c’est le cas d’un consortium fermé de grands capitaux qui a acheté à une fondation open source la marque Responsible AI.

 

C’est sympa, mais mon iPad n’arrive pas à suivre lol