Avec un 2600X, on est déjà à 30 W au repos, et le GPU doit sans doute consommer autour de 10 W aussi, donc ça consomme nettement plus qu’un home lab configuré avec un CPU basse consommation.
En ne comptant que le CPU + le GPU, on doit être à peu près au même niveau que la consommation au repos d’un N100 avec 3 ou 4 disques durs en plus.
Avec un harnais adapté, ça ne semble quand même pas trop mauvais. Comme il y a moins de compaction en soi, le problème de perte au milieu est lui aussi réduit..
> with FetcherSession(impersonate='chrome') as session: # Use latest version of Chrome's TLS fingerprint
Intéressant. Jusqu'ici, je cherchais toujours et je les ajoutais manuellement, mais c'est la première fois que je vois une bibliothèque comme celle-ci. Ça a l'air pratique.
Les revenus de l’App Store ont augmenté, mais il reste difficile pour les développeurs d’en vivre… Hum, est-ce vraiment une analyse pertinente ? En général, sur ce genre de marché, l’avantage du premier arrivé est très fort, donc on finit souvent par utiliser d’abord les apps qui ont déjà beaucoup d’avis, non ? Surtout si elles sont payantes…
Je l’ai essayé : les performances de gpt-5.4 en elles-mêmes sont très satisfaisantes, mais ce n’est pas toujours très stable — il lui arrive par exemple de générer une réponse à un message plus ancien plutôt qu’au message juste précédent. Il y a aussi des rapports indiquant qu’en long context, ses performances sur la tâche "needle in the haystack" tombent sous les 50 %, donc je n’ai pas vraiment envie de le recommander spécialement. Cela dit, je ne sais pas non plus si la tâche "needle in the haystack" est vraiment un benchmark adapté pour mesurer les performances en long context. Quoi qu’il en soit, avec Codex, la compaction ne prend pas longtemps, et même après compact, il a tendance à bien conserver le contexte, donc à l’usage je n’ai pas ressenti de gêne particulière.
En ce moment, la cadence des releases chez Anthropic est dingue.
On dirait qu’en améliorant leurs outils de développement, ils ont bouclé un véritable effet de volant d’inertie qui leur permet aussi d’accélérer leur propre développement.
On sent vraiment l’ambiance startup qui sort quelque chose de nouveau tous les jours.
C’est une réflexion que je me fais souvent en ce moment, et ça me semble tout à fait juste.
Maintenant qu’il existe vraiment beaucoup de logiciels qui sortent d’un simple clic, on dirait bien que le MVP est devenu dépassé.
L’époque où l’on levait des fonds avec une simple idée est terminée, et transformer ce qu’on a en tête en code est devenu la base, donc
il faut au minimum construire quelque chose à un niveau où l’utilisateur se dit « ah, c’est pas mal », et je comprends aussi dans une certaine mesure qu’on appelle ça un MLP.
https://marcan.st/2025/02/resigning-as-asahi-linux-project-lead/
Moi aussi, en cherchant aujourd’hui, je suis tombé sur un article comme celui-ci.
Avec un 2600X, on est déjà à 30 W au repos, et le GPU doit sans doute consommer autour de 10 W aussi, donc ça consomme nettement plus qu’un home lab configuré avec un CPU basse consommation.
En ne comptant que le CPU + le GPU, on doit être à peu près au même niveau que la consommation au repos d’un N100 avec 3 ou 4 disques durs en plus.
Je l’ai téléchargé et il existe vraiment.
Avec un harnais adapté, ça ne semble quand même pas trop mauvais. Comme il y a moins de compaction en soi, le problème de perte au milieu est lui aussi réduit..
Même si c’est un PC gaming, il ne sera pas en pleine charge en permanence, donc je ne pense pas que la facture d’électricité soit très inquiétante.
Non. Il faudrait plutôt dire : lui aussi, il chie, alors pourquoi ne s'en prendre qu'à lui ?
Je me demande cependant comment ils comptent contourner Cloudflare. Il faudrait sans doute jeter un œil au code pour comprendre.
> with FetcherSession(impersonate='chrome') as session: # Use latest version of Chrome's TLS fingerprint
Intéressant. Jusqu'ici, je cherchais toujours et je les ajoutais manuellement, mais c'est la première fois que je vois une bibliothèque comme celle-ci. Ça a l'air pratique.
Haha, ah ça c'est plutôt drôle hahaha
Le forfait individuel n’est donc pas pris en charge. Peut-être que ça ne le sera jamais, même plus tard ?
On dirait que les améliorations récursives ont commencé.
J’ai confirmé que cela s’applique tel quel aussi à l’application codex pour macOS.
Les profs Claude, vous ne trouvez pas que vous allez un peu trop vite, humainement parlant… snif snif
Si cette personne a poussé son homelab à ce niveau, la facture d’électricité doit faire peur, non ?
Les revenus de l’App Store ont augmenté, mais il reste difficile pour les développeurs d’en vivre… Hum, est-ce vraiment une analyse pertinente ? En général, sur ce genre de marché, l’avantage du premier arrivé est très fort, donc on finit souvent par utiliser d’abord les apps qui ont déjà beaucoup d’avis, non ? Surtout si elles sont payantes…
Je l’ai essayé : les performances de
gpt-5.4en elles-mêmes sont très satisfaisantes, mais ce n’est pas toujours très stable — il lui arrive par exemple de générer une réponse à un message plus ancien plutôt qu’au message juste précédent. Il y a aussi des rapports indiquant qu’en long context, ses performances sur la tâche "needle in the haystack" tombent sous les 50 %, donc je n’ai pas vraiment envie de le recommander spécialement. Cela dit, je ne sais pas non plus si la tâche "needle in the haystack" est vraiment un benchmark adapté pour mesurer les performances en long context. Quoi qu’il en soit, avec Codex, la compaction ne prend pas longtemps, et même après compact, il a tendance à bien conserver le contexte, donc à l’usage je n’ai pas ressenti de gêne particulière.On voit que vous vous amusez énormément au travail.
En ce moment, la cadence des releases chez Anthropic est dingue.
On dirait qu’en améliorant leurs outils de développement, ils ont bouclé un véritable effet de volant d’inertie qui leur permet aussi d’accélérer leur propre développement.
On sent vraiment l’ambiance startup qui sort quelque chose de nouveau tous les jours.
Ça doit énormément stimuler OpenAI.
ShadowBroker ! Ça m’a rappelé Mass Effect 2 après tout ce temps. https://masseffect.fandom.com/wiki/Shadow_Broker_(enemy)
C’est une réflexion que je me fais souvent en ce moment, et ça me semble tout à fait juste.
Maintenant qu’il existe vraiment beaucoup de logiciels qui sortent d’un simple clic, on dirait bien que le MVP est devenu dépassé.
L’époque où l’on levait des fonds avec une simple idée est terminée, et transformer ce qu’on a en tête en code est devenu la base, donc
il faut au minimum construire quelque chose à un niveau où l’utilisateur se dit « ah, c’est pas mal », et je comprends aussi dans une certaine mesure qu’on appelle ça un MLP.
Il y a aussi cette discussion selon laquelle Hacker News envisagerait d’arrêter Show parce qu’il y a trop de publications.
À travers ce genre d’évolutions, il y aura sans doute peu à peu davantage de projets qui vaudront le coup qu’on s’y intéresse.