C’est un détail, mais rien que le fait que le gestionnaire de paquets s’appelle pkg, je trouve ça élégant et très en phase avec la philosophie de nommage des outils UNIX.
Comme il y a plus de vingt ans, lorsque la mode des éditeurs web et des blogs produits à la chaîne avait entraîné une prolifération de pages d’accueil et de billets que personne ne lirait, on observe un phénomène similaire avec l’arrivée de l’ère de l’IA. Mais créer des applications sur mesure et partager leur processus ou leur routine constitue clairement, à mon avis, un atout formidable et précieux. Personnellement, je pense qu’aujourd’hui, l’enjeu n’est pas de créer avec l’IA des applications ou des services rentables, mais de fabriquer facilement les outils sur mesure dont j’ai besoin pour gagner en productivité.
Dans la configuration de base d’Oh my opencode, c’est opus qui s’occupe de la planification, tandis qu’un modèle plus léger se charge de l’implémentation.
Comme ce qui ne tournait que dans le navigateur peut désormais s’exécuter directement sur le serveur, j’ai l’impression que c’était une évolution inévitable.
C’est un détail, mais rien que le fait que le gestionnaire de paquets s’appelle
pkg, je trouve ça élégant et très en phase avec la philosophie de nommage des outils UNIX.Si on exécute le CLI sur le serveur, est-ce que ce ne serait pas la même chose ?
GPT fait désormais aussi du management
https://replaceyourboss.ai/
Ça semble urgent de l’adopter
Comme il y a plus de vingt ans, lorsque la mode des éditeurs web et des blogs produits à la chaîne avait entraîné une prolifération de pages d’accueil et de billets que personne ne lirait, on observe un phénomène similaire avec l’arrivée de l’ère de l’IA. Mais créer des applications sur mesure et partager leur processus ou leur routine constitue clairement, à mon avis, un atout formidable et précieux. Personnellement, je pense qu’aujourd’hui, l’enjeu n’est pas de créer avec l’IA des applications ou des services rentables, mais de fabriquer facilement les outils sur mesure dont j’ai besoin pour gagner en productivité.
Dans la configuration de base d’Oh my opencode, c’est opus qui s’occupe de la planification, tandis qu’un modèle plus léger se charge de l’implémentation.
Oui, j’avoue avoir commenté sans même lire l’article jusqu’au bout ;;
Il y a même un article lié sur NamuWiki haha
https://namu.wiki/w/…tu as vraiment visé dans le mille.
Comme il s’agit d’un modèle de langage, il est logique qu’un modèle coûteux se charge de la planification.
Autour de moi, les gens utilisent Sonnet pour la planification/la conception, puis GLM-5 pour écrire le code..
Comme ce qui ne tournait que dans le navigateur peut désormais s’exécuter directement sur le serveur, j’ai l’impression que c’était une évolution inévitable.
Si ça faisait aussi proxy comme quotio, je l’utiliserais tout de suite… mais il ne semble pas y avoir cette fonctionnalité.
À l’inverse, j’ai vu une analyse selon laquelle l’inférence serait plutôt une activité rentable...
Le vrai problème, d’après eux, c’est que la boucle d’entraînement s’est encore complexifiée avec l’ajout du calcul d’inférence nécessaire au RL.
Dommage, il n’y aura peut-être encore aucun événement :'(
J’ai l’impression que cette période où on brûle des crédits à tout-va ne durera que pour l’instant.
Oh. Merci !
J’utilise qwen 3 0.6b q5 sur un Galaxy Fold 4, mais pour l’instant je trouve ça encore un peu décevant.
Donc, cela fonctionne en rendant le HTML généré à l’intérieur d’un iframe.
Si c’est Codex, ce n’est pas mieux de travailler sur OpenCode ? Ça marche aussi à distance, et il y a toutes sortes de plugins.
J’utilise la version portée sur Windows.
Les écosystèmes Rust et Zig s’élargissent de plus en plus.
Je me demande encore combien de temps JavaScript restera pertinent pour l’IA.