Je l’utilise depuis deux semaines, et je le trouve vraiment bien. Avec Tmux, si vous configurez les raccourcis de Focus Pane selon vos préférences, c’est pratique pour naviguer d’un panneau à l’autre.
On le voit bien dans la section « Articles à voir aussi » de GeekNews,
mais comme la fonctionnalité elle-même n’est pas visible sans connexion, beaucoup de gens semblent la manquer.
Maintenant, tout le monde crée des agents de code en interne, alors quelqu’un a carrément créé le framework pour ça. Ils vont tous vite.
Même sans forcément utiliser celui-ci, ça vaut sans doute le coup de regarder les modèles adoptés en interne par plusieurs entreprises comme source d’inspiration.
Le vibe coding consiste simplement à produire un résultat, et je pense que la différence entre comprendre ou non le résultat implémenté sera vraiment énorme. Cette compréhension vient, à mon avis, de ce que vous appelez les « études de développement ».
Au contraire, avec les progrès de l’IA, le coût d’apprentissage de nouvelles choses a fortement baissé, donc j’ai l’impression que c’est une excellente période pour apprendre davantage de choses.
Avec les progrès de l’IA, on réduit réellement les effectifs même dans les projets. Quand un poste disparaît, si un manager ne sait pas bien utiliser l’IA en plus de gérer le business, il semble lui aussi devenir une cible des restructurations.
Demander à un modèle de relire le code qu’il a lui-même écrit entraîne un biais d’auto-validation et est donc presque inutile, mais confier la relecture à un autre modèle améliore fortement la qualité
En fait, j’ai l’impression que c’est pareil pour les humains. N’est-ce pas aussi pour cela qu’il faut rechercher la diversité…
L’agent n’utilisait que le modèle GPT-5.1-Codex-Mini,
en ajoutant le prompt ci-dessous dans les Custom instructions de l’app Codex,
l’agent fonctionne avec GPT-5.3-Codex-Spark.
"- when it spawns agents, use models "GPT-5.3-Codex-Spark" or higher."
Ou alors, c’est aussi assez amusant de pouvoir spécifier le modèle au moment de créer un agent,
et j’aime bien le fait que l’app Codex affiche cela avec une structure en sous-dossiers.
Quand les développeurs écrivent du code à la main, ils passent naturellement par la conception fonctionnelle, l’architecture, l’exploration, la compréhension, les tests et l’auto-revue, tout en anticipant implicitement et en parallèle la façon de réagir après coup si un problème survient ; au fil du processus, ces différents aspects s’ajustent donc assez naturellement. C’est sans doute pour cela que, même avec des tests ou des revues insuffisants, tout finissait malgré tout par fonctionner dans une certaine mesure.
En revanche, si l’on supprime le fait d’écrire le code à la main, il faut délimiter explicitement ces processus qui existaient auparavant de manière implicite. Comme l’entité qui rédige le code et celle qui l’examine sont davantage séparées, l’inefficacité de la communication augmente. Et comme la confiance envers l’auteur du code diminue encore, le coût de la revue augmente lui aussi.
J’ai l’impression que c’est assez proche du concept de doorman's fallacy.
Comme les échanges Slack étaient conservés, il a été possible de remonter jusqu’à lui.
Comment on voit l’historique de ChatGPT ???
Je l’utilise depuis deux semaines, et je le trouve vraiment bien. Avec Tmux, si vous configurez les raccourcis de Focus Pane selon vos préférences, c’est pratique pour naviguer d’un panneau à l’autre.
On dirait que désormais, tous les bons terminaux passent à une base Ghostty (
libghostty).À lire aussi : libghostty arrive
On le voit bien dans la section « Articles à voir aussi » de GeekNews,
mais comme la fonctionnalité elle-même n’est pas visible sans connexion, beaucoup de gens semblent la manquer.
Il y a quelques bugs de rendu, et l’alerte de notification de cmux ne fonctionne parfois pas, mais dans l’ensemble j’en suis satisfait.
Je pense que c’est la bonne direction. Vu que tout le monde semble converger vers ça.
Maintenant, tout le monde crée des agents de code en interne, alors quelqu’un a carrément créé le framework pour ça. Ils vont tous vite.
Même sans forcément utiliser celui-ci, ça vaut sans doute le coup de regarder les modèles adoptés en interne par plusieurs entreprises comme source d’inspiration.
Fil de présentation et vidéo : We're shipping a new feature in Claude Cowork as a research preview that I'm excited about: Dispatch!
Mais du coup… ça ne ressemble pas à OpenClaw ?
On dirait que toutes les boîtes d’IA s’y mettent maintenant.
OpenAI a acheté des humains,
comme Perplexity Personal Computer ou My Computer de Manus, chacun finit par sortir son propre truc.
Si seulement c’était encore moins cher... :(
Le vibe coding consiste simplement à produire un résultat, et je pense que la différence entre comprendre ou non le résultat implémenté sera vraiment énorme. Cette compréhension vient, à mon avis, de ce que vous appelez les « études de développement ».
Au contraire, avec les progrès de l’IA, le coût d’apprentissage de nouvelles choses a fortement baissé, donc j’ai l’impression que c’est une excellente période pour apprendre davantage de choses.
Avec les progrès de l’IA, on réduit réellement les effectifs même dans les projets. Quand un poste disparaît, si un manager ne sait pas bien utiliser l’IA en plus de gérer le business, il semble lui aussi devenir une cible des restructurations.
En fait, j’ai l’impression que c’est pareil pour les humains. N’est-ce pas aussi pour cela qu’il faut rechercher la diversité…
Est-ce que l’historique de ChatGPT entre dans le champ de ce qu’on peut obtenir via une demande d’accès aux informations publiques ?
Oh... merci beaucoup !!!
J’avais fait la traduction, mais je n’avais pas mis les liens.
On va encore s’y mettre !
https://code.claude.com/docs/ko/…
Moi aussi, j’utilise Claude avec le modèle configuré sur opusplan.
L’agent n’utilisait que le modèle GPT-5.1-Codex-Mini,
en ajoutant le prompt ci-dessous dans les Custom instructions de l’app Codex,
l’agent fonctionne avec GPT-5.3-Codex-Spark.
"- when it spawns agents, use models "GPT-5.3-Codex-Spark" or higher."
Ou alors, c’est aussi assez amusant de pouvoir spécifier le modèle au moment de créer un agent,
et j’aime bien le fait que l’app Codex affiche cela avec une structure en sous-dossiers.
Quand les développeurs écrivent du code à la main, ils passent naturellement par la conception fonctionnelle, l’architecture, l’exploration, la compréhension, les tests et l’auto-revue, tout en anticipant implicitement et en parallèle la façon de réagir après coup si un problème survient ; au fil du processus, ces différents aspects s’ajustent donc assez naturellement. C’est sans doute pour cela que, même avec des tests ou des revues insuffisants, tout finissait malgré tout par fonctionner dans une certaine mesure.
En revanche, si l’on supprime le fait d’écrire le code à la main, il faut délimiter explicitement ces processus qui existaient auparavant de manière implicite. Comme l’entité qui rédige le code et celle qui l’examine sont davantage séparées, l’inefficacité de la communication augmente. Et comme la confiance envers l’auteur du code diminue encore, le coût de la revue augmente lui aussi.
J’ai l’impression que c’est assez proche du concept de doorman's fallacy.
J'utilisais bien auditlog, donc c'est triste..