On a l’impression que tout finit par devenir une pub pour Analytics. Ça paraît plausible, mais au final ça reste une publicité, et j’ai aussi l’impression que l’administrateur de hada.io laisse un peu trop ça à l’abandon.
Au final, c’est un compromis avec la qualité, et je me demande aussi si cela ne risque pas de se transformer en une structure où l’on consomme davantage de tokens pour restaurer la qualité perdue.
Dans les grandes lignes, il s’agit de rechercher les conversations passées, donc si l’on organise bien les questions de structuration, cela me semble être une bonne idée. En pratique, j’ai aussi trouvé que cela m’avait beaucoup aidé pour organiser mes projets.
Je l’ai aussi implémenté. J’ai ajouté quelques éléments pour pouvoir relier le vault Obsidian à une sauvegarde GitHub lorsqu’on utilise plusieurs matériels. J’ai aussi créé et intégré des parseurs pour Codex et Gemini. https://github.com/hang-in/seCall
Si vous réduisez les LLM modernes à de la « prédiction du mot suivant », alors AlphaGo aussi ne serait rien d’autre que de la « prédiction du coup suivant ».
Depuis ChatGPT, la prédiction du mot suivant n’est rien de plus qu’un simple pre-trained.
Constitutional AI, en revanche, est un modèle qui atteint un objectif.
J’ai entendu dire que des développeurs du kernel répètent depuis près de 10 à 20 ans aux développeurs de PostgreSQL que « les spinlocks en espace utilisateur ne sont pas recommandés, donc il vaudrait mieux reconsidérer cela »...
Si vous utilisez déjà l’équipe d’agents Claude Code, il n’y avait rien de particulièrement nouveau.
En revanche, il était pratique de construire l’infrastructure en utilisant des agents ou des skills afin de pouvoir reprendre le travail dans de nouvelles sessions, avec des informations comme la composition de l’équipe.
Quand on constituait l’équipe manuellement, des éléments répétitifs comparables à du boilerplate pour l’équipe revenaient sans cesse.
Il y avait toutefois un problème : comme l’environnement prenait en compte à la fois les subagents et l’agent team, dans le pattern Supervisor, il arrivait souvent que le superviseur délègue des tâches à un subagent alors même que l’équipe avait déjà été créée.
On dirait que la compatibilité avec Exynos est mauvaise. Sur le Galaxy Quantum 5 (A55), il y a un problème où il répond en répétant indéfiniment des caractères chinois.
Je pensais que, parmi les grands modèles de langage commercialisés après GPT, à l’exception de quelques-uns qui utilisent des modèles de diffusion, tous fonctionnaient sous la forme d’une prédiction du token suivant. S’il existe des modèles qui fonctionnent autrement, je vous serais reconnaissant de me le faire savoir.
Je ne savais même pas qu’une connexion symétrique à 25 Gbit/s existait. Je trouvais déjà qu’une offre autour de 10 Gbit/s était largement suffisante pour un foyer...
Je l’ai déjà utilisé auparavant, mais je l’ai retiré parce que Claude finissait sans cesse par consommer encore plus de tokens pour résoudre les problèmes causés par rtk.
(Par exemple, quand on envoie une requête JSON avec curl, il génère un JSON invalide, jq renvoie une erreur, puis Claude se met à déboguer ça en y brûlant des tokens, et au final on en revient à refaire la requête curl brute pour la parser avec jq.)
Cela dit, je pense que l’intention en elle-même est bonne, donc ça pourrait valoir le coup de l’utiliser une fois qu’il sera stabilisé.
Alors, le dernier modèle est-il différent ? S’il y a des informations erronées, merci de me le signaler, cela pourrait être utile à d’autres personnes, moi y compris, haha.
Il y a aussi du spam qui consiste à enregistrer comme backlink, dans les articles d’autres blogs, des URL de résultats de recherche contenant des formulations spammeuses ;
De toute façon, quoi qu’il en soit, il faut finir par les supprimer manuellement...
On a l’impression que tout finit par devenir une pub pour Analytics. Ça paraît plausible, mais au final ça reste une publicité, et j’ai aussi l’impression que l’administrateur de hada.io laisse un peu trop ça à l’abandon.
Au final, c’est un compromis avec la qualité, et je me demande aussi si cela ne risque pas de se transformer en une structure où l’on consomme davantage de tokens pour restaurer la qualité perdue.
Comme
bm25est peu performant pour la recherche en coréen, j’ai également mis en place un garde-fou capable de bien rechercher en coréen séparément.Dans les grandes lignes, il s’agit de rechercher les conversations passées, donc si l’on organise bien les questions de structuration, cela me semble être une bonne idée. En pratique, j’ai aussi trouvé que cela m’avait beaucoup aidé pour organiser mes projets.
Je l’ai aussi implémenté. J’ai ajouté quelques éléments pour pouvoir relier le vault Obsidian à une sauvegarde GitHub lorsqu’on utilise plusieurs matériels. J’ai aussi créé et intégré des parseurs pour Codex et Gemini. https://github.com/hang-in/seCall
Si vous réduisez les LLM modernes à de la « prédiction du mot suivant », alors AlphaGo aussi ne serait rien d’autre que de la « prédiction du coup suivant ».
Depuis ChatGPT, la prédiction du mot suivant n’est rien de plus qu’un simple pre-trained.
Constitutional AI, en revanche, est un modèle qui atteint un objectif.
J’ai entendu dire que des développeurs du kernel répètent depuis près de 10 à 20 ans aux développeurs de PostgreSQL que « les spinlocks en espace utilisateur ne sont pas recommandés, donc il vaudrait mieux reconsidérer cela »...
https://x.com/kosaki55tea/status/2040458791536497035
Si vous utilisez déjà l’équipe d’agents Claude Code, il n’y avait rien de particulièrement nouveau.
En revanche, il était pratique de construire l’infrastructure en utilisant des agents ou des skills afin de pouvoir reprendre le travail dans de nouvelles sessions, avec des informations comme la composition de l’équipe.
Quand on constituait l’équipe manuellement, des éléments répétitifs comparables à du boilerplate pour l’équipe revenaient sans cesse.
Il y avait toutefois un problème : comme l’environnement prenait en compte à la fois les subagents et l’agent team, dans le pattern Supervisor, il arrivait souvent que le superviseur délègue des tâches à un subagent alors même que l’équipe avait déjà été créée.
https://github.com/google-ai-edge/gallery/issues/437
On dirait que la compatibilité avec Exynos est mauvaise. Sur le Galaxy Quantum 5 (A55), il y a un problème où il répond en répétant indéfiniment des caractères chinois.
Je pensais que, parmi les grands modèles de langage commercialisés après GPT, à l’exception de quelques-uns qui utilisent des modèles de diffusion, tous fonctionnaient sous la forme d’une prédiction du token suivant. S’il existe des modèles qui fonctionnent autrement, je vous serais reconnaissant de me le faire savoir.
Je ne savais même pas qu’une connexion symétrique à 25 Gbit/s existait. Je trouvais déjà qu’une offre autour de 10 Gbit/s était largement suffisante pour un foyer...
Je l’ai déjà utilisé auparavant, mais je l’ai retiré parce que Claude finissait sans cesse par consommer encore plus de tokens pour résoudre les problèmes causés par rtk.
(Par exemple, quand on envoie une requête JSON avec
curl, il génère un JSON invalide,jqrenvoie une erreur, puis Claude se met à déboguer ça en y brûlant des tokens, et au final on en revient à refaire la requêtecurlbrute pour la parser avecjq.)Cela dit, je pense que l’intention en elle-même est bonne, donc ça pourrait valoir le coup de l’utiliser une fois qu’il sera stabilisé.
J’avais aussi trouvé ça dommage sur ce point-là !
Une mise à jour récente permet d’enregistrer la sortie complète dans un fichier séparé afin que le LLM puisse la lire si nécessaire~
Le renouvellement du site officiel a été fait avant la sortie de GnuBoard 7.
C’est pour ça qu’il arrive parfois que repartir de zéro soit plus rapide.
Merci pour votre réponse !
Je ne sais pas si ça réduit vraiment. J’ai beau dire à l’agent d’utiliser sans arrêt la commande
rtk ls.., il ne l’utilise pas.Alors, le dernier modèle est-il différent ? S’il y a des informations erronées, merci de me le signaler, cela pourrait être utile à d’autres personnes, moi y compris, haha.
Il y a aussi du spam qui consiste à enregistrer comme backlink, dans les articles d’autres blogs, des URL de résultats de recherche contenant des formulations spammeuses ;
De toute façon, quoi qu’il en soit, il faut finir par les supprimer manuellement...
> Un LLM est un modèle de prédiction du mot suivant qui « génère la sortie la plus appropriée pour une entrée donnée ».
On parle de GPT-3, là.