Il paraît que r/programming sur Reddit a récemment adopté une politique interdisant les posts liés aux LLM.
Je pense qu’en lisant ce genre de texte, on peut entrevoir au moins en partie pourquoi ils ont pris cette décision.
Faire le buzz autour de sites web PoC utilisant Supabase sans même avoir mis un vrai service en production, prendre les entreprises technologiques et les développeurs professionnels pour des idiots, et jusqu’à afficher comme posture éthique l’idée d’essayer coûte que coûte d’obtenir un peu d’influence via une fuite technologique
Je trouve que c’est une catastrophe générale.
Le récapitulatif est propre, mais au final le travail reste le même et rien n’a vraiment changé : ça converge vers l’idée de partager les connaissances pour que moi aussi je puisse travailler avec l’IA.
Tout le monde sait que remettre de l’ordre dans le codebase est la voie pour gagner en vitesse sur le long terme,
mais c’est un peu du même niveau que dire que bien manger, faire du sport et bien dormir permet d’être en bonne santé.
Après avoir simplement initialisé le vault de base, lui avoir fait lire ce seul fichier et expliqué que je voulais concrétiser cette idée, j’ai défini l’ossature générale avec la compétence de brainstorming de superpowers, puis j’ai même terminé la configuration de CLAUDE.md et du plugin Obsidian.
Apple ignore le support legacy de façon (pathologique), mais si l’absence de support legacy signifie au fond qu’il y a moins d’éléments à prendre en compte, alors pourquoi de l’instabilité continue-t-elle malgré tout d’apparaître ?
Ce n’est pas critiquer pour critiquer : il y a réellement énormément de personnes qui ressentent ces désagréments. (Si l’on compare Apple à une religion, au point que leur ferveur se soit refroidie.)
Je vois ce que vous voulez dire, mais le point de comparaison est mal choisi.
Je partage aussi en partie les critiques sur la rentabilité des entreprises fondées sur les LLM et sur leur problème de déficit chronique,
mais à moins de parler du coût des ventes des géants de la tech, comparer en face à face la situation financière d’une multinationale des LLM et celle de Kimbap Cheonguk n’est pas un raisonnement valable.
C’est un agent qui avait déjà été présenté il y a environ un an. https://fr.news.hada.io/topic?id=19142
Ils le mettent à jour progressivement pour suivre les avancées récentes, donc il a l’air d’être désormais assez bon.
Comme @jack, ex-fondateur de Twitter et aujourd’hui CEO de Block, s’en vantait, je le reposte une nouvelle fois. https://x.com/jack/status/2039897468775604711
En utilisant un LLM, 2 500 éléments issus d’un journal, d’Apple Notes et de conversations iMessage ont été fournis en entrée pour générer automatiquement 400 articles wiki détaillés
Le contenu inclut des amis, des startups, des domaines de recherche d’intérêt, des anime préférés et même leur influence, le tout interconnecté par des backlinks
Le wiki n’a pas été conçu pour une consultation personnelle, mais comme une base de connaissances destinée à être exploitée par des agents, avec une structure de fichiers et des backlinks faciles à crawler pour eux
Claude Code est relié au wiki et utilise index.md comme point d’entrée ; lors d’une requête, l’agent parcourt lui-même les pages nécessaires
Exemple d’usage : lors du travail sur une nouvelle landing page, si on demande « en t’appuyant sur les images et films qui m’ont récemment inspiré, donne-moi des idées de copy et de design », l’agent peut répondre en combinant un document « philosophie » fondé sur un documentaire Studio Ghibli, un document « concurrents » contenant des captures d’écran de landing pages d’entreprises YC, et même des images d’objets dérivés des Beatles des années 1970 mises de côté
Un système similaire basé sur le RAG avait été construit il y a un an, mais les performances n’étaient pas bonnes ; l’approche où l’agent explore directement le système de fichiers s’est révélée bien plus efficace
Lorsqu’un nouvel élément est ajouté (article, image d’inspiration, note de réunion, etc.), le système met automatiquement à jour 2 ou 3 documents existants liés ou crée un nouveau document
Il cite la Farzapedia ci-dessus comme un bon exemple concret du tweet sur les LLM Wiki et résume en 4 points les avantages de cette approche par rapport aux méthodes classiques de personnalisation de l’IA, censées « s’améliorer toutes seules à mesure qu’on les utilise »
Explicite (Explicit) : le résultat de la mémoire existe clairement sous forme de wiki, et il est possible de vérifier et gérer directement ce que l’IA sait ou ne sait pas — la connaissance n’est pas enfouie dans un système opaque, elle existe sous une forme visible
Vos données (Yours) : les données sont stockées sur l’ordinateur local plutôt que dans le système d’un fournisseur d’IA donné, sans être enfermées dans un format impossible à extraire, ce qui permet de garder un contrôle total sur l’information
Le fichier avant l’app (File over app) : la mémoire est constituée d’une collection de fichiers dans des formats génériques comme le Markdown ou les images, compatibles avec divers outils et CLI — l’agent peut exploiter toute la boîte à outils Unix, et l’ensemble peut être consulté via l’interface de son choix, comme Obsidian
Liberté de choix de l’IA (BYOAI) : il est possible de connecter librement l’IA de son choix — Claude, Codex, OpenCode, etc. — et, en principe, même de fine-tuner une IA open source sur ce wiki afin de ne pas seulement référencer les données, mais d’intégrer directement les connaissances personnelles dans les poids du modèle
Cette méthode n’est pas la plus simple et nécessite de gérer des répertoires de fichiers, mais les agents peuvent aider sur une grande partie de ce processus
Il insiste sur le fait que « la maîtrise des agents (agent proficiency) est une compétence clé du XXIe siècle » et recommande d’essayer soi-même ces outils capables d’exécuter des tâches sur ordinateur à partir d’instructions en anglais
Avant de l’essayer, je me demandais franchement quel avantage il pouvait avoir par rapport à d’autres outils capables de faire tourner des LLM locaux comme ollama, mais après l’avoir utilisé moi-même, je le trouve assez sujet aux hallucinations et plutôt limité.
Cela dit, alors que les autres outils de LLM locaux s’appuient sur le GPU, ce qui les rend puissants mais aussi très gourmands en ressources, ce modèle semble avoir l’avantage de consommer relativement peu de ressources et d’utiliser efficacement le Neural Engine, donc aussi moins d’énergie.
Si j’ai bien compris, le concept même d’Apple Intelligence est de faire tourner une IA légère sur différents appareils, y compris mobiles, et de ce point de vue, ça correspond plutôt bien à cette vision.
En revanche, même pour un modèle léger, j’ai l’impression qu’il faudrait des performances meilleures que ça pour qu’il soit ne serait-ce qu’un peu utile. Pour l’instant, c’est vraiment trop limité.
À l’origine, ça devrait sans doute être critiqué, mais je me demande si Claude est vraiment en position de reprocher aux autres d’avoir volé le travail de quelqu’un.
Quand on pense qu’ils ont entraîné leur modèle sur des livres scannés illégalement, qu’ils se sont pris un procès et ont dû payer, haha
Il paraît que r/programming sur Reddit a récemment adopté une politique interdisant les posts liés aux LLM.
Je pense qu’en lisant ce genre de texte, on peut entrevoir au moins en partie pourquoi ils ont pris cette décision.
Faire le buzz autour de sites web PoC utilisant Supabase sans même avoir mis un vrai service en production, prendre les entreprises technologiques et les développeurs professionnels pour des idiots, et jusqu’à afficher comme posture éthique l’idée d’essayer coûte que coûte d’obtenir un peu d’influence via une fuite technologique
Je trouve que c’est une catastrophe générale.
Il y a une balise
sidans le lien. https://www.youtube.com/watch?v=RpFh0Nc7RvALe récapitulatif est propre, mais au final le travail reste le même et rien n’a vraiment changé : ça converge vers l’idée de partager les connaissances pour que moi aussi je puisse travailler avec l’IA.
Ce que je voulais implémenter dans openclaw est sorti. Je vais le récupérer et l’utiliser.
Tout le monde sait que remettre de l’ordre dans le codebase est la voie pour gagner en vitesse sur le long terme,
mais c’est un peu du même niveau que dire que bien manger, faire du sport et bien dormir permet d’être en bonne santé.
claw-code - Projet de réécriture en clean room en Python basé sur le code source divulgué de Claude Code
C’est une idée qui mérite d’être envisagée, mais il semble que l’avis dominant soit qu’il est encore trop tôt.
Encore ce genre de truc qui se retrouve sur GN... Quel monde, où le vol devient viral...
Après avoir simplement initialisé le vault de base, lui avoir fait lire ce seul fichier et expliqué que je voulais concrétiser cette idée, j’ai défini l’ossature générale avec la compétence de brainstorming de superpowers, puis j’ai même terminé la configuration de
CLAUDE.mdet du plugin Obsidian.Ah, d'accord. Merci de me l'avoir signalé. Il va falloir y faire attention à plusieurs niveaux.
Si on passe à Claude Code, est-ce qu’on pourra utiliser agent teams ?
Merci pour le partage. Je l’ai testé, et c’est impressionnant.
On peut s’attendre à ce que la communauté propose encore des méthodes plus abouties.
Apple ignore le support legacy de façon (pathologique), mais si l’absence de support legacy signifie au fond qu’il y a moins d’éléments à prendre en compte, alors pourquoi de l’instabilité continue-t-elle malgré tout d’apparaître ?
Ce n’est pas critiquer pour critiquer : il y a réellement énormément de personnes qui ressentent ces désagréments. (Si l’on compare Apple à une religion, au point que leur ferveur se soit refroidie.)
Je vois ce que vous voulez dire, mais le point de comparaison est mal choisi.
Je partage aussi en partie les critiques sur la rentabilité des entreprises fondées sur les LLM et sur leur problème de déficit chronique,
mais à moins de parler du coût des ventes des géants de la tech, comparer en face à face la situation financière d’une multinationale des LLM et celle de Kimbap Cheonguk n’est pas un raisonnement valable.
C’est un agent qui avait déjà été présenté il y a environ un an. https://fr.news.hada.io/topic?id=19142
Ils le mettent à jour progressivement pour suivre les avancées récentes, donc il a l’air d’être désormais assez bon.
Comme @jack, ex-fondateur de Twitter et aujourd’hui CEO de Block, s’en vantait, je le reposte une nouvelle fois.
https://x.com/jack/status/2039897468775604711
L’utilisation de ceci a donné Farzapedia : une Wikipedia personnelle créée à partir de 2 500 entrées de journal, notes et messages
index.mdcomme point d’entrée ; lors d’une requête, l’agent parcourt lui-même les pages nécessairesLes 4 avantages de la personnalisation basée sur un LLM Wiki selon Karpathy
Avant de l’essayer, je me demandais franchement quel avantage il pouvait avoir par rapport à d’autres outils capables de faire tourner des LLM locaux comme ollama, mais après l’avoir utilisé moi-même, je le trouve assez sujet aux hallucinations et plutôt limité.
Cela dit, alors que les autres outils de LLM locaux s’appuient sur le GPU, ce qui les rend puissants mais aussi très gourmands en ressources, ce modèle semble avoir l’avantage de consommer relativement peu de ressources et d’utiliser efficacement le Neural Engine, donc aussi moins d’énergie.
Si j’ai bien compris, le concept même d’Apple Intelligence est de faire tourner une IA légère sur différents appareils, y compris mobiles, et de ce point de vue, ça correspond plutôt bien à cette vision.
En revanche, même pour un modèle léger, j’ai l’impression qu’il faudrait des performances meilleures que ça pour qu’il soit ne serait-ce qu’un peu utile. Pour l’instant, c’est vraiment trop limité.
À l’origine, ça devrait sans doute être critiqué, mais je me demande si Claude est vraiment en position de reprocher aux autres d’avoir volé le travail de quelqu’un.
Quand on pense qu’ils ont entraîné leur modèle sur des livres scannés illégalement, qu’ils se sont pris un procès et ont dû payer, haha
Il faut que l’intention du code, c’est-à-dire le problème qu’il cherchait à résoudre à ce moment-là, reste consignée.
Avec le temps, il ne reste plus qu’à se demander : dans quel but cela a-t-il été écrit comme ça ?..