Il paraît que r/programming sur Reddit a récemment adopté une politique interdisant les posts liés aux LLM.
Je pense qu’en lisant ce genre de texte, on peut entrevoir au moins en partie pourquoi ils ont pris cette décision.

Faire le buzz autour de sites web PoC utilisant Supabase sans même avoir mis un vrai service en production, prendre les entreprises technologiques et les développeurs professionnels pour des idiots, et jusqu’à afficher comme posture éthique l’idée d’essayer coûte que coûte d’obtenir un peu d’influence via une fuite technologique
Je trouve que c’est une catastrophe générale.

 

Le récapitulatif est propre, mais au final le travail reste le même et rien n’a vraiment changé : ça converge vers l’idée de partager les connaissances pour que moi aussi je puisse travailler avec l’IA.

 

Ce que je voulais implémenter dans openclaw est sorti. Je vais le récupérer et l’utiliser.

 

Tout le monde sait que remettre de l’ordre dans le codebase est la voie pour gagner en vitesse sur le long terme,
mais c’est un peu du même niveau que dire que bien manger, faire du sport et bien dormir permet d’être en bonne santé.

 

C’est une idée qui mérite d’être envisagée, mais il semble que l’avis dominant soit qu’il est encore trop tôt.

 

Encore ce genre de truc qui se retrouve sur GN... Quel monde, où le vol devient viral...

 

Après avoir simplement initialisé le vault de base, lui avoir fait lire ce seul fichier et expliqué que je voulais concrétiser cette idée, j’ai défini l’ossature générale avec la compétence de brainstorming de superpowers, puis j’ai même terminé la configuration de CLAUDE.md et du plugin Obsidian.

 

Ah, d'accord. Merci de me l'avoir signalé. Il va falloir y faire attention à plusieurs niveaux.

 

Si on passe à Claude Code, est-ce qu’on pourra utiliser agent teams ?

 

Merci pour le partage. Je l’ai testé, et c’est impressionnant.
On peut s’attendre à ce que la communauté propose encore des méthodes plus abouties.

 

Apple ignore le support legacy de façon (pathologique), mais si l’absence de support legacy signifie au fond qu’il y a moins d’éléments à prendre en compte, alors pourquoi de l’instabilité continue-t-elle malgré tout d’apparaître ?

 

Ce n’est pas critiquer pour critiquer : il y a réellement énormément de personnes qui ressentent ces désagréments. (Si l’on compare Apple à une religion, au point que leur ferveur se soit refroidie.)

 

Je vois ce que vous voulez dire, mais le point de comparaison est mal choisi.
Je partage aussi en partie les critiques sur la rentabilité des entreprises fondées sur les LLM et sur leur problème de déficit chronique,
mais à moins de parler du coût des ventes des géants de la tech, comparer en face à face la situation financière d’une multinationale des LLM et celle de Kimbap Cheonguk n’est pas un raisonnement valable.

 

C’est un agent qui avait déjà été présenté il y a environ un an. https://fr.news.hada.io/topic?id=19142
Ils le mettent à jour progressivement pour suivre les avancées récentes, donc il a l’air d’être désormais assez bon.
Comme @jack, ex-fondateur de Twitter et aujourd’hui CEO de Block, s’en vantait, je le reposte une nouvelle fois.
https://x.com/jack/status/2039897468775604711

 

L’utilisation de ceci a donné Farzapedia : une Wikipedia personnelle créée à partir de 2 500 entrées de journal, notes et messages

  • En utilisant un LLM, 2 500 éléments issus d’un journal, d’Apple Notes et de conversations iMessage ont été fournis en entrée pour générer automatiquement 400 articles wiki détaillés
  • Le contenu inclut des amis, des startups, des domaines de recherche d’intérêt, des anime préférés et même leur influence, le tout interconnecté par des backlinks
  • Le wiki n’a pas été conçu pour une consultation personnelle, mais comme une base de connaissances destinée à être exploitée par des agents, avec une structure de fichiers et des backlinks faciles à crawler pour eux
  • Claude Code est relié au wiki et utilise index.md comme point d’entrée ; lors d’une requête, l’agent parcourt lui-même les pages nécessaires
  • Exemple d’usage : lors du travail sur une nouvelle landing page, si on demande « en t’appuyant sur les images et films qui m’ont récemment inspiré, donne-moi des idées de copy et de design », l’agent peut répondre en combinant un document « philosophie » fondé sur un documentaire Studio Ghibli, un document « concurrents » contenant des captures d’écran de landing pages d’entreprises YC, et même des images d’objets dérivés des Beatles des années 1970 mises de côté
  • Un système similaire basé sur le RAG avait été construit il y a un an, mais les performances n’étaient pas bonnes ; l’approche où l’agent explore directement le système de fichiers s’est révélée bien plus efficace
  • Lorsqu’un nouvel élément est ajouté (article, image d’inspiration, note de réunion, etc.), le système met automatiquement à jour 2 ou 3 documents existants liés ou crée un nouveau document

Les 4 avantages de la personnalisation basée sur un LLM Wiki selon Karpathy

  • Il cite la Farzapedia ci-dessus comme un bon exemple concret du tweet sur les LLM Wiki et résume en 4 points les avantages de cette approche par rapport aux méthodes classiques de personnalisation de l’IA, censées « s’améliorer toutes seules à mesure qu’on les utilise »
  • Explicite (Explicit) : le résultat de la mémoire existe clairement sous forme de wiki, et il est possible de vérifier et gérer directement ce que l’IA sait ou ne sait pas — la connaissance n’est pas enfouie dans un système opaque, elle existe sous une forme visible
  • Vos données (Yours) : les données sont stockées sur l’ordinateur local plutôt que dans le système d’un fournisseur d’IA donné, sans être enfermées dans un format impossible à extraire, ce qui permet de garder un contrôle total sur l’information
  • Le fichier avant l’app (File over app) : la mémoire est constituée d’une collection de fichiers dans des formats génériques comme le Markdown ou les images, compatibles avec divers outils et CLI — l’agent peut exploiter toute la boîte à outils Unix, et l’ensemble peut être consulté via l’interface de son choix, comme Obsidian
  • Liberté de choix de l’IA (BYOAI) : il est possible de connecter librement l’IA de son choix — Claude, Codex, OpenCode, etc. — et, en principe, même de fine-tuner une IA open source sur ce wiki afin de ne pas seulement référencer les données, mais d’intégrer directement les connaissances personnelles dans les poids du modèle
  • Cette méthode n’est pas la plus simple et nécessite de gérer des répertoires de fichiers, mais les agents peuvent aider sur une grande partie de ce processus
  • Il insiste sur le fait que « la maîtrise des agents (agent proficiency) est une compétence clé du XXIe siècle » et recommande d’essayer soi-même ces outils capables d’exécuter des tâches sur ordinateur à partir d’instructions en anglais
 

Avant de l’essayer, je me demandais franchement quel avantage il pouvait avoir par rapport à d’autres outils capables de faire tourner des LLM locaux comme ollama, mais après l’avoir utilisé moi-même, je le trouve assez sujet aux hallucinations et plutôt limité.
Cela dit, alors que les autres outils de LLM locaux s’appuient sur le GPU, ce qui les rend puissants mais aussi très gourmands en ressources, ce modèle semble avoir l’avantage de consommer relativement peu de ressources et d’utiliser efficacement le Neural Engine, donc aussi moins d’énergie.
Si j’ai bien compris, le concept même d’Apple Intelligence est de faire tourner une IA légère sur différents appareils, y compris mobiles, et de ce point de vue, ça correspond plutôt bien à cette vision.
En revanche, même pour un modèle léger, j’ai l’impression qu’il faudrait des performances meilleures que ça pour qu’il soit ne serait-ce qu’un peu utile. Pour l’instant, c’est vraiment trop limité.

 

À l’origine, ça devrait sans doute être critiqué, mais je me demande si Claude est vraiment en position de reprocher aux autres d’avoir volé le travail de quelqu’un.
Quand on pense qu’ils ont entraîné leur modèle sur des livres scannés illégalement, qu’ils se sont pris un procès et ont dû payer, haha

 

Il faut que l’intention du code, c’est-à-dire le problème qu’il cherchait à résoudre à ce moment-là, reste consignée.

Avec le temps, il ne reste plus qu’à se demander : dans quel but cela a-t-il été écrit comme ça ?..