7 points par eggplantiny 2026-01-03 | Aucun commentaire pour le moment. | Partager sur WhatsApp

En créant des agents basés sur des LLM, j’ai documenté l’architecture d’un système qui fonctionne déjà et les raisons de sa conception, à partir des échecs réellement rencontrés.

Ce document n’est pas une simple note d’idées : il explique, à travers une implémentation concrète, une architecture pensée pour résoudre des problèmes tels que : pourquoi un agent dit « done » alors qu’en réalité rien ne s’est passé, et pourquoi les résultats d’exécution doivent être vérifiés non pas par le raisonnement du modèle, mais par l’état du monde extérieur.

L’essentiel :

  • l’agent ne modifie pas directement l’état et ne propose que des intent ;
  • les transitions d’état sont validées par un calcul déterministe ;
  • le caractère « terminé » est toujours déterminé à partir de l’état du monde.

Il existe déjà une démo fonctionnelle basée sur cette architecture (TaskFlow), et la documentation actuellement publiée explicite de façon claire le modèle world / state / execution qui a rendu ce système possible.

Ce n’est pas encore une version 1.0, mais il s’agit d’une documentation structurée à partir d’un système de niveau suffisamment avancé pour permettre une exécution, une vérification et un débogage réels.

Docs: https://docs.manifesto-ai.dev
Demo (working, early): https://taskflow.manifesto-ai.dev

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.