7 points par eggplantiny 2025-12-30 | Aucun commentaire pour le moment. | Partager sur WhatsApp

Quand on essaie réellement de construire un agent IA basé sur un LLM,
on finit toujours, à un moment ou à un autre, par se heurter au même mur.

  • le modèle est clairement devenu plus intelligent, mais
  • l’exécution reste instable,
  • on ne peut pas expliquer pourquoi il a agi ainsi,
  • et pour une même entrée, le résultat change.

On en arrive donc souvent à cette conclusion :

« Le modèle n’est pas encore assez bon. Essayons un modèle plus grand. »

Mais après de nombreux essais et erreurs, j’en suis venu à penser que le cœur du problème n’est pas l’intelligence du modèle,
mais l’absence de conception du “monde” (World) dans lequel l’agent fonctionne.


La vraie nature du problème : le monde n’existe que dans la tête du modèle

Dans de nombreuses architectures d’agents,
des éléments comme l’état, les règles ou les possibilités d’action
sont tous implicitement contenus dans le raisonnement du modèle.

Autrement dit,

  • ce qui est possible,
  • pourquoi une action a échoué,
  • à quel moment l’état a changé,

on attend du modèle qu’il « s’en souvienne et le déduise » tout seul.

Avec une telle structure,
même si le modèle s’améliore,
il est difficile de garantir le débogage, la reproductibilité et l’explicabilité.


Changer de perspective : une World-Centric Architecture

C’est pourquoi cet article propose d’inverser le point de vue :
concevoir les agents non pas de manière
centrée sur le modèle (Intelligence-Centric),
mais centrée sur le monde (World-Centric).

L’idée clé est simple.

  • le monde doit exister explicitement en dehors du modèle,
  • l’état doit être figé sous forme de Snapshot,
  • les changements d’état ne doivent se produire que par un unique chemin, Patch/Apply,
  • et la question « cette action est-elle possible ? » doit être calculée de manière structurelle.

Et le principe le plus important tient dans cette phrase :

> L’intelligence ne doit pas exécuter, seulement proposer

Le modèle peut proposer « ce qu’il aimerait essayer de faire »,
mais il ne doit pas avoir l’autorité de modifier réellement l’état.


Pourquoi est-ce important ?

Avec cette structure, il se passe quelque chose d’intéressant.

  • les actions impossibles n’atteignent même pas l’étape d’exécution,
  • les échecs s’expliquent non pas par « un modèle stupide », mais par des raisons structurelles,
  • et même si le choix des actions est aléatoire, le système ne se brise pas.

Parce que
la correction (correctness) n’est pas garantie par le raisonnement du modèle,
mais par les règles du monde et le modèle d’état
.

À mes yeux, c’est une approche plus proche d’un
« système exploitable en production »
que d’une simple démo de recherche.


Ce que cet article n’est pas

  • un tutoriel sur un nouveau framework d’agent ❌
  • un article de comparaison des performances de modèles ❌
  • une discussion sur le prompt engineering ❌

À la place,

> « Pourquoi continuons-nous à construire des agents IA de manière aussi instable ? »

c’est cette question que je voulais poser.


Je suis également curieux de savoir comment cette approche peut être vue
du point de vue des machines à états, des moteurs de workflow, des DSL ou encore des langages de programmation.

Les avis ou critiques sont aussi les bienvenus sous l’angle suivant :
« À quoi cela se ramène-t-il, au fond ? »

Aucun commentaire pour le moment.

Aucun commentaire pour le moment.