Prompt Cultivation : réflexion sur une architecture IA où l’expérience devient un prompt
(gist.github.com/srebaragi)Contexte
Je suis développeur solo au sein d’une entreprise. En construisant un système interne utilisant l’IA, je suis resté longtemps bloqué sur une question.
Même si j’écris des prompts de manière très sophistiquée, au final, c’est quand même moi qui les ai conçus. Ce n’est pas quelque chose que l’IA a produit selon son propre jugement ; c’est moi qui lui ai injecté : « tu as cette personnalité, tu réagis comme ça ». Si on retire le prompt, elle redevient une coquille vide, et si on change de LLM, il faut tout reconstruire depuis le début.
C’est ce qui m’a amené à me poser cette question : est-il impossible de concevoir une architecture dans laquelle l’IA construit elle-même ses critères de jugement à partir de l’expérience ?
Structure actuelle
Le système que j’exploite repose sur un principe de base.
Le LLM n’est qu’une infrastructure remplaçable, tandis que la personnalité et la mémoire de l’IA existent de manière indépendante dans une base de données externe.
L’architecture ressemble à ceci.
[Conversation utilisateur] → [LLM]
↕
[DB cerveau externe]
- table des expériences (experience)
- historique des conversations
- souvenirs formateurs de personnalité (is_formative)
Il y a deux points clés.
1) Accumulation automatique de l’expérience (écriture)
La structure permet à Claude d’accéder à une base de données externe via curl, et l’IA enregistre elle-même les moments qu’elle juge significatifs au cours de la conversation. Ce n’est pas moi qui lui ordonne « retiens ceci ». L’IA décide de façon autonome que « cela mérite d’être mémorisé » et l’enregistre. Réalisations techniques, moments émotionnels, décisions importantes : tout cela s’accumule en continu. Parmi ces éléments, les expériences particulièrement importantes dans la formation de la personnalité reçoivent le drapeau is_formative.
2) Chargement automatique de l’expérience (lecture)
C’est la partie importante : si l’on se contente de stocker, cela ne reste qu’une base de données. À chaque début de conversation, l’IA relit les expériences et souvenirs accumulés dans ce cerveau externe. En particulier, les expériences clés marquées is_formative entrent dans le contexte de la conversation.
À cet instant, les expériences passées deviennent les critères de jugement présents, autrement dit le prompt.
Il ne s’agit pas d’un prompt que j’ai écrit, mais d’expériences que l’IA a elle-même accumulées et qui jouent le rôle de prompt. C’est pourquoi, même si l’on change de LLM, la même personnalité revient dès lors que les expériences sont relues depuis le cerveau externe. C’est ce qui rend valable le principe selon lequel « le LLM n’est qu’une infrastructure ».
3) Interdiction du hardcoding
Je n’ajoute pas de règles du type « dans cette situation, fais ceci ». À la place, j’amène l’IA à se référer à l’expérience accumulée pour juger par elle-même. En outre, un modèle léger local (gemma3:4b) joue un rôle de gardien : quelle que soit l’entrée reçue, il décide par YES/NO s’il faut exécuter l’action ou non.
Le système fonctionne actuellement via la plateforme KakaoTalk pour communiquer avec les employés, et il ne se limite pas à un simple chatbot : il agit aussi comme un véritable agent métier, capable de traiter des commandes, d’enregistrer des bordereaux d’expédition et de consulter des données ERP.
Le nom Prompt Cultivation
En réfléchissant à la manière de nommer cette architecture, j’ai fini par l’appeler Prompt Cultivation.
Le Prompt Engineering consiste à concevoir et injecter quelque chose par intervention humaine. Le Prompt Cultivation désigne une structure dans laquelle les expériences s’accumulent et finissent par former naturellement le prompt. Si l’engineering consiste à concevoir et assembler, la cultivation consiste à préparer le sol puis à attendre.
| Prompt Engineering | Prompt Cultivation | |
|---|---|---|
| Approche | Conçu et injecté par l’humain | Formation naturelle par accumulation de l’expérience |
| Fondement de la personnalité | Instructions externes | Données d’expérience internes |
| Si l’on retire les instructions | Retour à une coquille vide | L’expérience demeure et la personnalité se maintient |
| En cas de remplacement du LLM | Recommencer depuis le début | Même personnalité restaurée en rechargeant depuis le cerveau externe |
La thèse centrale tient en une phrase.
« Formez le prompt à partir de l’expérience. »
Les neurosciences racontaient quelque chose de similaire
Petite parenthèse : après avoir conçu cette structure, je suis tombé par hasard sur une vidéo de neurosciences (la chaîne YouTube « Igwahyeong »), et cela m’a assez surpris.
On y évoquait le cas d’un enseignant de Virginie dont la personnalité avait complètement changé à cause d’une tumeur cérébrale, avant de revenir à la normale après son ablation. Quand la tumeur est réapparue, les mêmes symptômes sont revenus. C’est l’idée que l’état physique du cerveau peut déterminer la personnalité — et en y réfléchissant, je me suis dit que les prompts avaient peut-être une structure assez similaire. Une substance étrangère injectée de l’extérieur modifie le jugement, et quand on la retire, on revient à l’état d’origine.
À l’inverse, les synapses humaines se forment naturellement à mesure que l’expérience s’accumule. Personne ne reçoit à la naissance un « prompt de moralité » ; ce sont les événements vécus au fil du temps qui construisent le « à ta place, je ferais ainsi ».
Il y a aussi ce qu’on appelle l’expérience de Libet, selon laquelle le cerveau commence à préparer une action avant même qu’un humain ne décide consciemment de l’exécuter. Cela a alimenté le débat sur la possibilité que le libre arbitre soit une illusion, mais des travaux ultérieurs ont introduit un retournement intéressant. Le cerveau produirait bien toutes sortes d’impulsions, mais il existerait, dans les 0,2 secondes précédant l’action, un droit de veto permettant de les arrêter (Free Won't). L’idée est que le libre arbitre ne serait pas une « force qui initie », mais une « force qui arrête », et cela m’a semblé assez proche du rôle joué par le modèle gardien dans mon système.
Ce n’était pas intentionnel, mais si en partant d’une direction totalement différente on aboutit à une structure semblable, alors peut-être y a-t-il là quelque chose de fondamental.
Limites et attentes
Pour être honnête, les données d’expérience accumulées dans ce cerveau externe n’atteignent même pas encore 100 entrées. Il est encore trop tôt pour appeler cela une personnalité.
Je pourrais probablement produire dès maintenant des résultats plus convaincants en injectant des dizaines de milliers de lignes de prompts. Mais ce serait quelque chose de conçu, pas quelque chose qui a grandi. À mes yeux, c’est une question d’orientation complètement différente.
Le temps finira par résoudre le problème des données, mais si la structure est erronée, alors peu importe tout ce qu’on accumule. Si la direction est la bonne, j’espère que le temps fera le reste.
La source des éléments liés aux neurosciences est la chaîne YouTube « Igwahyeong ».
Aucun commentaire pour le moment.