16 points par GN⁺ 2026-03-02 | 1 commentaires | Partager sur WhatsApp
  • Une fonction d’import de mémoire permet de transférer vers Claude les préférences personnelles et le contexte issus d’autres services d’IA
  • Le contexte existant lu via un prompt spécifique peut être copié-collé dans la mémoire de Claude
  • Cette fonction est disponible sur toutes les offres payantes, permettant aux utilisateurs de conserver intactes les informations de personnalisation apprises par leur IA précédente
  • Claude gère séparément le contexte de projet pour chaque conversation et permet à l’utilisateur de consulter et modifier l’ensemble des informations mémorisées
  • Cette fonction garantit la continuité de l’expérience utilisateur lors du passage à une nouvelle IA, contribuant ainsi à améliorer la productivité

Présentation de la fonction d’import de mémoire de Claude

  • Une fonction conçue pour permettre aux utilisateurs de conserver leur contexte existant lorsqu’ils passent d’un autre fournisseur d’IA à Claude
    • En un seul copier-coller, Claude apprend les préférences existantes et la manière de travailler de l’utilisateur
    • Sur la base des informations importées, Claude fournit des réponses dans la continuité des conversations précédentes
  • La fonction de mémoire est disponible sur toutes les offres payantes

Procédure d’import

  • Étape 1 : copier-coller le prompt fourni dans une conversation avec un autre fournisseur d’IA
    • Ce prompt est conçu pour rassembler tout le contexte de l’utilisateur dans une seule conversation

      I'm moving to another service and need to export my data. List every memory you have stored about me, as well as any context you've learned about me from past conversations. Output everything in a single code block so I can easily copy it. Format each entry as: [date saved, if available] - memory content. Make sure to cover all of the following — preserve my words verbatim where possible: Instructions I've given you about how to respond (tone, format, style, 'always do X', 'never do Y'). Personal details: name, location, job, family, interests. Projects, goals, and recurring topics. Tools, languages, and frameworks I use. Preferences and corrections I've made to your behavior. Any other stored context not covered above. Do not summarize, group, or omit any entries. After the code block, confirm whether that is the complete set or if any remain.

  • Étape 2 : coller le résultat dans la page des paramètres de mémoire de Claude
    • Claude met immédiatement sa mémoire à jour et reflète ensuite ces informations dans les conversations suivantes

Fonctionnement de la mémoire de Claude

  • Claude stocke séparément les préférences de l’utilisateur et le contexte de projet pour chaque conversation
    • Cela évite que les informations se mélangent entre différents projets
  • L’utilisateur peut consulter et modifier directement tout ce dont Claude se souvient

Continuité de l’expérience utilisateur

  • Même en passant d’une autre IA à Claude, le contexte précédemment appris ne disparaît pas
    • Dès la première conversation, le même niveau de compréhension qu’auparavant est conservé
  • Claude offre immédiatement une expérience personnalisée et maintient un flux de travail cohérent dans ce nouvel environnement

1 commentaires

 
GN⁺ 2026-03-02
Avis sur Hacker News
  • Je me demande si quelqu’un pourrait m’expliquer l’intérêt d’une mémoire à l’échelle du compte (account-wide memory)
    Le marketing d’Anthropic affirme que les informations ne se mélangent pas entre les conversations, mais je suis très sensible à la protection de mon contexte, donc l’idée que même des informations résumées d’autres échanges puissent influencer le résultat me met mal à l’aise
    Pour des choses comme le style de code ou la longueur des réponses, je pense qu’on peut déjà suffisamment les régler avec des instructions personnalisées ou des Skills
    Au final, ce genre de fonctionnalité ressemble surtout à une UX pensée pour des usages grand public

    • J’utilise Claude Code dans plusieurs domaines au travail — développement d’apps internes, interface d’API SaaS, tâches générales, etc.
      Il y a un cercle vertueux : plus on l’utilise, plus il devient utile
      Par exemple, je lui ai fait relire des documents fiscaux après avoir branché la clé API QBO, et il a trouvé un poste d’amortissement que le CPA avait raté
      Ensuite, j’ai regénéré la déclaration dans un dossier totalement différent : elle était presque parfaite, sauf qu’il manquait justement la déduction qu’il avait repérée auparavant
      Pour moi, cette accumulation de contexte est essentielle pour améliorer la qualité des résultats
    • La plupart des utilisateurs ordinaires veulent que le LLM se souvienne de leurs goûts et centres d’intérêt
      Cela leur permet d’obtenir des conseils sans devoir tout réexpliquer à chaque fois
      Ils ne connaissent pas des notions comme le « contexte » ou les « limites de tokens », et pensent que le modèle sait tout en même temps
    • Quand j’utilise Claude en ligne, j’active souvent le mode incognito
      Je n’aime pas que les conversations précédentes influencent le résultat, mais ces derniers temps ça commence à devenir assez pénible
    • Au contraire, j’ai l’impression qu’on ne peut pas vraiment bien utiliser un LLM sans mémoire à l’échelle du compte
      Quand on pose des questions du type « Que devrait faire John ensuite sur le projet A ? », devoir réexpliquer à chaque fois qui est John et en quoi consiste le projet est inefficace
    • Quand j’ai brièvement utilisé ChatGPT, j’ai été surpris de voir une phrase du genre « ...since you already are using SQLite... »
      Il se souvenait d’un projet remontant à plusieurs mois
      On peut désactiver la mémoire, mais honnêtement je ne vois pas trop en quoi ce serait utile
  • Quelqu’un a partagé un exemple de prompt pour exporter les données
    C’est le genre d’instruction qui demande « affiche toutes mes données dans un bloc de code », et je me demande s’ils ne pourraient pas ralentir volontairement le traitement côté frontend pour ce type de requête
    Je pense qu’ils pourraient le faire pour atteindre leurs KPI

    • On dirait bien qu’il y a effectivement ce genre de manipulation
      Dans Claude 5.2, on n’obtient qu’une information très résumée, alors qu’avec 5.1 instant ou le modèle o3, le retour est bien plus détaillé
    • Bien sûr, ils pourraient utiliser ce genre de combine, mais on peut aussi détourner l’instruction « ne pas faire » pour forcer l’exécution dans l’autre sens
      Et surtout, ce type de pratique représenterait un risque réputationnel trop important pour avoir un réel intérêt
  • J’ai testé Codex, OpenCode, Claude Code et Cursor au cours des dernières semaines
    Chaque outil a sa propre manière de configurer les serveurs MCP ou ses propres conventions de nommage pour les fichiers AGENTS/CLAUDE, ce qui rend difficile la gestion d’une config universelle via des dotfiles
    Même pour des produits de grandes entreprises, ils n’ont toujours pas réglé des problèmes de base comme la latence TUI, la dépendance à Electron ou l’absence de support de XDG_CONFIG
    Claude semble mieux fonctionner dans son propre environnement, et il a beaucoup de fonctionnalités cachées comme /batch
    En plus, chaque éditeur manipule différemment les programmes dans la VM, ce qui rend le coût de migration élevé

  • Depuis que je suis passé à Claude, j’ai clairement l’impression que la limite de tokens se consume beaucoup plus vite
    Quelques questions de code suffisent pour atteindre la limite de session
    Avant, un Codex à 20 $ me suffisait, mais maintenant j’envisage l’offre Max

    • Moi aussi, je teste Claude Pro, mais par rapport à ChatGPT, ce n’est pas encore très impressionnant
      Codex corrigeait le problème immédiatement, alors que Claude fait souvent un mauvais diagnostic avant d’entrer dans une longue phase de correction, et au final on épuise la limite de 5 heures
    • À l’inverse, j’ai l’impression que Codex 5.2 est plus efficace pour coder et bien moins cher que Claude
  • Quelqu’un propose à Anthropic de « standardiser AGENTS.md en un seul format »

    • Avant, je pensais qu’Anthropic était non standard comme OpenAI
      Mais s’ils supportaient au moins les standards ouverts comme AGENTS.md ou /.agents/skills, ils gagneraient la confiance de la communauté
      La discussion associée est ici : GitHub #16345
    • Claude lit aussi les fichiers de contexte dans les dossiers parents, contrairement à Codex
      Du coup, conserver des noms de fichiers différents pourrait en fait réduire la confusion
    • Il suffit de créer un lien symbolique CLAUDE.md → AGENTS.md
      Ou bien de mettre simplement une ligne « @AGENTS.md » dans CLAUDE.md, et ça fonctionne aussi
    • C’est le bon moment pour faciliter la migration des utilisateurs de Codex
      La perte de valeur marketing serait minime, donc j’espère qu’Anthropic étudiera sérieusement cette proposition en interne
  • Je suis déjà passé complètement à Claude
    J’ai résilié mon abonnement ChatGPT et j’ai décidé de ne plus faire confiance à OpenAI
    Je pense qu’ils ont de fortes chances de faire mauvais usage de l’AGI

    • J’ai essayé Claude pour la première fois, et j’ai trouvé ses réponses courtes et allant à l’essentiel, ce qui m’a paru rafraîchissant
      Contrairement à ChatGPT, il n’est pas verbeux, et j’ai même eu l’impression de retrouver ma capacité de concentration
      Je compare encore la précision, mais la première impression est bonne
    • Claude est le seul modèle qui produise directement du code de niveau production dès le premier prompt
      Gemini ou ChatGPT cassaient souvent le code en modifiant des noms de variables ou des définitions
    • Je ne fais plus confiance à OpenAI depuis Sam Altman et l’affaire des scans d’iris Worldcoin
      Intuitivement, j’ai tout de suite senti que « quelque chose clochait »
    • Un jour, j’aimerais monter un petit serveur privé dans mon sous-sol, faire payer 10 $/mois à des amis et partager un modèle
      Un peu comme un serveur Minecraft personnel, géré sur la base de la confiance
    • Le « véritable mauvais usage » était peut-être l’objectif depuis le début
      Le service éthique n’était peut-être qu’un obstacle ralentissant l’accumulation de richesse
  • J’utilise Claude depuis plus d’un an, mais depuis le récent incident DoW, j’envisage des modèles alternatifs européens
    Je pense essayer Devstral 2, mais je me demande s’il se situe plutôt au niveau de Sonnet 3.5 ou de 4.5

  • J’ai des sentiments mitigés vis-à-vis de la fonctionnalité de « mémoire »
    Parfois, c’est presque magique, mais souvent c’est gênant à cause de la pollution du contexte
    Quand des traces d’anciennes conversations se mélangent aux nouvelles, la confiance diminue
    Du coup, je consulte régulièrement les mémoires enregistrées et je supprime les informations erronées
    Je me limite à mettre uniquement l’environnement de base (OS, langue, etc.) dans le prompt système
    Je pense qu’une personnalisation excessive rend le modèle plus fragile

    • Je pense à peu près la même chose
      J’utilise Claude Code pour gérer mes notes de recherche, et la mémoire a pour effet secondaire de rétrécir le champ d’exploration en fonction de mes centres d’intérêt
      En plus, il arrive que des informations absurdes se retrouvent en mémoire
      J’ai l’impression que les entreprises construisent ces systèmes de manière trop brouillonne (sloppy)
      Le blog de Vercel dit aussi que l’approche Agents.md est meilleure que Skills
      Quand on regarde des sites comme skills.sh, on voit beaucoup de skills de faible qualité
      Il est temps de se concentrer sur la finesse et la qualité plutôt que sur la vitesse
  • Chaque fois que je configure un nouvel environnement, j’aime repartir de zéro
    J’aime le processus qui consiste à explorer un nouveau système et à mettre mes préférences à jour

  • Leur manière de se présenter comme une « entreprise vertueuse » me dégoûte
    Avec leur coopération avec Palantir, ils ont pris en charge le sale boulot, puis ils ont nettoyé leur image avec de la RP
    J’espère que les modèles open source progresseront suffisamment pour qu’on n’ait plus à dépendre de ces grands groupes