Retour aux articles
10 min readTechnical

Construire votre propre cerveau : comment fonctionne le systeme de memoire d'OpenClaw Mode

OpenClaw Mode se souvient de vos preferences, de vos conversations passees et du contexte a travers chaque session. Voici une plongee technique dans le fonctionnement de la memoire persistante de l'IA.

Chaque conversation avec une IA repart de zero. Vous ouvrez un nouveau chat, et l'assistant n'a aucune idee de qui vous etes, sur quoi vous travaillez, ou de ce que vous lui avez demande hier. Vous vous repetez constamment. Vous re-expliquez votre stack technique, vos preferences, vos flux de travail. C'est epuisant, et c'est le principal point de friction dans l'utilisation quotidienne de l'IA.

OpenClaw Mode a ete concu pour eliminer entierement ce probleme. Voici une plongee technique dans le fonctionnement de son systeme de memoire, pourquoi c'est important, et comment le configurer pour votre usage.

Le probleme de la memoire en IA

Les grands modeles de langage modernes ont une contrainte fondamentale : la fenetre de contexte. Meme les meilleurs modeles plafonnent a quelques centaines de milliers de tokens. Cela semble beaucoup jusqu'a ce que vous realisiez qu'une seule semaine de conversations, d'e-mails et de documents peut facilement depasser cette limite.

Les assistants cloud comme ChatGPT, Siri et Alexa gerent cela en oubliant tout simplement. Chaque session repart a zero. Certains proposent un historique de conversation, mais il est superficiel. Vous ne pouvez pas demander a ChatGPT "qu'est-ce que je t'ai dit sur mon processus de deploiement il y a trois semaines ?" et obtenir une reponse utile.

Le fine-tuning est l'autre approche, mais il est couteux, lent et peu pratique pour des preferences personnelles qui changent chaque semaine. Vous n'allez pas re-entrainer un modele chaque fois que vous passez de Vercel a Cloudflare.

Le resultat est que les assistants IA actuels sont amnesiques. Ils sont puissants sur le moment mais inutiles dans la duree. OpenClaw Mode adopte une approche completement differente.

Comment OpenClaw Mode resout le probleme

OpenClaw Mode fait fonctionner un systeme de memoire local qui combine plusieurs techniques :

  • Base de vecteurs locale: : Les conversations et les faits sont vectorises et stockes dans une base de donnees vectorielle sur votre machine. Lorsque vous posez une question, les souvenirs pertinents sont recuperes et injectes dans le contexte.
  • Historique des conversations: : Les transcriptions completes des interactions passees sont stockees localement, consultables et navigables.
  • Apprentissage des preferences: : Les preferences explicites ("Je prefere TypeScript a JavaScript") sont extraites et stockees sous forme de donnees structurees.
  • Injection de contexte: : Avant chaque appel au LLM, OpenClaw Mode assemble une fenetre de contexte qui inclut les souvenirs pertinents, les preferences et l'historique recent des conversations.
  • Cela signifie que chaque conversation avec OpenClaw Mode s'appuie sur la precedente. Votre assistant devient plus intelligent au fil du temps, non pas parce que le modele change, mais parce que le contexte qu'il recoit s'enrichit.

    Architecture de la memoire

    Le systeme de memoire d'OpenClaw Mode fonctionne sur trois couches :

    Memoire a court terme (Conversation)

    C'est le tampon de conversation actif. Il contient l'echange en cours et fonctionne exactement comme la fenetre de contexte de n'importe quel chatbot. Pendant une conversation, OpenClaw Mode a un acces complet a tout ce qui a ete dit dans la session en cours.

    Memoire a moyen terme (Session)

    La memoire de session fait le pont entre les conversations individuelles. Elle suit ce sur quoi vous avez travaille recemment, les projets actifs et les taches en cours. Lorsque vous demarrez une nouvelle conversation, la memoire de session assure la continuite. Si vous debuggiez un probleme de deploiement hier, OpenClaw Mode le sait quand vous revenez aujourd'hui.

    Memoire a long terme (Persistante)

    C'est la ou OpenClaw Mode se distingue veritablement. La memoire a long terme stocke :

  • Les preferences personnelles et les choix de configuration
  • Les faits appris sur votre environnement (OS, outils, structure d'equipe)
  • Les decisions historiques et leurs resultats
  • Le contexte relationnel (avec qui vous travaillez, ce qu'ils font)
  • Les connaissances de projet qui persistent indefiniment
  • La memoire a long terme est stockee dans une base de donnees SQLite locale avec des embeddings vectoriels pour la recherche semantique. Rien ne quitte votre machine.

    Exemples pratiques

    Voici a quoi ressemble la memoire en pratique :

    Stockage des preferences : Dites a OpenClaw Mode "Je prefere TypeScript a JavaScript" une seule fois. Chaque future generation de code utilisera TypeScript par defaut. Pas besoin de le repeter.

    Connaissance de l'environnement : "Je deploie sur Vercel" devient un fait permanent. Quand vous demandez a OpenClaw Mode de mettre en place un nouveau projet, il configurera automatiquement un deploiement compatible Vercel.

    Connaissance de l'agenda : "Mon standup d'equipe est a 9h" est stocke et utilise pour les suggestions de planification, le timing des rappels et les briefings proactifs.

    Contexte de projet : "Le module d'authentification utilise JWT avec des refresh tokens stockes dans des cookies httpOnly." Ce type de connaissance architecturale persiste a travers les sessions, permettant a OpenClaw Mode de donner des conseils eclaires des semaines plus tard.

    Configuration de la memoire

    Le systeme de memoire d'OpenClaw Mode est configurable via YAML :

    memory:
      enabled: true
      storage:
        type: sqlite
        path: ~/.openclaw/memory.db
      vector:
        model: all-MiniLM-L6-v2
        dimensions: 384
      retention:
        short_term: 1h
        medium_term: 7d
        long_term: forever
      preferences:
        auto_extract: true
        confirm_before_storing: false
      limits:
        max_context_memories: 20
        max_preference_entries: 500

    Vous pouvez ajuster l'agressivite d'extraction des preferences, le nombre de souvenirs injectes dans chaque conversation, et la duree de persistence des differents niveaux de memoire.

    Memoire + Actions = Intelligence

    La memoire seule est utile mais limitee. Ce qui rend OpenClaw Mode veritablement puissant, c'est la combinaison de la memoire et de la capacite d'agir en consequence.

    Considerez ce scenario : OpenClaw Mode se souvient que vous deployez sur Vercel, que l'URL de votre environnement de staging suit un schema specifique, et que vous preferez lancer les tests avant de deployer. Quand vous dites "deploie les derniers changements", OpenClaw Mode ne se contente pas de lancer une commande de deploiement. Il lance d'abord votre suite de tests, deploie en staging et vous envoie l'URL de preview dans le format que vous attendez.

    Ce n'est pas un comportement scripte. C'est emergent, issu de la memoire accumulee et de la capacite de l'agent a agir concretement sur votre machine. La memoire fournit le contexte. Les actions fournissent la capacite. Ensemble, ils produisent une intelligence veritable.

    Autre exemple : OpenClaw Mode sait que votre standup d'equipe est a 9h, que vous travaillez sur l'integration des paiements, et que le pipeline CI a echoue cette nuit. A 8h45, il vous envoie un briefing proactif : "Votre standup est dans 15 minutes. Le PR paiements a un test en echec dans le gestionnaire de webhooks. Voici l'erreur et une correction suggeree."

    Confidentialite par conception

    Chaque octet de donnees de memoire est stocke localement sur votre machine. La base vectorielle, l'historique des conversations, le stockage des preferences : tout est local. Rien n'est transmis a un service cloud.

    Quand OpenClaw Mode fait un appel API au LLM, il envoie le contexte assemble (qui inclut les souvenirs recuperes), mais la base de donnees de memoire brute ne quitte jamais votre materiel. Vous pouvez inspecter, modifier et supprimer n'importe quel souvenir a tout moment.

    Pour une confidentialite maximale, vous pouvez faire fonctionner OpenClaw Mode avec un modele local via Ollama ou similaire, ce qui signifie qu'aucune donnee ne quitte votre machine a aucun moment.

    Votre memoire, vos donnees, votre controle. C'est la promesse fondamentale.

    Pour commencer

    Installez OpenClaw Mode et le systeme de memoire est active par defaut :

    curl -fsSL https://openclaw.ai/install.sh | bash
    openclaw onboard

    Commencez a avoir des conversations, et OpenClaw Mode commencera immediatement a construire sa comprehension de vous. Plus vous l'utilisez, plus il devient utile. C'est tout l'interet.