Guides pratiques

Base de connaissances IA : comment donner une mémoire infaillible à votre PME (méthode Karpathy)

| | 9 min de lecture
Réseau de documents bruts entrant dans un cerveau IA géométrique indigo, qui génère des pages wiki structurées

L'essentiel

  • La méthode Karpathy transforme vos documents internes en une wiki vivante maintenue par l'IA — une connaissance qui se bonifie, pas qui se ré-invente à chaque requête.
  • L'architecture tient en 3 dossiers Markdown (raw / wiki / schéma) et peut être orchestrée avec n8n + Claude API sans équipe tech dédiée.
  • Pour une PME française, l'enjeu clé est la souveraineté : Obsidian stocke tout localement, vos données ne quittent pas votre infrastructure.

Vous avez probablement vécu cette scène : vous ouvrez une nouvelle conversation avec votre IA, vous tapez “bonjour”, et vous commencez à ré-expliquer votre entreprise depuis le début. Vos clients types. Votre positionnement. Vos process. Votre jargon interne. Encore.

C’est le syndrome du “Jour de la Marmotte” appliqué à l’IA : chaque session repart de zéro. Et pendant ce temps, des années de connaissances métier dorment dans des dossiers partagés que personne ne consulte, des emails que personne ne retrouve, des comptes rendus que personne ne relit.

En avril 2026, Andrej Karpathy — co-fondateur d’OpenAI et ex-directeur de l’IA chez Tesla — a publié un thread qui a atteint 20 millions de vues en quelques jours. Sa proposition est radicale dans sa simplicité : arrêtez d’utiliser les LLM pour générer du code ou des réponses éphémères. Utilisez-les pour compiler une mémoire persistante.

Voici comment une PME française peut orchestrer ce système — sans équipe tech dédiée.


Ce qu’Andrej Karpathy a découvert (et pourquoi 20 millions de personnes ont réagi)

Karpathy a formulé le problème avec une clarté désarmante : il passait un temps croissant à “manipuler du code” avec ses LLM, alors qu’il aurait dû “manipuler de la connaissance”. La distinction est fondamentale.

La plupart des gens utilisent ChatGPT, Claude ou Gemini comme des moteurs de génération ponctuelle. Vous posez une question, vous obtenez une réponse, la conversation se ferme, tout disparaît. Même les fonctionnalités “mémoire” intégrées dans ces outils ne font que stocker des préférences superficielles — pas la compréhension profonde de votre secteur, de vos clients, de vos procédures.

L’idée de Karpathy : utiliser l’IA pour maintenir une wiki Markdown vivante sur n’importe quel sujet de recherche. L’IA y dépose ses synthèses, ses analyses, ses connexions entre concepts. À chaque nouvelle source ingérée, elle enrichit ce qui existe déjà plutôt que de tout re-dériver.

Le résultat : Karpathy dispose aujourd’hui d’une wiki personnelle de plus de 100 articles et 400 000 mots, maintenue exclusivement par ses agents IA. Il ne l’a quasiment jamais écrite lui-même.

Le 3 avril 2026, sous la pression de la communauté, il a publié son Idea File — non pas un logiciel, mais un fichier texte décrivant l’architecture. Sa logique : dans l’ère des agents IA, partager l’“idée” suffit. L’agent se charge de la construction.


RAG vs LLM Wiki : la différence qui compte pour votre PME

Avant d’entrer dans l’architecture, il faut comprendre pourquoi cette approche diffère fondamentalement du RAG (Retrieval-Augmented Generation), qui est la technologie derrière la plupart des “chatbots sur vos documents” actuels.

Le RAG classique fonctionne ainsi : quand vous posez une question, le système parcourt vos documents bruts, extrait quelques passages pertinents, et génère une réponse à partir de ces extraits. À la prochaine question, il repart de zéro depuis les documents bruts. La connaissance ne s’accumule pas — elle est re-dérivée en permanence.

La LLM Knowledge Base fonctionne différemment : l’IA compile d’abord vos sources en pages de wiki structurées et interconnectées. Quand vous posez une question, elle consulte ces pages synthétisées — pas les documents bruts. Et chaque nouvelle question, chaque nouvelle source, enrichit la wiki plutôt que de la recréer.

DimensionRAG classiqueLLM Knowledge Base
PersistanceRéponses éphémèresConnaissance compilée permanente
AméliorationStatiqueSe bonifie à chaque source ajoutée
Raisonnement complexeLimité aux extraitsMulti-hop entre pages interconnectées
AuditabilitéEmbeddings opaquesMarkdown lisible, backlinks vérifiables
Coût long termeFixe (re-traite toujours)Amorti (capitalise)

Pour une PME, la conséquence est concrète : votre base de connaissances IA est un actif qui prend de la valeur avec le temps, pas un outil qui repart de zéro à chaque utilisation.


L’architecture concrète : 3 dossiers, 1 agent, 0 code

L’architecture de Karpathy tient dans une structure de fichiers. Aucune base de données. Aucun serveur d’embeddings. Aucune configuration complexe.

vault-entreprise/
├── raw/          ← Sources immuables — l'IA ne touche JAMAIS à ce dossier
│   ├── comptes-rendus/
│   ├── fiches-clients/
│   └── procedures/
├── wiki/         ← Domaine de l'IA — créé et maintenu par l'agent
│   ├── index.md        (catalogue de toutes les pages)
│   ├── log.md          (journal chronologique de toutes les opérations)
│   ├── concepts/
│   └── entities/
└── CLAUDE.md     ← Schéma : conventions et instructions pour l'agent

raw/ — le coffre-fort de vos sources

C’est ici que vous (ou vos automatisations) déposez les matières premières : comptes rendus de réunion, emails exportés, articles sectoriels, fiches techniques, transcriptions d’appels. L’IA n’y touche jamais — elle y lit uniquement.

wiki/ — la mémoire vivante

C’est le territoire de l’IA. Elle y crée des pages pour chaque concept important, chaque entité (client, fournisseur, produit), chaque procédure. Chaque page contient un frontmatter YAML avec ses sources, ses pages liées, sa date de mise à jour et un niveau de confiance. Un index.md tient à jour le catalogue complet — ce qui permet à l’IA de naviguer sans base vectorielle.

CLAUDE.md — le schéma de comportement

Ce fichier d’instructions définit les conventions que l’agent doit respecter : format des pages, règles de nommage, protocole d’ingestion, gestion des contradictions. C’est lui qui transforme un LLM générique en mainteneur discipliné de votre base de connaissances.

Obsidian sert de frontend visuel : graphe des connexions entre pages, recherche rapide, navigation. Tout reste en fichiers locaux — aucune donnée ne quitte votre infrastructure.


3 cas d’usage concrets pour une PME française

1. Capitaliser le savoir avant qu’il parte avec un collaborateur

Chaque PME perd des années de connaissance quand un collaborateur clé démissionne ou part à la retraite. Ses méthodes de travail, ses relations client, ses astuces techniques — tout s’évapore.

Avec une LLM Knowledge Base : chaque email important, chaque compte rendu de réunion, chaque procédure documentée est ingéré par l’agent. En 6 mois, la wiki contient la substance du travail d’un collaborateur — accessible et interrogeable par son successeur dès le premier jour.

2. Générer des propositions commerciales sur-mesure en 10 minutes

Un commercial qui répond à un appel d’offres passe en moyenne 4 à 8 heures à compiler des éléments éparpillés : cas clients similaires, argumentaires par secteur, réponses aux objections habituelles, conditions tarifaires.

Si ces éléments sont compilés dans une wiki IA (alimentée par les propositions passées, les retours clients, les CR de négociation), l’agent peut générer un premier draft de proposition en quelques minutes — ancré dans l’historique réel de l’entreprise, pas dans un template générique.

3. Résoudre les tickets support sans escalade systématique

Un centre de support qui traite les mêmes questions en boucle perd un temps considérable à chaque rotation de personnel. Les nouvelles recrues passent des semaines à découvrir les cas particuliers, les exceptions, les workarounds non documentés.

Une wiki IA alimentée par l’historique des tickets résolus, les notes des techniciens, les documentations produit, permet à un agent de proposer instantanément des solutions fondées sur les vraies résolutions passées — avec citation de la source exacte.


Comment orchestrer sans équipe technique : la stack n8n + Claude

La bonne nouvelle : vous n’avez pas besoin d’un développeur pour déployer ce système. L’orchestration low-code est aujourd’hui suffisamment mature.

La stack recommandée pour une PME française :

Sources → n8n → Claude API → Obsidian vault (local)

n8n (orchestrateur) : déclenche le flux quand une nouvelle source arrive. Par exemple : un email marqué d’un label “wiki” dans Gmail, un fichier déposé dans un dossier Google Drive, un formulaire rempli dans Notion. n8n peut être auto-hébergé pour un contrôle total des données.

Claude API : reçoit la source et les instructions du fichier schéma, génère les pages wiki en Markdown structuré selon les conventions définies.

Obsidian : reçoit les fichiers générés par Claude via n8n, les stocke localement dans la vault, permet la navigation et la visualisation du graphe.

Le workflow d’ingestion complet ressemble à ceci :

  1. Un collaborateur dépose un CR de réunion dans un dossier partagé
  2. n8n détecte le nouveau fichier (trigger)
  3. n8n appelle Claude API avec le contenu + le prompt d’ingestion défini dans CLAUDE.md
  4. Claude génère ou met à jour les pages wiki pertinentes
  5. n8n écrit les fichiers Markdown dans le vault Obsidian
  6. n8n met à jour index.md et log.md

Vous voulez savoir ce que ce système coûterait à déployer dans votre contexte — et ce qu’il vous rapporterait ? C’est précisément ce qu’on évalue ensemble lors d’un audit IA gratuit de 30 minutes : volume de documents à capitaliser, outils déjà en place, quick wins atteignables en 30 jours. Réservez votre créneau →

Un point sur le RGPD : la wiki étant stockée en local dans Obsidian, vos données restent sur votre infrastructure. Seul l’appel API à Claude implique un transit vers les serveurs d’Anthropic — ce que vous pouvez limiter aux contenus non confidentiels, ou traiter avec un modèle déployé en local (Ollama + LLaMA 3) pour les données sensibles.


Ce que L’Agence Sauvage peut construire pour vous

Décrire l’architecture est une chose. La déployer proprement — avec un schéma de wiki adapté à votre secteur, des flux n8n robustes, un protocole de gouvernance des sources et une formation de vos équipes — en est une autre.

Les PME qui se lancent seules dans ce type de projet buttent généralement sur trois points : la qualité du schéma initial (des conventions mal définies dès le départ contaminent toute la wiki), la fiabilité des flux d’ingestion (un trigger n8n qui échoue silencieusement sur certains types de fichiers), et la maintenance du CLAUDE.md quand la wiki évolue.

L’Agence Sauvage conçoit et déploie des architectures LLM Knowledge Base adaptées à votre métier : définition du schéma de wiki, mise en place des flux n8n, configuration des prompts d’ingestion, intégration avec vos outils existants (Gmail, Notion, Google Drive, HubSpot), et formation de l’équipe aux opérations courantes.

Le résultat : une mémoire d’entreprise opérationnelle en moins d’un mois, qui se bonifie automatiquement au rythme de votre activité.

Réservez votre audit IA gratuit (30 min) pour évaluer si cette architecture correspond à vos enjeux de capitalisation de connaissance.


Sources et références

Questions fréquentes

C'est un système dans lequel un agent IA compile progressivement des sources brutes (articles, PDF, comptes rendus) en une wiki Markdown persistante et interconnectée, stockée localement. À la différence du RAG classique qui re-dérive une réponse à chaque requête, la wiki se bonifie à chaque nouvelle source ingérée.

Le RAG récupère des extraits de documents bruts à chaque question et génère une réponse éphémère. La LLM Knowledge Base compile d'abord les sources en pages structurées qui persistent, s'interconnectent et s'enrichissent mutuellement. C'est la différence entre un stagiaire qui recherche dans les archives à chaque fois et un expert qui a intégré toute l'histoire de l'entreprise.

Non. L'architecture de base (Obsidian + Claude API + n8n) peut être déployée en quelques heures par un non-développeur. Obsidian est une application desktop gratuite, n8n propose une interface visuelle low-code, et Claude opère via des prompts en langage naturel. L'Agence Sauvage peut prendre en charge l'intégration complète.

Tout document textuel : comptes rendus de réunion, emails, contrats, fiches produit, procédures internes, articles sectoriels, transcriptions d'appels, tickets support, présentations. Le principe est que si votre équipe le produit ou le lit, l'IA peut l'ingérer et le capitaliser.

Oui. Obsidian stocke tout en fichiers Markdown locaux sur votre machine ou serveur. Aucune donnée ne transite via les serveurs Obsidian. Seul l'appel API à Claude (Anthropic) implique un traitement externe — ce qui est couvert par la politique de confidentialité d'Anthropic et peut être limité aux données non sensibles.

Franck Sauvage

Rédigé par

Franck Sauvage

Architectures IA et automatisation pour PME

Prêt à transformer votre entreprise avec l'IA ?

Réservez un audit gratuit de 30 minutes. Sans engagement.

Diagnostic découverte gratuit