Retour à Apprendre
Tuto · 05 · IA & Outils

Le LLM Wiki,
ton deuxième
cerveau.

Karpathy a partagé en 2026 un pattern simple mais puissant : au lieu d'un RAG classique qui cherche dans tes docs à chaque question, l'IA construit et maintient un vrai wiki qui s'enrichit à chaque nouvelle source. Un vrai deuxième cerveau, qui se compile et s'affine. Je t'explique le concept et comment te le monter.

12 min de lecture Niveau Curieux Idée Pas un outil
Jérémy Sagnier · Entrepreneur · pas dev · teste l'IA tous les jours Publié 11 avril 2026 · MAJ 20 avril 2026
En 30 secondes

Ce que tu vas apprendre

— Avant de te lancer

À partir de quand ça vaut vraiment le coup.

Sois franc avec toi-même : ce pattern n'est pas pour tout le monde. Voici mon seuil personnel, en fonction du volume de sources que tu comptes accumuler.

< 10

Moins de 10 sources · Non

C'est disproportionné. Utilise les Projects dans Claude.ai — tu téléverses tes 5-10 documents, tu converses, c'est réglé en 2 minutes. Pas besoin de schema, pas besoin d'Obsidian, pas besoin de Claude Code. Pas besoin de monter une machinerie complexe.

10-50

10 à 50 sources · Oui si tu requêtes chaque semaine

Le bon équilibre arrive quand tu reviens régulièrement dessus. Veille IA, R&D produit, analyse concurrentielle, revue de presse d'un secteur. Si tu ouvres le wiki 1×/semaine minimum, ça vaut la mise en place. Sinon, encore trop tôt.

50+

50 sources et plus · Oui clairement

À ce volume, tu ne retrouves plus ce que tu as accumulé sans wiki. Tu relis 3 fois les mêmes articles. Tu oublies les connexions que tu avais faites. Le wiki devient ton seul moyen de capitaliser. Au-delà de 100 sources, c'est non-négociable.

LLM Wiki vs les alternatives — lequel choisir ?

Le LLM Wiki n'est pas le seul outil qui gère une base de connaissances personnelle avec une IA. Voici la comparaison honnête pour t'aider à trancher.

Outil Volume utile Compétence Accumule ? Pour qui
Claude Projects ~50 documents Zéro (web) Non — retrieval à chaque question Non-dev, usage ponctuel, tu démarres
NotebookLM Jusqu'à 300 sources Zéro (web) Non Étude, recherche d'un sujet précis, gratuit
Notion AI + agents Illimité Faible (no-code) Partiel Équipe déjà sur Notion
LLM Wiki (Karpathy) 100 à 500 pages Claude Code basique Oui, explicitement Curieux patient, sujet unique qui grossit
GraphRAG (Microsoft) 10 000+ documents Dev Python sérieux Oui (graphe d'entités) Équipe tech, très gros corpus

Tu n'es pas à l'aise avec la ligne de commande ?

Commence par Claude Projects ou NotebookLM. Tu auras 80% des bénéfices d'un LLM Wiki sans toucher à Claude Code. Quand tu butes sur la limite (volume, accumulation, maintenance), tu migres vers le vrai pattern Karpathy. Pas l'inverse.

— Le problème

Pourquoi le RAG ne suffit pas.

Tu connais le fonctionnement classique : tu uploades tes documents dans NotebookLM / ChatGPT / n'importe quel RAG. Tu poses une question. L'IA cherche les extraits pertinents, te répond. Ça marche.

Mais il y a un problème fondamental que Karpathy pointe : rien ne s'accumule. L'IA recommence de zéro à chaque question. Si tu lui poses une question subtile qui nécessite de synthétiser 5 docs, elle doit les retrouver et les recoller à chaque fois. Aucune trace de ce que tu as déjà découvert. Aucune synthèse qui s'améliore. Aucune connexion qui se construit.

RAG classique

Retrieve à chaque fois

L'IA part des documents bruts à chaque question. Elle recrée la synthèse depuis zéro. Rien ne s'affine. Tu dépends 100% de la qualité de la recherche du moment.

LLM Wiki

Accumulation compilée

L'IA construit un wiki persistant qui s'enrichit à chaque source. Les connexions sont déjà faites. Les contradictions sont déjà notées. La synthèse est déjà prête.

"Le wiki est un actif persistant qui s'enrichit. Les références croisées sont déjà là. Les contradictions ont déjà été signalées. La synthèse reflète déjà tout ce que tu as lu." — Formulation dérivée du gist de Karpathy (avril 2026)

La métaphore qui clique

Un RAG classique, c'est comme si tu avais un bibliothécaire qui ne connaît pas les livres, les lit uniquement quand tu poses une question, puis les oublie. Un LLM Wiki, c'est un bibliothécaire qui a lu chaque livre, a pris des notes, fait des fiches, relié les concepts entre eux. Quand tu lui poses une question, il répond depuis sa propre compréhension déjà construite.

Nuance importante : les RAG modernes (GraphRAG de Microsoft, Mem0, Zep) font aussi de l'accumulation. La vraie différence du LLM Wiki, c'est que l'accumulation est explicite et lisible par un humain (du markdown que tu peux ouvrir dans Obsidian), alors que les RAG modernes stockent tout dans des embeddings vectoriels opaques.

— L'architecture

Les 3 couches.

Le système repose sur une séparation claire entre ce qui est fixe, ce que l'IA écrit, et ce qui la guide.

Couche 01 · Immutable
Raw sources

Tes documents d'origine : articles, papers, transcripts, captures, PDFs. L'IA les lit mais ne les modifie jamais. C'est ta source de vérité. Tu curates cette couche toi-même.

Couche 02 · LLM-owned
Le wiki

Un dossier de fichiers markdown que l'IA possède entièrement. Pages d'entités, pages concepts, comparatifs, index, synthèses. Elle crée, met à jour, maintient les cross-références. Toi tu lis, elle écrit.

Couche 03 · Co-évolutive
Le schema

Un fichier type CLAUDE.md ou AGENTS.md qui définit comment le wiki est organisé, les conventions, les workflows. C'est ce qui transforme ton LLM d'un chatbot générique en mainteneur discipliné du wiki. Tu l'ajustes avec le temps.

La combinaison recommandée par Karpathy

L'IA d'un côté, Obsidian de l'autre. L'IA fait les modifs via conversation, tu regardes les résultats dans Obsidian en temps réel (follow links, graph view, pages mises à jour). Analogie : "Obsidian est l'IDE, le LLM est le programmeur, le wiki est le codebase".

— Comment ça marche

Les 3 opérations.

Trois actions à maîtriser — tout le reste en découle.

01

Ingest · Tu ajoutes une source

Tu déposes un article, une publication, une transcription. Tu dis à l'IA : "traite cette source". Elle :

  • Lit le document
  • Discute avec toi des points clés
  • Écrit une page de résumé dans le wiki
  • Met à jour l'index
  • Met à jour les pages d'entités et concepts pertinentes dans tout le wiki
  • Ajoute une entrée au log

Une seule source peut toucher 10-15 pages du wiki. C'est ça le compound effect.

02

Query · Tu poses une question

L'IA cherche dans le wiki (pas les documents bruts — le wiki), lit les pages pertinentes, synthétise une réponse avec citations. La réponse peut prendre plusieurs formes : markdown, tableau comparatif, slide deck, graphique.

Le détail clé : une bonne réponse peut être intégrée au wiki comme nouvelle page. Une comparaison intéressante, une analyse, une connexion que tu as trouvée — ça ne disparaît plus dans l'historique de conversation. Ça devient un actif permanent.

03

Lint · Tu maintiens la qualité (mensuellement)

C'est l'opération que beaucoup d'articles dérivés oublient — pourtant Karpathy y insiste. Tu demandes à l'IA de vérifier la santé du wiki : liens cassés, doublons, contradictions entre pages, entités mal nommées, incohérences de style.

Sans cette passe, le wiki dérive en silence. Avec elle, il reste propre même à 100 ou 200 pages. Une fois par mois suffit si tu ingestes ~1 source par jour.

Les 3 pièges qu'on ne te dit pas assez

  1. Dérive épistémique — si l'IA hallucine au moment de l'ingestion (un nom mal orthographié, une date fausse, un résumé inexact), l'erreur devient permanente et contamine tous les ingests suivants. Relis toujours la page de résumé juste après la création.
  2. Duplication silencieuse — 3 sources sur le même sujet créent souvent 3 pages presque identiques. Sans règle explicite de merge dans ton schema, tu te retrouves vite avec un wiki pollué. La passe de lint mensuelle est là pour ça.
  3. Coût tokens réel — un ingest touche 5 à 15 pages = 20 000 à 50 000 tokens en sortie. À 15$ le million de tokens (Claude Sonnet), compte 0,5 à 1$ par source. 100 sources = 50 à 100$. Pas catastrophique, mais à savoir avant de foncer.
— Pour quoi l'utiliser

5 cas d'usage concrets.

1. Personnel · Track ta vie

Journal, articles que tu as aimés, podcasts écoutés, progression santé, objectifs. L'IA archive chaque entrée et construit une image structurée de qui tu es et où tu vas. Dans 2 ans tu peux demander "qu'est-ce qui a le plus changé dans ma vision du travail ?" et avoir une vraie réponse.

2. Recherche · Deep dive un sujet

Tu veux maîtriser un domaine (IA, Europe fiscale, physique quantique). Tu ingests 50 papers, 30 articles, 10 podcasts sur plusieurs semaines. Ton wiki devient une référence exhaustive et personnelle sur le sujet. Ta thèse évolue avec chaque source.

3. Lecture d'un livre · Fan wiki personnel

Tu lis Seigneur des Anneaux. À chaque chapitre, tu ajoutes le texte. L'IA construit des pages pour les personnages, les lieux, les événements, les thèmes. À la fin, tu as ton propre Tolkien Gateway — riche, interconnecté, personnel.

4. Business/team · Wiki vivant

Un wiki interne alimenté par vos Slack, transcripts de réunions, docs produits, appels clients. L'IA maintient, les humains valident. Le wiki reste à jour parce que personne n'a à le maintenir manuellement.

5. Veille concurrentielle / Due diligence

Tu pitches des investisseurs. Tu veux connaître tes concurrents. Ingests leurs sites, articles, interviews de fondateurs. Ton wiki devient une arme d'intelligence compétitive.

6. Wiki client agence · Le cas le plus parlant

Exemple Julie, agence com 5 personnes. Chaque client = 1 dossier. Dedans tu mets : briefs, comptes-rendus, transcripts Zoom, moodboards, livrables passés. Quand un client t'appelle 6 mois plus tard pour une relance, tu demandes à Claude Code "résume-moi où on en était avec [client]" → il te sort un brief en 20 secondes, sans relire 40 documents. C'est ce qui transforme tes réunions en "je suis préparé" au lieu de "je ne me souviens plus exactement".

— Comment s'y lancer

Setup minimal.

C'est un pattern, pas un outil. Pas de pip install. Tu le construis en collaboration avec ton agent IA. Voici la recette minimale :

01

Crée ton dossier projet

mkdir mon-wiki
cd mon-wiki
mkdir sources wiki

sources/ = tes raw docs. wiki/ = ce que l'IA va maintenir.

02

Crée le schema (CLAUDE.md)

Un fichier qui dit à l'IA comment travailler. Exemple minimal :

# Wiki Schema

Tu es le mainteneur d'un wiki personnel sur [SUJET].

## Structure
- wiki/index.md — vue d'ensemble
- wiki/entities/ — personnes, entreprises, outils
- wiki/concepts/ — idées, frameworks
- wiki/summaries/ — résumés des sources

## Workflow ingest
1. Lis la source
2. Discute-en avec moi
3. Crée un résumé dans wiki/summaries/
4. Update les entities/concepts touchés
5. Update l'index
03

Lance Claude Code dans le dossier

claude

Dis : "Lis CLAUDE.md. Je vais te donner ma première source, traite-la selon le workflow.". Dépose ton premier document. L'IA commence à construire ton wiki.

04

Installe Obsidian (optionnel mais recommandé)

Ouvre wiki/ comme vault Obsidian. Tu peux naviguer dans ton deuxième cerveau en temps réel : graph view, links, recherche.

obsidian.md

À quoi ressemble ton wiki quand il tourne

Claude Code t'affiche les fichiers qu'il lit (wiki/sujets/ia-entreprise.md), les contradictions qu'il détecte (il crée un fichier contradictions.md s'il en trouve), les nouveaux sujets qu'il propose. Tu valides ou tu dis "non, pas ce sujet" — il apprend tes critères dans le schema. À chaque ingest, tu vois défiler en clair : "j'ai lu ta source, j'ai créé summaries/2026-04-podcast-hormozi.md, j'ai mis à jour entities/hormozi.md et concepts/offer-stack.md, j'ai ajouté 1 entrée au log". Rien de magique, tout est traçable.

Le piège à éviter

Ne cherche pas à automatiser tout dès le début. Karpathy insiste : reste impliqué au départ. Lis les résumés de l'IA, corrige-la, guide-la sur ce qui compte. Elle apprend ton style. Ton schema évolue. Plus tard tu pourras batcher. D'abord tu cadres.

— Ce que ça change

Pourquoi c'est au-dessus d'un RAG.

Après quelques semaines d'usage, voici ce que tu constates :

Mon plan personnel

Je lance mon premier LLM Wiki ce mois-ci sur "IA appliquée au business". Objectif : en 3 mois, avoir le wiki le plus complet que je pourrai consulter ou partager. Je ferai un tuto dédié avec mon setup précis — inscris-toi à la newsletter si tu veux suivre.

— Ressources

Pour creuser directement.

Tu repères une erreur ?

Une info obsolète, un chiffre qui a bougé, une source périmée ? Écris-moi à sagnier.jeremy@gmail.com · je corrige en 48h max et je note la date de MAJ en haut de l'article. Les retours terrain valent mille fois les articles — je lis tout, je réponds.

— Et maintenant ?

Prochains tutos en préparation.

Je prépare un tuto pas à pas sur mon propre LLM Wiki : quelle stack, quel schema, quelles premières sources. Inscris-toi pour ne pas manquer ça.

Voir les newsletters →
Partage

Cet article t'a servi ? Dis-le.