Ton second cerveau dort. Ton LLM oublie. Branche les deux.
Tu ranges tes notes dans Obsidian, Notion ou un dossier. Tu poses tes questions à Claude ou ChatGPT. Les deux ne se parlent pas.
La Méthode LLM Wiki connecte les deux : un wiki que tu écris, que ton LLM lit à chaque session, qu'il enrichit page par page.
Livraison V1 le 11 mai 2026. V1.1 multi-outils le 25 mai 2026 (incluse pour les early birds). Paiement Stripe sécurisé. Facture PDF.
Brancher second cerveau et LLM
La question qu'on me pose en premier
« C'est pas juste la Memory de ChatGPT, ça ? »
Non. Et c'est même tout l'inverse.
Memory ChatGPT
- ·C'est elle qui choisit ce qu'elle garde.
- ·Tu ne peux pas l'ouvrir ni voir ce qu'il y a dedans.
- ·Limitée à quelques documents ou pages.
- ·Coincée chez un seul fournisseur.
Wiki LLM
- ·C'est toi qui décides ce qu'il contient.
- ·Tu l'ouvres, tu le relis, tu le modifies quand tu veux.
- ·Aucune limite : ton disque suffit.
- ·Tu changes de modèle demain et tu l'emportes.
La Memory est un sac.
Le wiki est une bibliothèque.
Le problème n'est pas l'outil.
C'est l'absence de système.
Ton dossier de notes ou documents contient 800 fichiers. Tu en relis 12. Le reste dort.
Tes conversations Claude valent de l'or. Demain elles auront disparu dans l'historique. Tu auras à ré-expliquer ton contexte, encore.
Tu as essayé Memory, Projects, custom GPTs. Chaque outil promet du contexte persistant. À l'arrivée : un sac noir que tu ne peux pas lire, pas mesurer, pas migrer.
Ce qui manque, ce n'est pas un outil de plus. C'est un système où tu écris, où ton LLM enrichit, où les deux relisent.
Pas un RAG. Pas un chat. Un wiki qui compose.
Un RAG (recherche enrichie par IA) retrouve l'information à chaque question. Tu modifies une source ? Il faut refaire toute l'indexation. Rien ne se capitalise, tu reconstruis en boucle.
Un chat répond et oublie. Tu repayes la même mise en contexte demain.
Le wiki LLM compose : chaque source ingérée enrichit 10 à 15 pages existantes. Chaque réponse intéressante devient une nouvelle page citée. Le wiki devient plus riche à chaque source et à chaque question.
Toi, le maître d'œuvre. Le LLM, l'apprenti. Le wiki, l'œuvre qui s'enrichit pièce après pièce.
Pattern LLM Wiki documenté par Andrej Karpathy en avril 2026.
Ce qu'il y a dans la méthode.
Six chapitres opérationnels. Plus 5 bonus pour démarrer le jour J.
Ce qui marche, et ce qui ne marche pas
- ·Tableau comparatif des 4 alternatives : tu sais où investir ton temps et où arrêter d'en perdre.
- ·L'effet de capitalisation démontré : tu vois comment une seule source enrichit 10 à 15 pages existantes.
- ·Catalogue des 3 pièges majeurs : tu évites le wiki qui pourrit en 3 semaines.
Une architecture en 3 couches qui ne dérive pas
- ·Découpage raw / wiki / schema : tu sépares ce que tu écris, ce que le LLM édite, ce que tu valides.
- ·Frontières de propriété documentées : tu poses les règles qui empêchent ton wiki de partir en vrille.
- ·Mandat précis pour le LLM : tu lui donnes un rôle clair, pas une liberté floue.
Le fichier qui transforme ton agent IA en mainteneur discipliné
- ·Template d'agent prêt à coller : opérationnel en 5 minutes, pas de config à inventer.
- ·5 garde-fous codés : citations obligatoires, validation humaine, liens vérifiés, zéro contenu inventé, log append-only.
- ·Étude de cas Wiki DamIA : choix faits, erreurs assumées, ce que je referais autrement.
Les 3 routines qui font tourner le wiki tout seul
- ·Routine Ingérer (6 étapes + scripts) : tu absorbes une source sans réfléchir au workflow.
- ·Routine Chercher (avec capture en page) : la réponse devient une page que tu ne paieras pas demain.
- ·Routine Vérifier (mensuelle, 4 contrôles) : tu repères ce qui se contredit, est périmé, est isolé.
Naviguer un wiki qui grossit, sans exploser ton budget LLM
- ·2 fichiers de navigation (catalogue + chronologie) : tu t'orientes dans 100, 500 ou 1000 pages.
- ·Chronologie grep-able de tes ingestions : utile quand tu te demandes « j'ai vu ça quand ? ».
- ·4 niveaux de lecture (200 à 20K tokens) : 0 € si tu as déjà un abonnement Claude Code Pro/Max, sinon 5 à 30 €/mois en pay-as-you-go selon ton volume.
Capturer en mobilité, traiter pendant que tu marches
- ·Pipeline capture vocale + transcription + ingestion : note vocale en marchant, traitée et rangée à ton retour.
- ·Lecture/édition mobile via Claude.ai : tu ouvres ton wiki depuis ton téléphone, pas besoin de Mac allumé.
- ·3 setups documentés (du plug-and-play au full custom) : tu choisis selon ton confort et ton infra.
Inclus avec la méthode
5 bonus pour démarrer le jour J
Tu n'achètes pas qu'une méthode. Tu achètes le kit complet pour passer à l'action.
Bonus principal
Checklist 30 jours pour démarrer
Ton plan d'action jour par jour. Tu sais quoi faire chaque semaine, tu n'as plus à improviser ni à te demander « bon, je commence par où ? ».
- →Semaine 1 : la structure et tes 3 premières sources ingérées
- →Semaines 2-3 : la routine quotidienne devient un automatisme (10 min par jour)
- →Semaine 4 : mesure de santé sur 4 indicateurs, décision continuer ou ajuster
+ 4 bonus opérationnels
- ✓
10 prompts Claude Code dépannage
quand ton agent bloque ou s'égare
- ✓
3 templates CLAUDE.md
perso, technique, business
- ✓
Scripts Ingérer et Vérifier
bash + Claude Code, prêts à l'emploi
- ✓
3 études de cas
Wiki DamIA + 2 cas vraisemblables
V1 Claude Code · V1.1 multi-outils
La V1 (livrée le 11 mai 2026) couvre Claude Code comme pattern de référence. La V1.1 (livrée le 25 mai 2026) ajoute les templates équivalents pour Codex CLI, OpenCode et Notion. Les acheteurs early bird reçoivent les deux versions, sans surcoût.
20 places early bird, fermeture le 11 mai 2026.
Pour qui.
La méthode est pour toi si
- Tu utilises un LLM tous les jours et tu veux qu'il connaisse ton contexte sans avoir à le re-coller à chaque session.
- Tu as un Obsidian, un Notion ou un dossier de notes que tu veux enfin faire vivre.
- Tu veux un wiki que tu lis, que tu mesures, que tu emportes d'un modèle à l'autre.
- Tu préfères écrire un fichier de 50 lignes plutôt que cliquer dans une UI.
Elle n'est pas pour toi si
- Tu cherches un SaaS clé en main avec compte utilisateur et UI graphique.
- Tu veux que la machine décide seule ce qu'elle retient.
- Tu refuses d'ouvrir un terminal ou de toucher à un fichier de configuration.
Pourquoi moi.

Damien Bihel
Conseil et formation
Agents IA · Data
18 ans en métrologie industrielle. J'ai passé ma carrière à mesurer la dérive des process, à détecter les écarts, à construire ce qui tient dans le temps.
Le pattern LLM Wiki documenté par Karpathy en 2026 a un trou béant : personne ne mesure la dérive du wiki dans le temps. Des affirmations périmées qui survivent. Des contradictions qui s'auto-renforcent. Des pages qui prolifèrent sans pilotage. C'est exactement ce que la métrologie industrielle sait diagnostiquer.
La méthode que tu achètes intègre dès la V1 ce que personne ne fait : mesurer si ton wiki reste vrai dans le temps. Pas en option, pas plus tard : un chapitre dédié (Vérifier), 4 indicateurs mesurables, une checklist de santé.
La méthode est extraite de ce qui tourne en production chez moi depuis 10 mois. Pas une théorie : du retour terrain.
Ce que tu achètes existe et tourne déjà
10
mois en production
900+
pages dans le wiki
0
contenu perdu
4
domaines portés (CRM, pipeline, contenus, décisions)
Pas un projet du week-end. Pas un POC. Le Wiki DamIA porte mon activité d'entrepreneur depuis 10 mois. La méthode est extraite de ce qui tient en production, pas d'une théorie.
Pré-vente early bird · 20 places
199 €soit 100 € d'économie
Jusqu'au 11 mai 2026
ou épuisement des 20 places. À partir du 12 mai : 199 € pour tous.
Paiement Stripe sécurisé · Facture PDF transmise automatiquement
Auto-entrepreneur, TVA non applicable (art. 293 B du CGI). Facture déductible à 100% pour ton activité pro.
30 jours de support inclus
Email direct avec moi, après la livraison
Inclus avec ta pré-commande
- V1 Claude Code livrée le 11 mai 2026 (guide + templates + scripts + vidéos pas-à-pas)
- V1.1 multi-outils livrée automatiquement le 25 mai 2026 (Codex, OpenCode, Notion)
- Support email pendant 30 jours après livraison
- Réponse à toute question avant achat sous 6h ouvrées
- Si la V1 ne correspond pas à ce que tu attendais le 11 mai 2026 : 1 RDV personnel de 30 min pour adapter à ton cas + crédit équivalent sur la prochaine version, sans question
Questions fréquentes.
C'est pas juste la Memory de ChatGPT ou Claude Projects ?+
Non. La Memory native, c'est la machine qui décide ce qu'elle retient, dans une boîte noire que tu ne lis pas, limitée à quelques documents, liée à un seul fournisseur. Le wiki LLM, c'est un fichier que tu écris, que tu lis, que tu mesures, que tu emportes d'un modèle à l'autre. La Memory est un sac. Le wiki est une bibliothèque.
C'est différent d'un RAG ?+
Oui. Un RAG (recherche enrichie par IA) retrouve l'information à chaque question. Aucune accumulation. Tu changes une source ? Tu réindexes tout. Le wiki LLM compose : chaque source ingérée enrichit 10 à 15 pages existantes, chaque réponse intéressante devient une nouvelle page. La connaissance grossit avec l'usage.
Je n'utilise pas Claude Code, je suis sur Codex, OpenCode ou Notion. C'est mort ?+
Non. La V1 livrée le 11 mai 2026 contient les templates Claude Code (le pattern de référence). La V1.1 livrée le 25 mai 2026 aux acheteurs early bird inclut les équivalents pour Codex CLI, OpenCode (AGENTS.md) et Notion (page Instructions + Notion AI). Le concept de schema d'agent est indépendant de l'outil.
J'utilise Logseq, un dossier brut, autre chose qu'Obsidian. Ça marche ?+
Oui. Le pattern est agnostique. Obsidian rend l'usage confortable (graph, backlinks, plugins) mais n'est pas requis. Tout dossier de fichiers convient : Logseq, Foam, Dendron, ou simplement un dossier dans VS Code. Le schema d'agent, les routines et la navigation restent identiques.
Je ne suis pas développeur. Je peux suivre la méthode ?+
Oui. Le schema d'agent (le fichier qui code les règles de ton wiki) est un fichier texte, pas du code. Si tu sais éditer un fichier texte, tu sais l'écrire. Les scripts Ingérer et Vérifier sont prêts à coller, pas à programmer. Le seul prérequis : ouvrir un terminal une fois pour lancer ton agent IA.
Pourquoi un fichier plutôt qu'une app dédiée ?+
Parce qu'un fichier texte survit à n'importe quel changement d'outil. Tu peux migrer Obsidian vers Notion vers VS Code vers un dossier brut sans perdre une ligne. Le wiki t'appartient, pas à un éditeur logiciel.
Pourquoi pas juste un connecteur MCP vers Google Drive ou OneDrive ?+
Un connecteur MCP donne l'accès aux fichiers. Il ne donne pas la méthode. Sans schema d'agent, sans routine d'ingestion, sans contrôle de dérive, ton wiki devient un sac de fichiers en 3 semaines. La Méthode LLM Wiki est la couche de gouvernance au-dessus de l'outil. Elle fonctionne avec un connecteur MCP, avec Obsidian, ou avec un simple dossier : l'outil change, la discipline reste.
Ça coûte combien en tokens LLM par mois ?+
0 € si tu as déjà un abonnement Claude Code Pro ou Max : c'est inclus dans ton forfait. Sinon, compter 5 à 30 € par mois en pay-as-you-go selon ton volume et le modèle. Un Ingérer moyen (1 source, 10 à 15 pages mises à jour) consomme entre 0,10 et 0,40 € sur Claude Sonnet. Le Vérifier mensuel : 1 à 3 €. Détaillé dans la checklist 30 jours.
Combien de temps pour démarrer concrètement ?+
La checklist 30 jours (bonus principal de la méthode) te donne le rythme : structure et 3 sources la première semaine, routine quotidienne semaines 2 et 3, premier contrôle de santé en semaine 4. Le setup initial (schema d'agent + dossiers) prend une heure si tu suis le template.
Et si mon wiki commence à dériver (contradictions, pages mortes) ?+
C'est précisément ce que la méthode adresse, frontalement, pas en option. Le chapitre 4 décrit la routine Vérifier : un contrôle périodique qui détecte contradictions, affirmations périmées, pages orphelines, références manquantes. Le bonus principal te donne 4 indicateurs de santé à mesurer chaque mois.
Et si Claude Code, Anthropic ou un autre outil disparaît demain ?+
Tout ce que tu construis avec la méthode est en fichiers texte que tu possèdes. Si Anthropic ferme demain, ton wiki reste lisible, éditable, transférable vers n'importe quel autre LLM (GPT, Gemini, Mistral, Llama en local). Le schema d'agent se réécrit en 30 minutes pour un autre outil. La méthode parie sur le pattern, pas sur le fournisseur.
Pourquoi 99 € maintenant et 199 € ensuite ?+
L'early bird est limité à 20 places et fermé le 11 mai 2026. Tu paies moitié prix parce que tu achètes la V1, pas la V1.1 (livrée gratuitement aux early birds le 25 mai 2026). À partir du 12 mai, le prix passe à 199 € pour tout le monde.
Mises à jour ?+
Les early birds reçoivent automatiquement la V1.1 multi-outils le 25 mai 2026, sans surcoût. Les évolutions ultérieures feront l'objet d'une communication séparée.
Remboursement ?+
Le produit étant un contenu numérique livré immédiatement (V1 le 11 mai 2026 pour les early birds), le droit de rétractation légal ne s'applique pas (article L.221-28 13° du Code de la consommation). Mais si la V1 ne correspond pas à ce que tu attendais le 11 mai 2026 : 1 RDV personnel de 30 min pour adapter à ton cas + crédit équivalent (99 €) sur la prochaine version, sans question. Si tu rencontres un problème de téléchargement, écris à damien.bihel@darkdatalabs.fr.
Ton second cerveau dort. Ton LLM oublie.
Branche les deux.
20 places · Fermeture le 11 mai 2026
Construire mon Wiki LLM (99 €)Tu hésites ? On en parle.
15 minutes en visio pour vérifier que la méthode colle à ton cas. Sans engagement.
Réserver 15 min sur Cal.com →Ou par email : damien.bihel@darkdatalabs.fr · réponse sous 6h ouvrées.