RAGには根本的な欠点がある。質問するたびに、LLMは同じ知識をゼロから組み立て直す。蓄積がない。

Andrej Karpathyが2026年4月4日に公開したGitHub Gist「LLM Wiki」は、この問題を別のアプローチで解く。LLM自身に知識ベースをMarkdownファイルとして書かせ、ソースを追加するたびに育てていく仕組みだ。Gistは公開から1か月で5,000以上のスターを集め、複数のOSSが生まれている。

この記事でわかること:

  • RAGとLLM Wikiの本質的な違い
  • 3層アーキテクチャの役割
  • Ingest・Query・Lintという3つの操作フロー
  • 個人・チーム・研究での活用例

https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f

RAGが抱える「毎回ゼロから始める」問題

RAGは、ドキュメントをベクトルDBに格納し、質問のたびに関連チャンクを検索して回答を生成する。仕組みとして広く普及しているが、欠点がある。

知識が積み重ならない点だ。5つのドキュメントにまたがる複合的な質問をするたびに、LLMは同じ断片を拾い集め、毎回同じ推論をやり直す。合成や矛盾の発見、クロスリファレンスは会話が終わると消える。

Karpathyはこの問題を「再派生(re-derive)」と呼んで問題視する。NotebookLM、ChatGPTのファイルアップロード、一般的なRAGシステムはすべてこの方式だ。

コアアイデア:永続的に育つWiki

LLM Wikiのアイデアはシンプルだ。LLMにドキュメントを「検索させる」のではなく、「構造化されたWikiに統合させる」。

新しいソースを追加すると、LLMは次のことを一度だけ実行する。内容を読み込み、エンティティページや概念ページを作成・更新し、矛盾があれば既存ページに記録し、クロスリファレンスを貼る。この結果が永続するMarkdownファイルとして残る。

Gistの中でKarpathyは「Wikiは永続的に積み重なるアーティファクトだ。クロスリファレンスはすでにある。矛盾はすでに記録されている。合成はすべての読んだ内容を反映している」と述べている。ソースを追加するたびにWikiが充実し、質問のたびに情報が積み上がる。

3層のアーキテクチャ

構成要素は3つに分かれる。

Raw sources(生ソース)はLLMが読むだけで絶対に変更しない、不変のドキュメント群だ。論文、記事、データファイルなど、自分が集めたソースをここに置く。

WikiはLLMが書き、維持するMarkdownファイルの集合体だ。エンティティページ、概念ページ、概要、比較、合成などが含まれる。人間はここを読むが、書くのはLLMの仕事だ。

SchemaCLAUDE.mdAGENTS.md)はLLMに「Wikiの構造・規則・操作手順」を伝える設定ファイルだ。このファイルがLLMを汎用チャットボットではなく、規律ある編集者に変える。KarpathyはSchemaを「最も重要な設定ファイル」と位置づけており、使いながらLLMと一緒に育てていく。

3つの操作フロー

Ingestは新しいソースをWikiに取り込む操作だ。LLMはソースを読み、サマリーページを書き、インデックスを更新し、関連する10〜15ページを一度に更新する。バッチ処理もできるが、Karpathy自身は1件ずつ監督しながら取り込むスタイルを好む。

Queryは質問操作だ。LLMはまずindex.mdで関連ページを探し、読み込んで回答を合成する。回答自体も価値があればWikiの新しいページとして保存できる。「探索が知識ベースに蓄積される」という考え方だ。

Lintは定期的なWikiの健全性チェックだ。矛盾、孤立ページ、古くなった情報、未作成の概念ページなどをLLMに探させる。Wikiが大きくなるほどこの作業が重要になる。

人間の役割とLLMの役割

知識ベースの維持が続かない理由は、維持コストが価値の増加を上回るからだ。人間はクロスリファレンスを更新し、サマリーを見直し、矛盾を記録する作業に飽きる。

LLM Wikiでは、この「退屈な作業」をすべてLLMが担う。LLMは飽きず、クロスリファレンスの更新を忘れず、1回のセッションで15ファイルを更新できる。

人間の仕事はソースの収集、分析の方向付け、正しい質問をすることだ。Karpathyは「LLMをプログラマー、Wikiをコードベース、ObsidianをIDEとして使っている」と説明している。片側でLLMエージェントが編集し、もう片側のObsidianでリアルタイムにグラフビューを確認するスタイルだ。

使える場面

Karpathyが挙げる用途は幅広い。個人の知識管理(目標・健康・自己改善の記録)、特定トピックの長期研究(論文・記事を数週間かけて読み込んで合成する)、読書しながら章ごとに登録して登場人物と主題の相関Wikiを作る、企業内でSlackスレッドや会議録をWikiに統合するといった使い方が想定されている。競合分析、デューデリジェンス、コースノート、旅行計画など、知識を時間をかけて積み上げる作業全般に適用できる。

エコシステムの広がり

Gistのコメント欄は新しいOSSの発表の場になっている。NEXUS(6エージェントによるマルチエージェント記憶システム)、SwarmVault、Aura、llmwiki-cli、ΩmegaWiki、Linkなどのプロジェクトが、LLM Wikiパターンを起点に開発された。

LLM Wiki v2はAIコーディングエージェント向けに永続メモリエンジンとしてパターンを拡張している(参考)。検索ツールとしてはqmd(ローカルMarkdownのBM25/ベクトルハイブリッド検索、MCPサーバー対応)との組み合わせが推奨されている。

まとめ

LLM Wikiは「LLMに検索させる」から「LLMに書かせ、育てさせる」へのシフトだ。

RAGが毎回再派生を繰り返すのに対し、LLM Wikiは知識を一度合成して永続させる。実装は3つのフォルダとスキーマファイルだけで始められる。GistにはClaude Code・Codex・OpenCodeなど主要なAIエージェントへのコピー用のアイデアファイルとして使える形式で書かれており、試すハードルは低い。