執筆:Biteye コア貢献者 Shouyi \*全文約 2300 字で、読了時間は 6 分の見込み 毎日 AI に材料を食べさせても、向こうはすぐ忘れる;Token を狂ったように燃やして、ナレッジベースの最後は全部「未完成物件」? 元 OpenAI 共同創業者 / Tesla AI ディレクターの Andrej Karpathy @karpathy が、究極の解法を示したばかりです。4 月 3 日、彼は再生回数 1700 万超のツイートを投稿し、ハードコアなガイド llm-wiki をオープンソース化しました。 このガイドは 5000+ Stars を獲得し、大規模モデルで個人のナレッジベースを構築し、「盲目的に Token を燃やす」ことに別れを告げ、知識をデジタル資産のように「自動で利息を生む」ようにします。 今日、小編はあなたのために、この一流どころも使っている実用チュートリアルを徹底的にハードに分解します! 01 なぜ以前、あなたのナレッジベース作りはいつも失敗するのか?構築を始める前に、まず最もよくある 2 つの失敗パターンを理解し、同じ轍を踏まないようにしましょう。 1. 伝統的な RAG(検索強化) この手法の最大の痛点は、Token を燃やすのに「忘れっぽい」ことです。数万字の暗号資産業界のホワイトペーパーや最新の AI 論文を投げると、必死に読み終えて、あなたに節約版のまとめを返してくれます。ところが来週、あなたが「先週のあのプロジェクトと、今日のこの競合って何が違う?」と聞くと、当時の乾いたまとめのほんの一部しか覚えていません。毎回の呼び出しが断片的な検索に依存していて、知識が構造化された形で蓄積されないため、Token の消費が極めて大きいのです。 2. 伝統的な Wiki(手作業のメモ) この手法の特徴は、完全に手作業で作り込むことです。タグ付け、双方向リンク作り、目次の構築……Karpathy は一言で核心を突きました:「知識整理でいちばん面倒なのは、読んで考えることではなく、“帳簿付け”(分類、レイアウト)です。」 人間は疲れますが、AI は常にオンライン。かつてこの“汚れ仕事”のすべてを人間が無理やり背負ってきた結果、当然ながら途中で投げ出してしまうのです。 02 論理の分解:LLM Wiki の「完全自動の流れ作業」 Karpathy の案の核心は、役割の入れ替えです。あなたは「材料を集める人」に徹するだけで、汚い作業や重労働はすべて AI に任せます。このシステムは 3 つの論理階層で構成されています。 第一層:原材料庫(入れるだけで出さない) 普段あなたが目にする詳細な調査レポート、長文ツイート、AI チュートリアル、ポッドキャストの録音をそのまま放り込みます。ここは絶対的な「唯一の真実のソース」です。大規模モデルは見るだけで、絶対に変更できません。 第二層:Wiki 中核エリア(AI が全権で引き継ぐ) ここにはすべて純粋な Markdown ファイルがあります。あなたはレイアウトを気にする必要はまったくありません。AI が原材料を自動的に抽出して「コンセプトカード」や「レース/レーンの競合比較表」にします。あなたは読むだけ、AI が書き、更新します。 第三層:SOP ルール(あなたの家の掟) CLAUDE.md または GPT.md の設定ファイルを作って、AI にルールを伝えます。たとえば:「すべての暗号資産の調査レポートは、トークン経済学とチーム背景を必ず抽出する」「すべての AI チュートリアルは、必ず 3 つの実行可能な Prompt コードをまとめる」。 03 実践チュートリアル: 「Token を燃やす」から「資産が増える」まで、3 つのアクションに流れ作業ができた。どうやって回すの?以下の 3 つの核心アクションが、あなたのナレッジベースを一瞬で自動的に利息が生まれる状態にします: アクション1:自動投入(Ingest) ドラゴンハウス実例:中に 2 万字の Web3 の詳細調査レポートを放り込み、「これを覚えておいて」と一言残します。 AI の実行:バックグラウンドで素早く読み終え、プロジェクト A\_投資リサーチノート.md を自動生成するだけでなく、あなたのグローバルな 目次.md も更新し、さらにあなたが以前書いた 赛道竞品分析.md にもこの新プロジェクトを自ら追加しに行きます。1 回読ませるだけで、全ネットワークが連動! アクション2:質問と「知識の複利」(Query) ドラゴンハウス実例:思わず聞く:「最近保存した、大規模モデルの Prompt 技巧に関する記事 5 本をまとめて、短い小紅書向けのバズ文案を作って。」 AI は瞬時に高濃度のエッセンスを呼び出して、あなたの代わりに書き上げます。 知識の複利:Karpathy は強調している。良い質問と良い回答は、絶対にチャット欄の中で埃をかぶらせてはいけない!この文案のまとめが良いと思ったら、AI にそのまま命じます。「このまとめを Wiki に保存して、新しいページを作って、Prompt 万能テンプレート.md という名前にして。」 これは知識の「再担保」(Restaking)みたいなもの。使うほど厚みが増します! アクション3:深夜の大掃除(Lint) ドラゴンハウス実例:寝る前に「ナレッジベースを健康診断して」と指示する。 AI の実行:掃除ロボットのように全体をスキャンしていきます。翌朝早く、彼女はあなたに報告します。「オーナー、先月あなたが保存した某 AI ツールが今は有料になりました。昨日あなたが保存した“無料でタダ乗りガイド”のロジックと矛盾するので、更新しますか?」 04 レベルアップ設定:Obsidian + 大規模モデル = 究極の外付けアドオン 長期記憶を以前からやろうとしてきた人なら、複雑なベクトルデータベースが避けられないことを知っていますが、これは一般の人にとってハードルが高すぎます。ローカル検索の出来が悪いと、体験は極めて役に立たないものになってしまいます。Karpathy が勧める究極の組み合わせは:Obsidian(ローカルのノートソフト)+大規模モデルです。 Obsidian はコードエディタのようなもの。大規模モデルはあなたの外注プログラマーです。複雑なデータベースを捨てれば、2 つの核心ファイルだけで Token 消費を骨の折れるほど減らせます: index.md(全体のアウトライン):すべてのページの要約とリンクを記録。AI は毎回質問に答える前に、まずアウトラインを一瞥してから、対応するノートを正確に呼び出します。毎回 10 万字以上を読み直す必要はありません。Token 消費は 90% 削減! log.md(作業の逐次台帳):時間順に、AI が毎日何をしたのか、どのファイルを修正したのかを記録し、いつでも「勤務状況の確認」ができるようにします。 Obsidian のワンクリックでのウェブページ切り取り保存や、全体のナレッジ星空図と組み合わせれば、ナレッジベースも可視化できます。 05 まとめ:あなたの「知識が生き続ける」時代を始めよう 情報過多の 2026 年において、最小の摩擦コストで知識を蓄積できる人が、最少の Token で最大のレバレッジを引き出せます。 Karpathy が今回オープンソース化したのは、硬直したコードではなく、AI に見せるための「イデオロギー文書」だ、というのがポイントです。あなたはただ、彼のガイドのリンクをあなた専用の Agent に食べさせるだけで、勝ち確モードを開始できます。 ナレッジベースを動かし、Token を使い切らず、あなたのエビが、飼っても懐かない白い目のエビにならないように!
AIの神も真似している課題:LLM Wikiを活用した効率的な個人知識ベースの構築
執筆:Biteye コア貢献者 Shouyi
*全文約 2300 字で、読了時間は 6 分の見込み
毎日 AI に材料を食べさせても、向こうはすぐ忘れる;Token を狂ったように燃やして、ナレッジベースの最後は全部「未完成物件」?
元 OpenAI 共同創業者 / Tesla AI ディレクターの Andrej Karpathy @karpathy が、究極の解法を示したばかりです。4 月 3 日、彼は再生回数 1700 万超のツイートを投稿し、ハードコアなガイド llm-wiki をオープンソース化しました。
このガイドは 5000+ Stars を獲得し、大規模モデルで個人のナレッジベースを構築し、「盲目的に Token を燃やす」ことに別れを告げ、知識をデジタル資産のように「自動で利息を生む」ようにします。
今日、小編はあなたのために、この一流どころも使っている実用チュートリアルを徹底的にハードに分解します!
01 なぜ以前、あなたのナレッジベース作りはいつも失敗するのか?
構築を始める前に、まず最もよくある 2 つの失敗パターンを理解し、同じ轍を踏まないようにしましょう。
この手法の最大の痛点は、Token を燃やすのに「忘れっぽい」ことです。数万字の暗号資産業界のホワイトペーパーや最新の AI 論文を投げると、必死に読み終えて、あなたに節約版のまとめを返してくれます。ところが来週、あなたが「先週のあのプロジェクトと、今日のこの競合って何が違う?」と聞くと、当時の乾いたまとめのほんの一部しか覚えていません。毎回の呼び出しが断片的な検索に依存していて、知識が構造化された形で蓄積されないため、Token の消費が極めて大きいのです。
この手法の特徴は、完全に手作業で作り込むことです。タグ付け、双方向リンク作り、目次の構築……Karpathy は一言で核心を突きました:「知識整理でいちばん面倒なのは、読んで考えることではなく、“帳簿付け”(分類、レイアウト)です。」 人間は疲れますが、AI は常にオンライン。かつてこの“汚れ仕事”のすべてを人間が無理やり背負ってきた結果、当然ながら途中で投げ出してしまうのです。
02 論理の分解:LLM Wiki の「完全自動の流れ作業」
Karpathy の案の核心は、役割の入れ替えです。あなたは「材料を集める人」に徹するだけで、汚い作業や重労働はすべて AI に任せます。このシステムは 3 つの論理階層で構成されています。
第一層:原材料庫(入れるだけで出さない)
普段あなたが目にする詳細な調査レポート、長文ツイート、AI チュートリアル、ポッドキャストの録音をそのまま放り込みます。ここは絶対的な「唯一の真実のソース」です。大規模モデルは見るだけで、絶対に変更できません。
第二層:Wiki 中核エリア(AI が全権で引き継ぐ)
ここにはすべて純粋な Markdown ファイルがあります。あなたはレイアウトを気にする必要はまったくありません。AI が原材料を自動的に抽出して「コンセプトカード」や「レース/レーンの競合比較表」にします。あなたは読むだけ、AI が書き、更新します。
第三層:SOP ルール(あなたの家の掟)
CLAUDE.md または GPT.md の設定ファイルを作って、AI にルールを伝えます。たとえば:「すべての暗号資産の調査レポートは、トークン経済学とチーム背景を必ず抽出する」「すべての AI チュートリアルは、必ず 3 つの実行可能な Prompt コードをまとめる」。
03 実践チュートリアル: 「Token を燃やす」から「資産が増える」まで、3 つのアクションに流れ作業ができた。どうやって回すの?以下の 3 つの核心アクションが、あなたのナレッジベースを一瞬で自動的に利息が生まれる状態にします:
アクション1:自動投入(Ingest)
ドラゴンハウス実例:中に 2 万字の Web3 の詳細調査レポートを放り込み、「これを覚えておいて」と一言残します。
AI の実行:バックグラウンドで素早く読み終え、プロジェクト A_投資リサーチノート.md を自動生成するだけでなく、あなたのグローバルな 目次.md も更新し、さらにあなたが以前書いた 赛道竞品分析.md にもこの新プロジェクトを自ら追加しに行きます。1 回読ませるだけで、全ネットワークが連動!
アクション2:質問と「知識の複利」(Query)
ドラゴンハウス実例:思わず聞く:「最近保存した、大規模モデルの Prompt 技巧に関する記事 5 本をまとめて、短い小紅書向けのバズ文案を作って。」
AI は瞬時に高濃度のエッセンスを呼び出して、あなたの代わりに書き上げます。
知識の複利:Karpathy は強調している。良い質問と良い回答は、絶対にチャット欄の中で埃をかぶらせてはいけない!この文案のまとめが良いと思ったら、AI にそのまま命じます。「このまとめを Wiki に保存して、新しいページを作って、Prompt 万能テンプレート.md という名前にして。」 これは知識の「再担保」(Restaking)みたいなもの。使うほど厚みが増します!
アクション3:深夜の大掃除(Lint)
ドラゴンハウス実例:寝る前に「ナレッジベースを健康診断して」と指示する。
AI の実行:掃除ロボットのように全体をスキャンしていきます。翌朝早く、彼女はあなたに報告します。「オーナー、先月あなたが保存した某 AI ツールが今は有料になりました。昨日あなたが保存した“無料でタダ乗りガイド”のロジックと矛盾するので、更新しますか?」
04 レベルアップ設定:Obsidian + 大規模モデル = 究極の外付けアドオン
長期記憶を以前からやろうとしてきた人なら、複雑なベクトルデータベースが避けられないことを知っていますが、これは一般の人にとってハードルが高すぎます。ローカル検索の出来が悪いと、体験は極めて役に立たないものになってしまいます。Karpathy が勧める究極の組み合わせは:Obsidian(ローカルのノートソフト)+大規模モデルです。
Obsidian はコードエディタのようなもの。大規模モデルはあなたの外注プログラマーです。複雑なデータベースを捨てれば、2 つの核心ファイルだけで Token 消費を骨の折れるほど減らせます:
index.md(全体のアウトライン):すべてのページの要約とリンクを記録。AI は毎回質問に答える前に、まずアウトラインを一瞥してから、対応するノートを正確に呼び出します。毎回 10 万字以上を読み直す必要はありません。Token 消費は 90% 削減!
log.md(作業の逐次台帳):時間順に、AI が毎日何をしたのか、どのファイルを修正したのかを記録し、いつでも「勤務状況の確認」ができるようにします。
Obsidian のワンクリックでのウェブページ切り取り保存や、全体のナレッジ星空図と組み合わせれば、ナレッジベースも可視化できます。
05 まとめ:あなたの「知識が生き続ける」時代を始めよう
情報過多の 2026 年において、最小の摩擦コストで知識を蓄積できる人が、最少の Token で最大のレバレッジを引き出せます。
Karpathy が今回オープンソース化したのは、硬直したコードではなく、AI に見せるための「イデオロギー文書」だ、というのがポイントです。あなたはただ、彼のガイドのリンクをあなた専用の Agent に食べさせるだけで、勝ち確モードを開始できます。
ナレッジベースを動かし、Token を使い切らず、あなたのエビが、飼っても懐かない白い目のエビにならないように!