AIのしくみ地図 — LLMからMeta-Harnessまで20編で積み上げる学習ロードマップ
0-1. 二つの入り口 — 表とエッセイ
このシリーズには 二つの入り方 があります。
- (A) 表形式の入り口(この記事) — 20編全体の構造と順番を一枚で。チェックリストに沿って進めたい方向け。
- (B) エッセイ形式の入り口 — 👉 Meta-Harnessとオートリサーチ、どの順番で学べばいいか — なぜこの順番で学ぶのかを8段階の流れで物語にした記事。各ステップから本編へジャンプする🔍リンクを埋め込んであります。
どちらか好きな入り口から入ってください。
0-2. この地図が必要な理由
AIを学ぼうと決めた人が最初にぶつかる壁は、何を・どれだけ・どの順番で読めばいいかわからない ことです。
- ChatGPTのニュースを見ていて「Transformer」という言葉が出たので調べると、「attention」から理解しないといけないらしい
- Attentionを調べると「RNNの限界を超えた」と書かれている。RNNって何だっけ…
- それでRNNを読み始めると「gradient vanishing」の話が出てくる
- gradientがわからないので逆伝播の記事を読むと、今度はloss functionの話になる
気づいたら、最初に知りたかったChatGPTの話からどんどん遠ざかっています。
そして結論はだいたい同じです。
「難しいし、また今度…」
この地図は、その「また今度」をやらないために作りました。
20編を順番に たどれば、LLMが何かもわからなかった人が、Meta-Harnessやautoresearchという研究トレンドまで自分の言葉で説明できるようになるよう構成してあります。
新しい技術を追いかけるための地図ではありません。
その新しい技術が乗っかる 土台をしっかり積み上げるための地図 です。
1. 全体地図を一枚で
F3 Encoder/Decoder / F4 Attention is All You Need 解説
F5 Embedding / F6 学習とは何か
B3 Fine-tuning vs RAG vs Prompt
M4 Harness / M5 Evaluation・Optimization / M6 Autoresearch
M7 Meta-Harness / M8 OMX・OMC位置
M9「RAGは死んだか?」自己解説 / M10「Meta-Harness実務」自己解説
2. セクションごとに、なぜこの順番なのか
セクション1: 基礎 (7編) — モデル本体
AI・ML・DLという単語が 何を指しているのか から整理しないと(F0)、この後の話がどこかで絡まります。そのうえで、毎日使っているChatGPT/Claudeの骨格であるLLMとは何か(F1)、それを可能にしたTransformerの構造(F2・F3・F4)、意味検索すべての根っこにあるembedding(F5)、そして「学習する」が実際に何をしているのか(F6)までたどると、モデル本体の感覚が揃います。
セクション2: 橋渡し (3編) — モデルからシステムへ
LLMはエンジンにすぎません。私たちが実際に使っているのはそのエンジンを積んだシステムです。このシステムが agent (B1)。そしてagentに直接話しかける道具である プロンプトがなぜ効くのか (B2)、状況に応じて fine-tuning / RAG / prompt のどれを選ぶか (B3)を押さえれば、実務編に進む準備が整います。
セクション3: 実務 (10編) — 2024〜2026年のAI業界で現に起きていること
ここからが、いま現場で競争が起きているレイヤーです。retrievalの4層構造 (M1)、長いコンテキストと記憶 (M2)、本格的なagent (M3)、agentの作業環境であるharness (M4)、改善されていると判定するために必要なevaluation (M5)。ここまで掴むと、autoresearch (M6)、Meta-Harness (M7)、OMX/OMC (M8)といった流れが初見でもぼやけずに読めます。最後の2編(M9・M10)は有名な問いかけ二つに、私自身が自分の言葉で答える解説です。
3. 3つの読み方 — あなたの状況に合う経路
経路A: まったく初めての方
F0から順番にM10まで。 20編。週1本のペースで約5ヶ月、週2本なら2.5ヶ月のコースです。
この経路が一番しっかりします。後半になるほど、前の編が身体に染みついている前提が強くなっていくからです。
経路B: LLMの基礎は分かる方
すでにChatGPT/Claudeを毎日使っていて、「LLMは次のトークンを予測するもの」という感覚があるなら:
- F4 (Attention)は 軽くスキップ可 — 原理より構造だけ掴めばOK
- F5・F6 (Embedding・学習)は必須 — ここを飛ばすとM1でいきなり詰まります
- B1〜B3 → M1 の順番で入ってください
経路C: Meta-Harnessだけ急ぎで押さえたい方
リスクの高い経路ですが、可能です。
- B1 Agent → M3 Agent深掘り → M4 Harness — ここまで必須
- 次に M5 Evaluation 必須(これがないと「自己改善ループ」がなぜ錯覚なのかがわからない)
- 最後に M7 Meta-Harness と M10 Meta-Harness実務解説
ただしこの経路だと、なぜこの概念が必要だったのか の根っこの感覚が弱くなります。M7まで読んだ後でもいいので、F1・F4・F5を遡って読むと理解が締まります。
4. 各編 一行サマリー
基礎 (Foundation)
- F0 AI・ML・DL・LLM の用語を整理する — ニュースで混ざって出てくる5つの単語の大きさと関係を、マトリョーシカの比喩で整理
- F1 LLMとは何か — 「オートコンプリートが行き着いた先」。次のトークン予測器という一文を最後まで解きほぐす
- F2 Transformerの構造 — 本を開いて蛍光ペンを引く比喩ひとつで、attention・multi-head・stackingまで
- F3 Encoder/Decoder — なぜ最近のLLMはdecoder-only構造なのか
- F4 Attention is All You Need 解説 — 数式ひとつと図書館の比喩で原論文を最後まで読み切る
- F5 Embedding — 単語を数値に変える理由 — 「王 – 男 + 女 = 女王」がなぜ成立するのか
- F6 学習とは何か — 霧のかかった山を下りていくようなもの
橋渡し (Bridge)
- B1 Agentとは何か — エンジンと車の違い。LLMはエンジン、agentは車
- B2 プロンプトはなぜ効くのか — 確率分布を傾ける技術
- B3 Fine-tuning vs RAG vs Prompt — いつ何を使うかの実務判断表
実務 (Practice)
- M1 Retrieval Layerを理解する — embedding・RAG・GraphRAG・agentic・Doc-to-LoRA の4層構造
- M2 Long-context / Memory — 長い文脈とメモリ適応
- M3 Agent深掘り — tool use、state、繰り返し試行がシステムに入るとき
- M4 Harness — agentの作業環境。hooks・skills・sandbox・permissions
- M5 Evaluation / Optimization — 「良くなった」を何で判定するか
- M6 Autoresearch — persistent trial-and-error loop
- M7 Meta-Harness — harness自体をoptimizationの対象に
- M8 OMX / OMC の実務レイヤー位置 — 哲学と実務での対応物
- M9 RAGは死んだのか? — 自分の言葉で答える
- M10 Meta-Harnessって実務的には何? — 自分の言葉で答える
5. この地図をたどるうえで守ってほしいこと、ひとつ
一編で理解が曖昧なら、その編で立ち止まってください。
次に進んでも、どうせ次の編は前の編を前提に組み立てられています。
詰まった編を二回読み直すほうが、次の10編を流し読みするよりずっと速いです。
各編の下に「マップ上の現在地」ブロックを置いているので、迷ったらそこから戻ってきてください。位置を見失わずに済みます。
6. いまどこを読んでいるか見失わないために
- 各編の 上部バナー に「N/20編」が表示されます
- 各編の 下部バナー に前/次の編リンク + この地図に戻るリンク
- 迷ったらこのページ(📚 全体20編マップ)に戻ってきてください
この地図は shuntailor.net の AIのしくみ地図カテゴリ にピン留めしてあるので、いつでも呼び戻せます。
FAQ
Q1. これを全部読んだらAIエンジニアになれますか?
なりません。これは 読むための地図 であって、作るための地図 ではありません。読み終えれば、AI関連のニュース・論文・プロダクト紹介を ぼやけずに解釈できる ようになります。実際にagentを作るにはコードと実習が別に必要です。ただし、コードを書くときも「いま自分が何をしているのか」の地図が頭にあると、無駄な試行錯誤がぐっと減ります。この地図はその土台を敷く役割です。
Q2. 週1本のペースだと、どれくらいかかりますか?
20編なので、週1本なら約5ヶ月、週2本なら2.5ヶ月です。ゆっくりしすぎると前の編を忘れてしまって、逆に非効率になります。週2本、隔日ペース を基本としておすすめします。各編が10,000字以上あるので、じっくり読むと一編で90分〜2時間かかります。
Q3. 全部読まないと意味がないですか?
経路B・Cのような 読み飛ばし戦略 も明示しています。ただしセクション1の基礎を飛ばすと、後半になるほど読みづらくなります。最低限、F1(LLM)・F4(Attentionの前半)・F5(Embedding)・F6(学習)・B1(Agent)の5編は外さないでください。この5つがあれば、Mシリーズのどこに飛んでも極端にぼやけません。
ニュースレター
この20編がひとつずつ仕上がるたび、そして毎週月曜日にはその週のAI業界の整理もメールでお届けします。受け取りたい方は ニュースレター登録(無料・30秒) から申し込んでください。
📚 全体地図を見る
初めての方が迷わないよう、22編全体の順序と3つの読み方を1ページに整理しました。
ソースリスト
- テイラー知識百科事典 — AIのしくみ地図カテゴリ(本シリーズ20編全編)
- AIのしくみ地図 エントリーマップ — 全体構造 + 3つの読み方
- “Attention Is All You Need” (Vaswani et al., 2017)
- Anthropic · OpenAI · Google 公式ドキュメント
- mathbullet (YouTube) / Jay Alammar “Illustrated Transformer” / 3Blue1Brown — 易しい解説のリファレンス
著者: バイブコーディング テイラー (VibeCoding Tailor) — Lovable公式アンバサダー. AI·バイブコーディング専門メディアshuntailor.net運営.
本シリーズ「AIのしくみ地図」20編は、ウィキの蓄積と公式論文・公式ドキュメントを根拠に整理した体系的学習カリキュラムです。