📚 全体地図を見る
0. シリーズのご案内 — 「AIのしくみ地図」という長い旅の最初の一歩
この記事は、今日から始まる20編シリーズ「AIのしくみ地図」の 0編 です。0編と名付けたのは、本格的な話に入る前に、地図の上に並ぶ 地名をまず覚えてから進もう という意味からです。登山の前に入口に貼ってある案内板のようなものですね。
シリーズ全体はこう組み立ててあります。F区間は基礎用語と概念(F0〜F4)、P区間はLLMの内部構造(P1〜P5)、M区間は実務でぶつかる仕掛け(M1〜M6)、H区間はHarness・Agent系(H1〜H4)と続きます。今回のF0はその中でも一番外側の地図です。「AI、ML、ディープラーニング、ニューラルネット、Transformer、LLMがこういう関係なんだな」と一枚の絵で頭に入れることが目標です。
私自身、この分野に足を踏み入れた最初の頃、一番もどかしかったのがこれでした。ニュースで「AIスタートアップ」と言っているのに、ある記事では機械学習の話で、別の記事ではディープラーニングの話、また別の記事ではChatGPTのようなLLMの話だったりします。同じものを呼んでいるのか別のものを呼んでいるのか、感覚がつかめませんでした。この記事は、そのときの自分に見せてあげたい文章です。
これから19編を追いかけていくには、この0編さえしっかり入っていれば大丈夫です。難しい話はありません。数式も出てきません。比喩を一つ、頭に描いておくだけで十分です。
1. なぜこの用語たちがいつもごちゃつくのか
こんな経験はありませんか。ニュースの一行目にAIが出てきて、次の行に機械学習が出てきて、そのまた次の行にディープラーニングが出てくる。しかも記者が、この3つをまるで同義語のように置き換えて使っている、あの感じです。私は本当によく見ました。記者の方だけの問題ではなくて、エンジニア同士の日常会話でも入り混じって使う 言葉なのです。
なぜそうなるのか。これらの用語が それぞれ違う時代に生まれた からです。AIは1956年、機械学習は1959年ごろ、ディープラーニングは2006年ごろ、LLMは2018年以降と、別々の文脈で登場しました。時代が進むにつれて、意味が少しずつ重なったり、狭まったり、広がったりしていきました。そのせいで、同じ単語でも話す人によって指すものが違ってしまいます。
もう一つ。これらの単語は 大きさの違う同心円 です。AIという大きな円の中に機械学習という小さな円があり、その中にディープラーニングというさらに小さな円があります。ところが、多くの人はこの包含関係を知らずに並べて話すので、読む側からすると「じゃあ機械学習とAIは別々の二つの技術なのか?」という誤解が生まれてしまいます。
この記事の目的は、その同心円を頭の中に描いてもらうことです。一度描いてしまえば、これからAI関連のニュースを読むときに どの区間の話をしているのか がすぐに見えるようになります。
2. 一番大きな円: AI (Artificial Intelligence)
一番外側の円がAIです。日本語では「人工知能」ですね。
AIという言葉は、1956年の夏にアメリカのダートマス大学で開かれた一つのワークショップで初めて公式に使われました。ジョン・マッカーシーという数学者が「人間がやっている知的な仕事を機械にまねさせてみよう」というアイデアで他の研究者を集めて開いた学会で、そこで Artificial Intelligence という名前が付きました。そのためこの会議は「AIの公式な誕生日」と呼ばれています。
ではAIとは何か。私はこの一文で整理しています。
人間がやっていた知的作業を、機械にまねさせるあらゆる方式。
この定義がとても広いという点が重要です。学習するかしないかは関係ありません。 人間がルールを全部書き与えても、機械が自分でルールを見つけても、どちらでも「人間がやっていた仕事を機械がやる」ならすべてAIです。
具体的な例を挙げると、こういうものはすべてAIに含まれます。
- 1950年代に作られたチェスプログラム。人間が全ての手を手でコーディングしていたものでもAIです。
- 迷路で道を探す単純なアルゴリズム。小学校の教科書に載っている探索アルゴリズムも、広い意味ではAIです。
- 1980年代に流行した「エキスパートシステム」。医師が使っていた診断ルールをIF-THENルール数千個に書き写したものでした。
- 音声認識。家のスマートスピーカーが「ヘイ、Siri」を聞き分けるもの。
- ChatGPT・Claude・Geminiといった今のチャットボット。
一つずつ見ると、技術のやり方は全部違いますね。手でルールを書いたもの、統計で回すもの、ニューラルネットを使うもの。ですが全部「人間がやっていた知的作業を機械がやる」という点では同じなので、まるごとAIという大きな円に入ります。
ですから「AIスタートアップ」という言い方は、厳密には ほとんど何も言っていないに等しい のです。範囲が広すぎます。本当に聞きたいのは「そのうち何をやっている会社なのか」ですからね。
3. その中の小さな円: ML (Machine Learning)
AIという大きな円の中に、一段階小さな円があります。それが 機械学習 (Machine Learning, ML) です。
機械学習を一文で捉えると、こうなります。
ルールを人間が直接書き与えるのではなく、データを見せると機械が自分でルールを見つける方式。
昔のエキスパートシステムは、人間がルールを数千個書いて機械に入れていましたね。これがある線を越えると維持できなくなります。医師が「この症状ならこの病気」というルールを2万個以上書き始めると、ルール同士がぶつかったり、抜けが出たり、エンジニアが毎回直さなければならなくなるからです。
機械学習はこの順番を逆にします。人間はルールの代わりに データと答え を渡します。「この写真は猫、この写真は犬、この写真は猫……」という形で数万枚見せると、機械は内部で 「ああ、猫というものにはこういう特徴があるんだな」 という判断基準を自分でつかみます。このつかんだ基準を「モデル」と呼びます。
メールのスパム分類が教科書的な例です。昔は「件名に『無料』が入っていたらスパム」のようなルールを人間が書いていました。ところがスパムを送る側も頭があるので、表現をどんどん変えてきます。「無 料」、「F*REE」、「む〜りょう」という具合に。人間がルールで追いかけて更新し続けるのは不可能になります。
機械学習はスパム数万通と通常メール数万通を見せながら「これはスパム、これは違う」と教えていきます。するとモデルは、何百もの細かい手がかり(送信元のパターン、本文の単語分布、リンクの数、時間帯など)を 数値で重み付けして 自力で判断基準を作ります。このモデルは新しいスパムが出てきてもある程度適応します。
機械学習もAIです。ただし「ルールを機械がデータから自分で見つける」という 特定の方法論 です。AIという大きな山の中の一区画、というイメージです。チェスプログラムや昔のエキスパートシステムはAIですが機械学習ではありません。人間がルールを直接書いていたからです。
ここで大事な感覚が一つ生まれます。すべてのAIが機械学習ではない。 そして すべての機械学習はAIである。 この非対称性が同心円の包含関係です。
4. MLの中のさらに小さな円: Deep Learning (ディープラーニング)
機械学習という円の中に、さらに小さな円があります。ディープラーニング (Deep Learning) です。
ディープラーニングは機械学習の一手法です。機械学習にはいろいろな手法があります。決定木、ランダムフォレスト、SVM(サポートベクターマシン)、ベイズ分類器、線形回帰、ロジスティック回帰……。名前は覚えなくても大丈夫です。要点は「データからルールを見つける方法が何十種類もあった」ということです。ディープラーニングはそのうちの 一つ にすぎません。ただ2012年以降、他の手法を圧倒的に追い越して、今ではほぼ機械学習の代表選手になりました。
ディープラーニングの定義はこう捉えておけば十分です。
人工ニューラルネットワークを何層も深く積み上げて学習させる方式。
「深い (deep)」という言葉が名前に入っているのはそのためです。層が厚いのです。昔はニューラルネットを2〜3層積むだけでもうまく学習できませんでした。コンピュータの性能も足りず、データも足りず、学習アルゴリズムも磨かれていなかったからです。そのためディープラーニングは長い間、理論的には魅力的だが実用にはならないアイデアとして置かれていました。
2012年に状況が変わりました。ImageNetという画像認識コンペがあり、その年に AlexNet というディープラーニングモデルが圧倒的な点数で1位になったのです。既存手法と比べて誤答率をほぼ半分に減らしました。この出来事がディープラーニング時代の合図になりました。以後、画像分類、音声認識、翻訳、ゲーム(AlphaGo)、そして現在のLLMまで、ディープラーニングが入り込んでいない分野はほとんど残っていません。
なぜ2012年に突然ブレイクしたのか。3つの条件が同時にそろいました。第一に、GPU というハードウェアが安くなりました。元はゲーム用だったのですが、ニューラルネット学習に必要な行列計算を猛烈な速さで回してくれるのです。第二に、インターネット上にデータがあふれていました。 学習に使える画像・テキストが何百万単位で積み上がる環境ができていました。第三に、学習技術の小さな改善が積み上がっていました。 ReLU活性化関数、Dropout、Batch Normalizationといった仕掛けです。
この3つがかみ合って、「理論は素敵だが動かしにくい」だったディープラーニングが、いきなり「動かしてみたら他の手法を全部負かす」に変わりました。
そういうわけで、今ニュースで「AIが進化した」と言えば、ほぼすべてディープラーニングの話です。特にここ数年はディープラーニングの一形態であるTransformerの話です。それについては少し後で触れます。
5. Deep Learningの中の一領域: Neural Network の基礎
ディープラーニングを語るには ニューラルネットワーク (Neural Network, NN) を押さえる必要があります。ディープラーニング=ニューラルネットを何層も積んだもの、なので、基本になる「一層」が何かから感覚を掴まないと、全体像が入ってきません。
ニューラルネットは脳のニューロンから名前を借りました。実際の脳構造を正確にまねたわけではありません。「複数の入力を受けて、重みを掛けて、合計し、出力する」という、とてもシンプルな数学的な仕掛けです。名前がかっこいいだけで、原理は小学校の算数レベルです。
人工ニューロン一個の働き
ニューロン一個がやることはこれだけです。
- 複数の数値を入力として受け取る。(例:
x1, x2, x3) - 各入力に 重み (weight) を掛ける。(例:
w1・x1 + w2・x2 + w3・x3) - その結果に バイアス (bias) という数値を足して、活性化関数 を一度通す。
- 最終的な数値を一つ出力する。
これで全部です。こういうニューロンを何個か並べると一つの「層 (layer)」になり、層を何個か積むとニューラルネットになります。層と層の間は全結合 (fully connected) でつながるのが基本です。前の層のすべてのニューロンが後ろの層のすべてのニューロンにつながるという意味です。
重みこそが学習
ここで「学習」という言葉の正体が見えてきます。ニューラルネットが学習するというのは、重みの数値を少しずつ調整する過程 のことです。データを入れて、モデルが間違った答えを出したら「少しだけ間違いが減る方向に」重みをわずかに動かし、またデータを入れて、また動かす。これを数十万回、数億回繰り返すと、重みがデータに合う値に収束します。これが訓練 (training) です。
料理にたとえるとこんな感じです。スープに塩をどれだけ入れるか、砂糖をどれだけ入れるか、唐辛子粉をどれだけ入れるかが重みです。最初はでたらめに入れます。一口飲んで「塩辛すぎる」と感じたら塩の重みを下げ、「ちょっと物足りない」と感じたら砂糖を上げる。これを数え切れないほど繰り返すと、ある瞬間にバランスの取れた配合に収束します。ニューラルネット学習は、この過程の数学バージョンです。
なぜ「深く」なるといいのか
一層だけのニューラルネットでは簡単な問題しか解けません。直線で分けられる問題だけです。ところが層を何枚も積むと 複雑な境界 まで表現できるようになります。数学的に証明されている内容です。
直観的に言うと、一層目は入力の ごく単純な特徴 を拾います。画像認識なら「横線」「縦線」「斜めの線」など。二層目は一層目の結果を組み合わせて より複雑な特徴 を拾います。「角」「曲線」など。三層目は「目」「耳」「鼻」くらいを捉え、四層目では「猫の顔」くらいになります。層が深くなるほど抽象度が上がっていくのです。
この「層ごとの抽象化」がディープラーニングの強みです。だから「深い (deep)」という単語が入っています。機械が複雑な概念を理解するやり方に、根本的に合う構造だといえます。
6. Neural Networkの一形態: Transformer
ニューラルネットにはいろいろな種類があります。画像に強い CNN (畳み込みニューラルネット)、順序のあるデータに強い RNN・LSTM、そして2017年に登場した Transformer。この中でTransformerが今のLLM時代の骨格です。
Transformerがどんな形をしていて、なぜ強力なのかは、このシリーズのP4(先に公開した Attention Is All You Need 解説)で深く掘り下げています。ここでは Transformerがニューラルネットの一種である という地図上の位置だけ押さえて進みます。
要点はこうです。Transformerは「attention」という仕掛けを中核部品に使う 特別なニューラルネット です。2017年にGoogle Brainチームが翻訳モデルとして提案し、以後8年間で、言語処理だけでなく画像・音声・映像まで、ほぼすべてのディープラーニング分野に広がりました。今使っているChatGPT、Claude、Geminiは、みなこのTransformer構造を土台にしています。
Transformerは ニューラルネットの一種 で、ニューラルネットは ディープラーニングの道具 で、ディープラーニングは 機械学習の一手法 で、機械学習は AIの一支流 です。この4段階が同心円の内側へ入っていく順番です。
7. Transformerを超巨大化したもの: LLM
Transformerをものすごく大きく作ったらどうなるか。2018年以降、研究者たちはこの実験を続けてきました。層を増やし、データを増やし、パラメータ (parameter、重みの総数) を増やしました。すると驚くことが起きました。一定の規模を超えると、モデルが以前はできなかったことをやり始めた のです。人のように文章を書き、質問に答え、翻訳し、要約し、コードまで書くようになりました。
この超巨大Transformerがまさに LLM (Large Language Model、大規模言語モデル) です。
「Large」がどれくらい大きいかというと、最近の商用LLMはパラメータが数千億個あります。ニューラルネット一つが「重みの数値を数千億個抱えている」という意味です。学習に使われるデータもほぼインターネット全体。数兆個の単語を読みながら重みを調整した成果物が、いま私たちが使っているチャットボットです。
代表的なLLMを整理するとこうなります。
- OpenAI の GPT シリーズ — GPT-3.5、GPT-4、GPT-4o、GPT-5系統。ChatGPTがこの一族です。
- Anthropic の Claude シリーズ — Claude 3、3.5、Claude 4、Claude Opus系統。このブログを書いている私が使っている道具でもあります。
- Google の Gemini シリーズ — Gemini 1.5、2.0、2.5系統。Google検索・Workspaceに組み込まれています。
- Meta の Llama シリーズ — オープンソースLLMの代表格。研究者・開発者コミュニティが無償で手に取って使えます。
- 中国・韓国・日本の自前LLM — DeepSeek、Qwen、HyperCLOVA X、Kanana、PLaMoなどが次々に登場しています。
ここまで整理すると、LLMは「Transformer構造を採用した超巨大ニューラルネットで、言語データを使って学習したもの」です。一つひとつが大きな単語の組み合わせですね。地図の上で一番内側の円がLLMです。
8. ではこれらの関係を一枚の絵に — マトリョーシカの比喩
さて、ここまで登場した6つの単語 (AI、ML、DL、NN、Transformer、LLM) の関係を 一枚の絵 にまとめてみます。
私はマトリョーシカ(ロシアの入れ子人形)の比喩を使います。大きな人形を開けると中に小さな人形が入っていて、それを開けるとさらに小さな人形が出てきて、また開けると……、という、あの人形です。6つの用語がちょうどこの構造です。
(超大規模言語モデル)
これで全部です。この絵さえ頭にあれば、これからどんな記事を読んでも「この用語はどの円の話か」をすばやく当てられます。
大きさの順を改めて整理すると:
AI ⊃ ML ⊃ DL ⊃ NN ⊃ Transformer ⊃ LLM
⊃ という記号は「含む」という意味です。AIはMLを含み、MLはDLを含み、DLはNNを含み……というふうに、どんどん内側に狭まっていきます。逆に読むと、すべてのLLMはTransformerで、すべてのTransformerはニューラルネットで、ニューラルネット学習はすべてディープラーニングで、ディープラーニングはすべて機械学習で、機械学習はすべてAIです。
9. よくごちゃつく細かい区別
マトリョーシカの構造を押さえたら、次は 細かい部分でよく入れ違う組み合わせ だけ取り出して確認しておきましょう。実務やニュースでよくごちゃつく4組があります。
9-1. 「AI」と「Generative AI」の違い
最近のニュースで一番よく出てくる言葉が Generative AI (生成AI) です。この単語が普通のAIとどう違うかというと、結果物を新しく作り出す という点です。
昔のAIは 分類・判定・予測 に強かったのです。「この写真は猫か犬か」「このメールはスパムかどうか」「明日の株価は上がるか下がるか」といった類。入力を見てラベルを貼る仕事ですね。
Generative AIは逆です。新しいものを作り出します。 文章、絵、音楽、映像、コードを生成します。ChatGPTが回答を書くこと、Midjourneyが絵を描くこと、Sunoが曲を作ること、全部生成AIです。
ですから「Generative AI」はAIの 部分集合 です。AI全体のうちの一区画であって、AIと対立する概念ではありません。ニュースで「AIが問題だ / generative AIが問題だ」のように並べているのを見かけますが、厳密には分類の層が違います。
9-2. 「ML」と「Deep Learning」の区別 — ML全体がDLではない
この区別は意外とよく間違えられます。機械学習 = ディープラーニング と思っている方がいます。そうではありません。
機械学習にはディープラーニング以外にも、決定木、ランダムフォレスト、SVM、XGBoost、ロジスティック回帰 など、たくさんの手法があります。このうちのいくつかは、いまでもディープラーニングより実務で使われている領域があります。たとえば クレジットカード不正検知、広告クリック予測、保険料計算 のような領域では、XGBoostのような「木ベースのアルゴリズム」のほうがディープラーニングより性能がよく、解釈もしやすいのです。
ディープラーニングが強いのは 画像・音声・言語 のように、データが複雑で抽象的な領域です。表形式の数値データや、データ量が少ない場合は、むしろ伝統的なML手法が優れています。
ですから実務で「AIプロジェクトをやる」というときも、ディープラーニングが常に正解ではありません。問題の性質を見て選ぶ必要があります。この区別が重要な理由は、後ろの「実務でなぜ重要か」セクションでまた触れます。
9-3. 「NN」と「Transformer」の関係
ニューラルネット (NN) は大きなカテゴリです。Transformerはそのカテゴリの中の 一種 です。
NNにはいろいろな種類があります。Feed-Forward NN (基本形)、CNN (Convolutional、画像特化)、RNN/LSTM (順序データ特化)、Transformer (現在の主流)、GNN (Graph、関係データ特化)。このうちどれを使うかは、データの性質で変わります。
Transformerが登場する前は、画像はCNN、言語はRNN/LSTMが主流でした。Transformerはもともと言語の翻訳用に出てきたのですが、あまりにうまくいったので、言語はもちろん、画像 (Vision Transformer)、音声、映像まで、ほぼすべての分野に広がりました。それでもTransformerがCNN・RNNを完全に置き換えたわけではありません。特定の領域では今でもCNNが主流です。
要点は NNは大きな器、Transformerはその中の一つのレシピ だということです。
9-4. 「LLM」と「Foundation Model」の関係
最近出てきた単語に Foundation Model (基盤モデル) というものがあります。スタンフォード大学が2021年に提案した概念です。
Foundation Modelは「大規模データで事前学習し、さまざまな後続タスクに再利用できる基盤モデル」です。LLMもここに含まれますし、画像のCLIP・DALL-E、音声のWhisper、映像のSoraなども含まれます。
LLMはその中でも 言語に特化した foundation modelです。LLMはfoundation modelの部分集合で、foundation modelはディープラーニングの部分集合です。
そこで、マトリョーシカをもう少し精密に描くとこうなります。
- AI ⊃ ML ⊃ DL ⊃ Foundation Model ⊃ LLM
- AI ⊃ ML ⊃ DL ⊃ NN ⊃ Transformer ⊃ LLM
二つの経路がLLMで合流します。いまのLLMはほとんどTransformerベースなので、この二つの経路が事実上同じ地点に収束しているわけです。
10. 実務でこの区別がなぜ重要か
「用語の整理は結構だけど、これを知って何になるのか」と思うかもしれません。でも実務では、この区別が コストと複雑さを大きく左右する判断 に直結します。いくつかの場面をご紹介します。
10-1. 「うちもAIを入れよう」という一言の落とし穴
ある会社が「うちでもAIを入れてみよう」と言い出します。この一文の裏には、何十通りもの経路が隠れています。選択肢を整理すると:
- ルールベース自動化 — Excelマクロ、RPA (Robotic Process Automation) のようなもの。厳密には「広い意味のAI」に含まれます。コストが安く、素早く導入可能。ほとんどの「単純業務の自動化」はここで足りるはずです。
- 伝統的MLモデル — XGBoostのような木ベース手法で顧客離反予測、売上予測。中規模のデータでも動きますし、説明性も高いです。必要な人員も「データサイエンティスト1〜2名」程度。
- ディープラーニングモデルの自社開発 — 自前の画像認識や自前の音声認識。GPUサーバーが必要で、MLエンジニアのチームが必要で、データも数万〜数十万枚単位で必要になります。
- LLM APIの利用 — ChatGPT API、Claude APIを使ってチャットボットを作る。自前で学習させる必要はなく、プロンプトを作ってRAGをつなぐ作業が中心。
- LLMの自前訓練 — Llamaのようなオープンソースを社内データで追加学習。GPUが数十〜数百枚必要。大企業でなければ普通やりません。
この5つの経路は コストが数百倍違います。 1番は月数万円から始められますが、5番は数億円単位です。
「AI導入」という言葉の裏にどの経路が必要なのかを正確に指し示せるようになるには、この記事のマトリョーシカが頭に入っている必要があります。そうでないと、「AIをやる→無条件でLLM→数億円の予算が必要」といった間違った連想が起きます。実際には2番で十分なケースがとても多いのです。
10-2. エンジニア採用とチーム構成
「AIエンジニア」を採用するときにも区別が要ります。MLエンジニア と LLM/AIエンジニア は仕事の中身が違います。前者はモデルを自分で学習させる人、後者は既存のLLMを活用してプロダクトを作る人です。求められる技術スタックも、年収も、キャリアパスも違います。前者は数学・統計・PyTorch・GPUチューニングが中心で、後者はプロンプト・RAG・エージェント・API統合が中心です。
会社が「LLMチャットボットを作るからAIエンジニアを採ろう」と言うとき、現場で必要なのはLLMエンジニアです。ところが間違えるとMLエンジニアを採ってしまい、「この方はLLMプロダクトを作った経験がないですね」というミスマッチが起きます。用語の感覚があれば、こういうミスは減らせます。
10-3. ソリューション購入時の比較軸
AIソリューションを買う立場でも変わります。「この製品はディープラーニングベースです」という説明は、それ自体では何の情報にもなりません。どんなディープラーニングなのか、TransformerなのかCNNなのか、自社モデルなのかGPT APIのラッパーなのか、訓練データは何だったのか、こういうことを聞く必要があります。マトリョーシカのどの区画の話なのかがわかれば、質問が自然に出てきます。わからないと、「ディープラーニング使ってるんですね」で会話が終わってしまいます。
11. 間違えやすいポイントの整理
ここまでの話を、間違いやすさの観点でもう一度まとめます。この5つだけ避ければ、用語が原因で気まずくなることはほぼないはずです。
間違い1. 「AIと機械学習は別々の技術」だと思うこと。 違います。機械学習はAIの一部です。包含関係です。
間違い2. 「機械学習 = ディープラーニング」だと思うこと。 ディープラーニングは機械学習の一手法にすぎません。木ベース手法など、他のML手法も今も現役です。
間違い3. 「ディープラーニング = LLM」だと思うこと。 LLMはディープラーニングの中のごく特殊な一形態です。画像認識ディープラーニング、音声ディープラーニング、レコメンドシステムのディープラーニング、どれもLLMではありません。
間違い4. 「Generative AIをAIの反対語」として使うこと。 生成AIはAIの部分集合です。「分類型AI vs 生成型AI」という対比は可能でも、「AI vs Generative AI」は層が揃っていません。
間違い5. 「あらゆるチャットボットがLLM」だと思うこと。 昔のルールベースチャットボットや、2010年代のシナリオ型チャットボットはLLMではありません。「チャットボット」という単語も、時代によって技術水準が違います。2026年に販売されているチャットボットの大半はLLMベースですが、全部がそうというわけではありません。
この5つが頭に入っていれば、AIニュースを読むときに 「この人は層をまぜこぜにして話しているな」 が見えるようになります。一度見えるようになると、情報の密度がぐっと変わります。
締めの一文
AIは「人間の知的作業を機械がまねるすべて」という一番大きな円であり、その内側に ML → DL → NN → Transformer → LLM という同心円が順に収まっている。この絵が頭にあれば、これから出会う20編の話はすべて地図の上で動いてくれる。
毎週月曜日、AIトレンドニュースレター配信中
会員登録すると、毎週月曜日に「今週のAI・バイブコーディング最新情報」をお届けします。
バナー広告なし・本当に役立つ情報だけを厳選するクリーンなAI専門メディアです。
次の読みもの
- F1 — LLMとは何か [準備中]
- F2 — Transformer がやったこと [準備中]
- P4 — Attention Is All You Need 解説 [公開済み]
よくある質問 (FAQ)
Q1. AI、ML、ディープラーニング、LLM って全部同じ意味ですよね?
全部違います。同心円の関係です。AIは一番大きな円(人間の知的作業を機械がまねるもの全体)、機械学習はその中の一手法(データから自分でルールを見つける方式)、ディープラーニングは機械学習の一支流(ニューラルネットを何層も積むもの)、LLMはディープラーニングのごく特殊な一形態(Transformerベースの超巨大言語モデル)です。大きさの違う単語なので、ニュースで混ぜて使うと意味がねじれます。この記事のマトリョーシカの絵を一度頭に描いてしまえば、これからごちゃつくことはなくなります。
Q2. 機械学習を使えば無条件でディープラーニングになりますか?
いいえ。ディープラーニングは機械学習のいろいろな手法のうちの一つにすぎません。実務では、木ベース手法(XGBoost、Random Forest)のほうがディープラーニングより使われている領域が、いまでもたくさんあります。特に表形式のデータや、データ規模が小さい場合は、伝統的ML手法のほうが性能も解釈性も高いことが多いです。「AI = ディープラーニング = LLM」という単純な等式は、実務判断で大きなコストの間違いにつながりかねません。会社でAI導入を検討しているなら、まず 問題の性質に合った手法 を見極めてください。
Q3. このシリーズは必ず順番通りに読まないといけませんか?
順番に読むことをおすすめします。各編が前の編で積み上げた概念を引き継ぐ構造になっているからです。特にF0(この記事)→ F1(LLM)→ F2(Transformer)→ P1〜P5(LLM内部構造)は一連の流れなので、順番が入れ替わると後半が難しくなります。時間がそれほど取れないなら、F0〜F4(基礎用語)までは必ず順番通りに、それ以降のM・H区間は関心のあるテーマから選んで読んでもかまいません。全体マップは AIのしくみ地図エントリ から確認できます。
ニュースレターのご案内
毎週月曜日、AI・LLM・エージェントまわりの実務整理を一通ずつお届けします。こういう用語地図・構造解説を落ち着いて積み上げていきたい方は、ぜひ購読してください。広告は入れません。私が一週間かけて自分で整理した内容だけを載せます。
シリーズのご案内 (AIのしくみ地図 20編)
- F0: AI・ML・DL・LLM の用語整理 (現在の記事)
- F1: LLMとは何か
- F2: Transformer がやったこと
- F3: ニューラルネット学習とは何か
- F4: ディープラーニングが2012年にブレイクした理由
- P1〜P5: LLM内部構造を掘り下げる
- M1〜M6: 実務でぶつかる仕掛け (RAG、Fine-tuning、Agentなど)
- H1〜H4: Harness・Agent系 (Claude Code、Codex、Meta-Harness)
この記事は shuntailor.net「AIのしくみ地図」シリーズの0編です。シリーズ全体を一度に見たい方は エントリマップ をご利用ください。
著者: バイブコーディング テイラー(Lovable公式アンバサダー)
運営: テイラーの隠れ家(shuntailor.net)
用語の区別 — 最初の一歩の位置にある編です。前後編のリンクは記事下部のマップ上の現在地ボックスで確認してください。
AI·ML·ディープラーニング·ニューラルネット·Transformer·LLMが混ざった頭の中を、マトリョーシカの比喩で整理します。
ソースリスト
- テイラー知識百科事典 — AIのしくみ地図カテゴリ(本シリーズ20編全編)
- AIのしくみ地図 エントリーマップ — 全体構造 + 3つの読み方
- “Attention Is All You Need” (Vaswani et al., 2017)
- Anthropic · OpenAI · Google 公式ドキュメント
- mathbullet (YouTube) / Jay Alammar “Illustrated Transformer” / 3Blue1Brown — 易しい解説のリファレンス
著者: バイブコーディング テイラー (VibeCoding Tailor) — Lovable公式アンバサダー. AI·バイブコーディング専門メディアshuntailor.net運営.
本シリーズ「AIのしくみ地図」20編は、ウィキの蓄積と公式論文・公式ドキュメントを根拠に整理した体系的学習カリキュラムです。