24. LLMのからくりを構造で見る ― なぜ分かった気になるのか

tags: [LLM, AI, 設計, Mermaid]


🧭 はじめに

LLM(Large Language Model)は賢く見える。
説明もできるし、推論もしているように振る舞う。

ただ、少し中身を見ると分かるが、
やっていること自体は驚くほど単純だ。

この記事では、

を、構造(Mermaid)で可視化する。


🎯 LLMがやっていること(結論)

LLMは常にこれだけをやっている。

次に来そうなトークンを確率で選ぶ

意味を理解しているわけでも、
世界を認識しているわけでもない。

文脈 → 確率 → 生成
それだけの巨大な変換器である。


🏗 全体構造(LLMの中身)

flowchart TD
    A[入力テキスト] --> B[トークン化]
    B --> C[Embedding<br/>数値ベクトル化]

    C --> D[Transformer層 × N]
    D --> E[Self-Attention]
    E --> F[Feed Forward]

    F --> G[次トークンの確率分布]
    G --> H[トークンを1つ生成]
    H -->|繰り返し| D

ポイントは3つだけ。

「考えている」工程は存在しない。


🔎 Self-Attention の正体

なぜ理解しているように見えるのか

flowchart TD
    T1[トークン1] --> SA[Self-Attention]
    T2[トークン2] --> SA
    T3[トークン3] --> SA
    T4[トークン4] --> SA

    SA --> R[関係性の重み付き表現]

Self-Attentionは、

これにより、

を距離に関係なく拾える。

結果として
文脈を理解しているような文章が生成される。


🧪 「理解していない」ことの可視化

LLMの内部では、次のようなことが起きている。

入力:
「LLMのからくりは」

内部:
--------------------------------
「単純」   : 0.41
「確率」   : 0.27
「実は」   : 0.12
「複雑」   : 0.08
その他      : ...
--------------------------------

→ 一番高いものを選ぶ

それでも自然な文章になるのは、
学習データが「人間の思考の痕跡」だからだ。


🧍 人間とLLMの決定的な違い

flowchart LR
    subgraph Human[人間]
        H1[世界] --> H2[認識]
        H2 --> H3[状態]
        H3 --> H4[判断]
        H4 --> H5[行動]
        H3 -->|記憶| H3
    end

    subgraph LLM[LLM]
        L1[テキスト] --> L2[確率変換]
        L2 --> L3[テキスト]
    end

LLMには、

が存在しない。

あるのは
入力を出力に変換する関数だけである。


🚫 なぜ制御や判断に使ってはいけないのか

理由は単純だ。

つまり、

制御に必要な要素を、構造的に持っていない


🛠 LLMが一番向いている役割

判断の前段階
人間が面倒な中間作業

ここに置くと、非常に強力だ。


✅ まとめ

LLM = 知能 ❌
LLM = 思考 ❌
LLM = 判断 ❌

LLM = 文脈 → 確率 → 生成 の変換器 ⭕

ブラックボックスに見えるが、
構造で見ると置き場所ははっきりする。

LLMは「何ができるか」より
「どこに置いてはいけないか」を理解すると使える。