36.【フィジカルAI設計】💥 なぜLLM直結は失敗するのか|遅延・非決定性・制御不能
tags:
- フィジカルAI
- LLM
- 制御工学
- FSM
- システム設計
💥 なぜLLM直結は失敗するのか
遅延・非決定性・制御不能
前回の記事では、
フィジカルAIは「賢さ」ではなく「設計の問題」だと整理しました。
では、なぜ多くの現場で次の発想に走ってしまうのでしょうか。
「LLMがここまで賢くなったなら、
制御や判断も全部任せればいいのでは?」
結論から言います。
それをやった瞬間、構造的に破綻します。
この記事では、
LLMを制御ループに直結すると必ず壊れる理由を、
感覚論ではなく構造で説明します。
🧠 最初に結論を言う
LLM直結が失敗する理由は、主に3つです。
- ⏳ 遅延
- 🎲 非決定性
- 🔀 状態破壊
これは「調整不足」ではなく、
最初から成立しない組み合わせです。
💣 破綻の三点セット
⏳ 遅延:間に合わない
フィジカルAIでは、
制御ループは実時間で回ります。
- モータ制御
- 姿勢制御
- 音声の割り込み処理
- 安全停止判断
これらは ms〜数十ms単位で応答が必要です。
一方、LLMはどうでしょうか。
- 応答時間は揺れる
- ネットワーク・負荷・生成長に依存
- 「次は何秒で返るか」が保証できない
間に合うかどうか分からない要素は、
制御ループに入れた時点で失格です。
🎲 非決定性:再現しない
制御系において最も嫌われる性質は、
同じ条件で同じ結果にならないことです。
LLMは本質的に、
- サンプリング
- 確率分布
- 文脈依存
を持ちます。
つまり、
同じ入力
同じ状態
→ 違う出力
が普通に起きます。
制御工学の世界では、
これはテスト不能・検証不能を意味します。
「たまたまうまく動いた」は
設計としては失敗です。
🔀 状態破壊:FSMを踏み抜く
多くのフィジカルAIは、
意識せずとも FSM(有限状態機械) を持っています。
- 起動中
- 待機
- 動作中
- エラー
- 安全停止
しかしLLMを直結すると、
- 文脈判断で状態を飛ばす
- 「今やっていいか」を無視する
- 安全状態を論理的に突破する
ということが起きます。
これは「判断ミス」ではありません。
FSMを理解していない要素を、FSMの内側に置いた結果です。
🔧 制御の目で見ると何が起きているか
制御工学の視点で言うと、
LLMはそもそも 制御要素ではありません。
- 伝達関数が定義できない
- 応答時間が一定でない
- 安定性解析ができない
にもかかわらず、
それを制御ループに入れるとどうなるか。
不安定化が確定します。
これは「チューニング不足」ではなく、
構造的な誤りです。
🔗 既存記事との接続
この失敗は、すでに別分野で何度も見ています。
- 🎮 FSMで整理したゲーム設計
→ 状態を無視すると一気に壊れる - 🔊 音声AIの割り込み破綻
→ Speaking中に判断を差し込むと破綻
どれも共通点は同じです。
👉 制御すべき内側に、制御不能な要素を入れた
分野が違うだけで、
失敗の構造は完全に一致しています。
❌ よくある反論と、その答え
「でも、人間はそれで動いている」
→ 人間は並列・冗長・学習済みの制御器です
LLMはそうではありません。
「ルールを厳しくすればいい」
→ それは FSMを作る という話です
最初からFSMを置いた方が安全です。
🧭 まとめ
LLMは「賢い」
しかし「制御できない」
フィジカルAIで必要なのは、
賢さをどこに置くか という設計です。
次回は、
- LLMをどこに置けば壊れないのか
- PID・FSM・LLMをどう分離するのか
を、三層構造として整理します。
ここでようやく、
LLMが「使える場所」と「使ってはいけない場所」
が明確になります。