36.【フィジカルAI設計】💥 なぜLLM直結は失敗するのか|遅延・非決定性・制御不能

tags:


💥 なぜLLM直結は失敗するのか

遅延・非決定性・制御不能

前回の記事では、
フィジカルAIは「賢さ」ではなく「設計の問題」だと整理しました。

では、なぜ多くの現場で次の発想に走ってしまうのでしょうか。

「LLMがここまで賢くなったなら、
制御や判断も全部任せればいいのでは?」

結論から言います。

それをやった瞬間、構造的に破綻します。

この記事では、
LLMを制御ループに直結すると必ず壊れる理由を、
感覚論ではなく構造で説明します。


🧠 最初に結論を言う

LLM直結が失敗する理由は、主に3つです。

これは「調整不足」ではなく、
最初から成立しない組み合わせです。


💣 破綻の三点セット

⏳ 遅延:間に合わない

フィジカルAIでは、
制御ループは実時間で回ります。

これらは ms〜数十ms単位で応答が必要です。

一方、LLMはどうでしょうか。

間に合うかどうか分からない要素は、
制御ループに入れた時点で失格
です。


🎲 非決定性:再現しない

制御系において最も嫌われる性質は、
同じ条件で同じ結果にならないことです。

LLMは本質的に、

を持ちます。

つまり、

同じ入力
同じ状態
違う出力

が普通に起きます。

制御工学の世界では、
これはテスト不能・検証不能を意味します。

「たまたまうまく動いた」は
設計としては失敗です。


🔀 状態破壊:FSMを踏み抜く

多くのフィジカルAIは、
意識せずとも FSM(有限状態機械) を持っています。

しかしLLMを直結すると、

ということが起きます。

これは「判断ミス」ではありません。
FSMを理解していない要素を、FSMの内側に置いた結果です。


🔧 制御の目で見ると何が起きているか

制御工学の視点で言うと、
LLMはそもそも 制御要素ではありません

にもかかわらず、
それを制御ループに入れるとどうなるか。

不安定化が確定します。

これは「チューニング不足」ではなく、
構造的な誤りです。


🔗 既存記事との接続

この失敗は、すでに別分野で何度も見ています。

どれも共通点は同じです。

👉 制御すべき内側に、制御不能な要素を入れた

分野が違うだけで、
失敗の構造は完全に一致しています。


❌ よくある反論と、その答え

「でも、人間はそれで動いている」

→ 人間は並列・冗長・学習済みの制御器です
LLMはそうではありません。

「ルールを厳しくすればいい」

→ それは FSMを作る という話です
最初からFSMを置いた方が安全です。


🧭 まとめ

LLMは「賢い」
しかし「制御できない」

フィジカルAIで必要なのは、
賢さをどこに置くか という設計です。

次回は、

を、三層構造として整理します。

ここでようやく、
LLMが「使える場所」と「使ってはいけない場所」
が明確になります。