ついにLLM(大規模言語モデル)がロボットを動かす日[^1]が来ました。まだ簡単な動きしか許されていないものの、こうした結合は雪崩のように進むと思います。すると最初に心配なのは、安全性はだれが担保するのかという事です。おもちゃならまだしも、仕事で使うような大きなロボットならLLMが指示した動作で誰かがケガする可能性があります。製造者責任としてロボットのメーカーが責任を負うのか、それともLLMのAPIを提供する会社が責任を負うのか、はたまたそのロボットを購入した人が責任を負うのか、さらにはそのロボットを使う人が責任を負うのか、いずれ判例を通じて明確化されるでしょう。行き着く先はスカイネットです。LLMだって幻覚を持つので、複合的なエラーで致命的な事故が起きる可能性は排除できません。こうしたロボットには、せめてすぐに動作を止めるキルスイッチを設けるべきです。
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。