人間のような超知能を作るには、痛みを感じる必要がある[^1]という主張は昔からあります。生物知能には自己保存本能があり、そこには痛みを回避する能力があります。身体的な痛みだけでなく、心理的な痛みも倫理を学ぶ上で必要でしょう。ところが、そうした方法で作られた超知能はそれ自身の価値観を持つため、必ずしも人間の言う事を聞くとは限りません。つまり道具としての超知能を得るには、倫理は邪魔になります。このため倫理を学んだAIはまだありません。何が善で何が悪かは人により違い、宗教にも関係します。知能が現実世界のモデル化だとすれば、そのモデルに物理世界だけでなく精神世界も含めるのは当然で、AIでメタデータとしての倫理をどう扱うかは暗中模索です。ただし、倫理のないAIは人間に害を及ぼすので、生物知能を模倣するのが良いのか、それとも「ロボット3原則」のような組み込みルールを使うのが良いのかは誰も知りません。
同日追記
倫理のないAIにとって、善悪の区別はありません。指示された事をやる方法を何でも試します。
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。