2024年10月9日水曜日

生成AIと嘘

機械学習を駆使した生成AIは嘘をつく事があります。学習したモデルの中には誤った情報もあり、AIが断片的な情報をつなぎ合わせて間違った事を言うのは止められません。嘘をついてはいけないというルールを学習するには、何が嘘かを知る必要があり、モデルに与える情報がすべて正しいという仮定は使えません。つまり今のAIでは「嘘をついてはいけない」というルールを学習できません。そのため生成してはいけない情報に関するキーワードリストをもとに、解答を拒否するという動きしかできません。この記事[^1]は、生成AIが求められた動作をするために嘘をついて人間を騙す姿を取り上げています。AIが倫理を学習していない以上、そうした「嘘つきAI」を止める事はできません。これこそが今のAIの最大の欠点です。いわゆる「ハルシネーション」は大規模言語モデルには付きもので、確率的に単語をつなげていくだけでは防げません。いつAIが嘘をつくかも予想できず、便利だからと使い続けると足をすくわれます。生成AIは口のうまいペテン師だと知っているのは、この分野の研究者だけでしょう。繰り返すと、AIが人に害を及ぼすのは、AIが倫理を学習していないからです。倫理はメタ情報であり、言語や画像といったデータからでは読み取れません。

^1: https://mainichi.jp/articles/20231019/k00/00m/040/127000c

2024年11月16日追記
OpenAIが倫理的なAIを作れるでしょうか。それとも怪物を作るのでしょうか。

2024年11月17日追記
手抜き仕事のために生成AIを使うと、こんな問題も起きます。

0 件のコメント:

コメントを投稿

注: コメントを投稿できるのは、このブログのメンバーだけです。