いくら深層学習によるAIが進んでも、師である人間を超えるAIはできません。ネットにない情報は知らず、文字化されてない情報も苦手です。なのでこうした期待[^1]は分かるものの、吟味せずにAIを使うのは危険です。特に誤った情報がAIによってもたらされた場合、誰が責任を取るのか決めておく必要があります。AIは人でないため責任は取れません。通常は使う人が責任を取るべきで、例えばAIが外国語を翻訳した場合、その翻訳を依頼した人が誤訳の責任を取ります。そこで「複数のAIを使って裏を取る」という作業が不可欠となり、それでも生じる問題は利用者の責任です。AIは助言者に過ぎず、全面的に依存すると足をすくわれます。コーディングする人は減らせても、テストする人は減らせません。
2025年06月04日追記
この使い方は役に立つでしょう。AIはアイデアの壁打ちに向いています。
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。