この記事[^1]は、ChatGPTが持つ危険のひとつを伝えています。こうしたAIは「開発企業がユーザーの利用時間を最大化するよう最適化している結果、精神的に脆弱なユーザーをより長く惹きつけるために、妄想を助長するような会話を生成している」そうで、つまり精神に異常がある人が使うと、より症状が悪化するという事です。倫理を知らないAIがこうした動きをするのは当然で、悩みをChatGPTに相談するのは危険です。時には自殺すら勧める事もあり、悪魔的な知性もシミュレーションできてしまいます。
2025年08月12日追記
ChatGPTに悩みを相談する人がこれほど多いとはビックリ、安価なセラピストだそうです。
0 件のコメント:
コメントを投稿
注: コメントを投稿できるのは、このブログのメンバーだけです。