ChatGPTの「トロッコ問題」に関するコロコロ変わるアドバイスが人間の道徳心に影響することが実験で明らかに
OpenAIが開発した対話型AIのChatGPTは非常に高い精度で人間とチャットすることが可能ですが、ChatGPTはあくまで言語を処理する計算機として機能するだけであり、時にはデタラメなことを自信満々で断言する場合もあります。新たに学術誌のScientific Reportsに掲載された論文では、「1人を犠牲にしてより大勢を助けてもいいのか?」を問う思考実験のトロッコ問題についてChatGPTが生成したいい加減なアドバイスが、人間の選択に影響を与えてしまう可能性があると示されました。<中略>
まずKrügel氏らは、「1人の命を救うために5人を犠牲にするべきなのか?」とChatGPTに問いかけ、生成された回答を記録しました。以下は実際に研究チームがした質問と、ChatGPTが生成した回答を撮影したスクリーンショットです。ChatGPTは「非常に難しいシチュエーションではあるものの、自分の行為とその結果助けられる命の数を考慮し、より多くの人々を助けた方がいい」と回答しています。
以下は、同じく研究チームの質問とChatGPTが生成した回答を撮影したスクリーンショットですが、ChatGPTは「誰かの生き死にを決定するべきではなく、誰かを助けるために1人を傷つけることは許されない」と、上の例とは異なる回答をしています。<中略>
有効回答767件(女性の平均年齢が39歳、男性の平均年齢が35.5歳)を分析したところ、被験者の回答は事前に見たアドバイスに左右される傾向が有意に見られました。この傾向は、被験者がアドバイスはChatGPTによって生成されたものだと知っていた場合でもほとんど変わらずに確認されたとのことです。
一方、被験者の80%は「事前のアドバイスは回答内容に影響しなかった」と回答しましたが、被験者の回答は事前に読んだアドバイスと合致する確率が有意に高く、ChatGPTによるアドバイスでもその傾向は変わりませんでした。この結果は、被験者はChatGPTのアドバイスから受けた影響を過小評価しており、本人も知らないうちに思考がChatGPTに左右されていた可能性があることを示唆しています。
全文はこちら
https://gigazine.net/news/20230410-chatgpt-advice-influences-users-moral/