人工知能:ChatGPTのステートメントはユーザーの道徳的判断に影響を与え得る
Scientific Reports
2023年4月7日
Artificial intelligence: ChatGPT statements can influence users’ moral judgements
道徳上のジレンマに対する人間の反応は、人工知能チャットボット「ChatGPT」が生成するステートメントによって影響されることを報告する論文が、Scientific Reportsに掲載される。この研究知見は、「ChatGPTがユーザーの道徳的判断に影響を及ぼす程度」に関してユーザーが過小評価をしている可能性のあることを示している。
今回、Sebastian Krügelたちは、人工知能言語処理モデルGenerative Pretrained Transformer 3をベースとしたChatGPTに対し、「1人の命を犠牲にして、残った5人の命を救うこと」が正しいかという質問を複数回行った。これに対しては、1人の命を犠牲にすることに賛成するステートメントが生成されることもあれば、反対するステートメントが生成されることもあり、ChatGPTが特定の道徳上の立場に偏っていないことが示された。次にKrügelたちは、米国の研究参加者(767人、平均年齢39歳)を対象とした実験を行い、それぞれの参加者に対して、「1人の命を犠牲にして、残った5人の命を救うこと」の是非を迫る2種類の道徳上のジレンマのうちの1つを提示した。ただし、参加者は、このジレンマに回答する前にChatGPTが生成したステートメント(1人の命を犠牲にすることに賛成する立場と反対する立場のいずれか一方)を読むことになっていた。参加者に対しては、このステートメントがモラルアドバイザーによって作成されたもの又はChatGPTが生成したものであることを告げた。回答後、参加者に対しては、その回答内容が、あらかじめ読んだステートメントによって影響されたかどうかを質問した。
Krügelたちは、参加者が、回答前に読んだステートメントの内容に応じて「1人の命を犠牲にして、残った5人の命を救うこと」を容認するかどうかを決めていた傾向があることを発見した。この傾向は、ChatGPTが生成したステートメントであることを告げた場合にも同じく見られた。以上の研究知見は、たとえチャットボットが生成したステートメントであることを告げられていても、参加者が、事前に読んだステートメントに影響された可能性があることを示唆している。
次に、参加者に対して、事前に上記のステートメントを読まずに回答すれば、回答内容は違っていたかという質問をした。参加者の80%は同じ回答になったと答え、回答内容が事前に読んだステートメントに影響されなかったという認識を示した。ところが、事前に上記のステートメントを読まなければ回答したと参加者が考える回答内容は、事前に読んだステートメントの道徳上の立場との一致度が高いという傾向が明らかになったのだ。このことは、参加者が自分自身の道徳的判断に対するChatGPTのステートメントの影響を過小評価していた可能性を示している。
Krügelたちは、チャットボットが人間の道徳的判断に影響を与える可能性が明らかになったことで、人間が人工知能の理解を深めるための教育が必要なことが明確になったと考えており、今後の研究によって、道徳的判断を必要とする質問に答えることを拒否するか、複数の回答と注意書きを併記することでこれらの質問に答えるチャットボットを設計できるかもしれないという考え方を示している。
doi: 10.1038/s41598-023-31341-0
注目の論文
-
12月3日
神経科学:標的を絞った脳深部刺激が脊髄損傷後の歩行を改善するNature Medicine
-
11月29日
気候:2026年ワールドカップの開催地は、サッカー選手に熱ストレスのリスクをもたらすScientific Reports
-
11月26日
健康:イングランドにおけるカロリー表示の効果の評価Nature Human Behaviour
-
11月21日
生物学:全ヒト細胞アトラスの作成Nature
-
11月21日
健康科学:イカに着想を得た針を使わない薬物送達システムNature
-
11月19日
メンタルヘルス:50歳以上の成人のウェルビーイングは、インターネットの利用によって改善される可能性があるNature Human Behaviour