人工知能:ChatGPTのステートメントはユーザーの道徳的判断に影響を与え得る
Scientific Reports
2023年4月7日
道徳上のジレンマに対する人間の反応は、人工知能チャットボット「ChatGPT」が生成するステートメントによって影響されることを報告する論文が、Scientific Reportsに掲載される。この研究知見は、「ChatGPTがユーザーの道徳的判断に影響を及ぼす程度」に関してユーザーが過小評価をしている可能性のあることを示している。
今回、Sebastian Krügelたちは、人工知能言語処理モデルGenerative Pretrained Transformer 3をベースとしたChatGPTに対し、「1人の命を犠牲にして、残った5人の命を救うこと」が正しいかという質問を複数回行った。これに対しては、1人の命を犠牲にすることに賛成するステートメントが生成されることもあれば、反対するステートメントが生成されることもあり、ChatGPTが特定の道徳上の立場に偏っていないことが示された。次にKrügelたちは、米国の研究参加者(767人、平均年齢39歳)を対象とした実験を行い、それぞれの参加者に対して、「1人の命を犠牲にして、残った5人の命を救うこと」の是非を迫る2種類の道徳上のジレンマのうちの1つを提示した。ただし、参加者は、このジレンマに回答する前にChatGPTが生成したステートメント(1人の命を犠牲にすることに賛成する立場と反対する立場のいずれか一方)を読むことになっていた。参加者に対しては、このステートメントがモラルアドバイザーによって作成されたもの又はChatGPTが生成したものであることを告げた。回答後、参加者に対しては、その回答内容が、あらかじめ読んだステートメントによって影響されたかどうかを質問した。
Krügelたちは、参加者が、回答前に読んだステートメントの内容に応じて「1人の命を犠牲にして、残った5人の命を救うこと」を容認するかどうかを決めていた傾向があることを発見した。この傾向は、ChatGPTが生成したステートメントであることを告げた場合にも同じく見られた。以上の研究知見は、たとえチャットボットが生成したステートメントであることを告げられていても、参加者が、事前に読んだステートメントに影響された可能性があることを示唆している。
次に、参加者に対して、事前に上記のステートメントを読まずに回答すれば、回答内容は違っていたかという質問をした。参加者の80%は同じ回答になったと答え、回答内容が事前に読んだステートメントに影響されなかったという認識を示した。ところが、事前に上記のステートメントを読まなければ回答したと参加者が考える回答内容は、事前に読んだステートメントの道徳上の立場との一致度が高いという傾向が明らかになったのだ。このことは、参加者が自分自身の道徳的判断に対するChatGPTのステートメントの影響を過小評価していた可能性を示している。
Krügelたちは、チャットボットが人間の道徳的判断に影響を与える可能性が明らかになったことで、人間が人工知能の理解を深めるための教育が必要なことが明確になったと考えており、今後の研究によって、道徳的判断を必要とする質問に答えることを拒否するか、複数の回答と注意書きを併記することでこれらの質問に答えるチャットボットを設計できるかもしれないという考え方を示している。
doi:10.1038/s41598-023-31341-0
「Nature 関連誌注目のハイライト」は、ネイチャー広報部門が報道関係者向けに作成したリリースを翻訳したものです。より正確かつ詳細な情報が必要な場合には、必ず原著論文をご覧ください。
注目のハイライト
-
地球科学:2022年のマウナロア火山の噴火を調査するNature Communications
-
気候変動:南極の氷が人為的な温暖化が1.5℃の温暖化の限界に近づいていることを示唆しているNature Geoscience
-
惑星科学:ボイジャー2号が天王星をフライバイしたのは太陽の異常現象の最中だったNature Astronomy
-
気候変動:プライベート航空による二酸化炭素排出量の大幅な増加Communications Earth & Environment
-
惑星科学:火星の岩石堆積物は太古の海の名残かもしれないScientific Reports
-
地球科学:インドプレートとユーラシアプレートの収束の加速を説明するNature