Nature ハイライト

人間行動学:AIが抱える道徳的ジレンマ

Nature 563, 7729

人工知能の技術が進歩するにつれ、機械が道徳的に曖昧な状況においてどのように振る舞うかについての社会的な懸念が浮上しており、機械の振る舞いに関する原則の開発はこうした懸念によって導かれるべきである。自動運転車の振る舞いに対する社会的期待についての議論に情報を提供しようと、I Rahwanたちは今回、インターネット上の実験プラットフォーム「モラル・マシン」を展開し、その結果を報告している。このプラットフォームでは、自動運転車が関わる道徳的シナリオに対する世界的な態度や優先傾向について、200万人以上の人々から意思決定データを集め、調査が行われた。得られた結果からは、異なる複数の文化における優先傾向について、前例のない全体像が明らかになった。これらの優先傾向の一部は普遍的であった(より多くの命またはより若い人の命が救える方を選ぶなど)が、中には文化間での倫理的な違いも見られた。著者たちは、これらのデータが、自動運転車の倫理に関して社会的に許容される原則を開発する上での、社会的議論や政策議論の出発点になることを望んでいる。

2018年11月1日号の Nature ハイライト

目次へ戻る

プライバシーマーク制度