注目の論文

【人工知能】自動運転車が従うべき道徳的規則とは

Nature

2018年10月25日

Artificial Intelligence: Navigating the moral rules of the road

不可避な人身事故に際して、無人自動車が誰を死なせないようにするかをどのように判断すべきかに関する全世界の道徳的選好について報告する論文が、今週に掲載される。この知見は、全世界の約4000万人の参加者が回答した意思決定内容に基づくもので、今後社会に受け入れられる人工知能(AI)倫理の構築を巡る議論に有益な情報をもたらす可能性がある。

無人自動車は、路上をうまく走行するだけでなく、人身事故の発生が不可避となった状況下で生じる道徳的ジレンマをもうまく乗り切る必要がある。こうした状況でAIシステムを導くための倫理規則が必要となるが、自動運転車を実用化するのであれば、人々が一般的に好ましいと思える倫理規則を決定しなくてはならない。

Iyad Rahwanたちの研究グループは、全世界の市民の道徳的選好を探ることを目的としたオンライン意識調査「Moral Machine」を作製した。この実験では、参加者に対し、2車線道路を走行する無人自動車が関係する不可避な事故のシナリオを紹介した。それぞれのシナリオでは、事故死する同乗者と歩行者の組み合わせが異なっており、無人自動車は走行中の車線に留まることも対向車線に入り込むこともできた。これに対し参加者は、誰を死なせないようにすべきかの判断に基づいて、無人自動車が取るべき動作を決定するよう求められた。この実験では、約4000万件の決定が記録された。

この実験から、人々に広く共有される数々の道徳的選好が同定された。例えば、死なずにすむ人の数を最大化させること、若年者の命を優先的に救うこと、動物より人間に価値を置くことだ。また、文化圏によって倫理が異なることも明らかになった。例えば、中南米諸国や、フランスとその現在および過去の海外領の参加者には、女性と筋骨たくましい者に対する強い選好性が見られ、所得の不平等が大きい国の参加者は、誰の命を救うか決める際に社会的地位を考慮に入れる傾向が強かった。

私たちは、自分たちの乗る車が倫理的な意思決定をし始める前に、道徳アルゴリズムを設計する企業やそうした企業を規制する政策当局者に対して、自らの道徳的選好を世界規模で伝える必要がある、とRahwanたちは結論付けている。

doi: 10.1038/s41586-018-0637-6

「注目の論文」一覧へ戻る

プライバシーマーク制度