【人工知能】自動運転車が従うべき道徳的規則とは
Nature
不可避な人身事故に際して、無人自動車が誰を死なせないようにするかをどのように判断すべきかに関する全世界の道徳的選好について報告する論文が、今週に掲載される。この知見は、全世界の約4000万人の参加者が回答した意思決定内容に基づくもので、今後社会に受け入れられる人工知能(AI)倫理の構築を巡る議論に有益な情報をもたらす可能性がある。
無人自動車は、路上をうまく走行するだけでなく、人身事故の発生が不可避となった状況下で生じる道徳的ジレンマをもうまく乗り切る必要がある。こうした状況でAIシステムを導くための倫理規則が必要となるが、自動運転車を実用化するのであれば、人々が一般的に好ましいと思える倫理規則を決定しなくてはならない。
Iyad Rahwanたちの研究グループは、全世界の市民の道徳的選好を探ることを目的としたオンライン意識調査「Moral Machine」を作製した。この実験では、参加者に対し、2車線道路を走行する無人自動車が関係する不可避な事故のシナリオを紹介した。それぞれのシナリオでは、事故死する同乗者と歩行者の組み合わせが異なっており、無人自動車は走行中の車線に留まることも対向車線に入り込むこともできた。これに対し参加者は、誰を死なせないようにすべきかの判断に基づいて、無人自動車が取るべき動作を決定するよう求められた。この実験では、約4000万件の決定が記録された。
この実験から、人々に広く共有される数々の道徳的選好が同定された。例えば、死なずにすむ人の数を最大化させること、若年者の命を優先的に救うこと、動物より人間に価値を置くことだ。また、文化圏によって倫理が異なることも明らかになった。例えば、中南米諸国や、フランスとその現在および過去の海外領の参加者には、女性と筋骨たくましい者に対する強い選好性が見られ、所得の不平等が大きい国の参加者は、誰の命を救うか決める際に社会的地位を考慮に入れる傾向が強かった。
私たちは、自分たちの乗る車が倫理的な意思決定をし始める前に、道徳アルゴリズムを設計する企業やそうした企業を規制する政策当局者に対して、自らの道徳的選好を世界規模で伝える必要がある、とRahwanたちは結論付けている。
Global moral preferences for how driverless cars should decide who to spare in unavoidable accidents are reported in a paper published online this week in Nature. The findings, based on almost 40 million decisions collected from participants across the globe, may inform discussions around the future development of socially acceptable AI ethics.
Driverless vehicles will need to navigate not only the road, but also the moral dilemmas posed by unavoidable accidents. Ethical rules will be needed to guide AI systems in these situations; however, if self-driving vehicle usage is to be embraced, it must be determined which ethical rules the public will consider palatable.
Iyad Rahwan and colleagues created the Moral Machine — a large-scale online survey designed to explore the moral preferences of citizens worldwide. The experiment presents participants with unavoidable accident scenarios involving a driverless car on a two-lane road. In each scenario, which imperils various combinations of pedestrians and passengers, the car can either remain on its original course or swerve into the other lane. Participants must decide which course the car should take on the basis of which lives it would spare. The experiment has recorded almost 40 million such decisions.
The authors identify many generally shared moral preferences, including sparing the largest number of lives, prioritizing the young, and valuing humans over animals. They also identify ethics that vary between different cultures. For example, participants from countries in Central and South America, as well as France and its former and current overseas territories, exhibit a strong preference for sparing women and athletic individuals. Participants from countries with greater income inequality are more likely to take social status into account when deciding who to spare.
Before we allow our cars to make ethical decisions, the authors conclude, we need to have a global conversation to express our preferences to the companies that will design moral algorithms, and to the policymakers that will regulate them.
doi: 10.1038/s41586-018-0637-6
「Nature 関連誌注目のハイライト」は、ネイチャー広報部門が報道関係者向けに作成したリリースを翻訳したものです。より正確かつ詳細な情報が必要な場合には、必ず原著論文をご覧ください。