News in Focus

AI分野でも研究倫理の向上を進めている

Nature ダイジェスト Vol. 18 No. 4 | doi : 10.1038/ndigest.2021.210418

原文:Nature (2020-12-23) | doi: 10.1038/d41586-020-03611-8 | Prestigious AI meeting takes steps to improve ethics of research

Davide Castelvecchi

AI分野の権威ある国際会議NeurIPSは2020年の会議で初めて、発表者に自身の研究が社会に与える広範な影響について考察することを要請した。

人工知能研究は倫理面からも精査されるようになってきている。 | 拡大する

MICHAEL COHEN/GETTY

NeurIPS(Neural Information Processing Systems;神経情報処理システム会議)は、人工知能(AI)分野で最も権威がある国際会議だ。そのNeurIPSが、1年に及ぶ論文の精査と、果てなき議論を経て、自ら良い手本を示そうとしている。2020年12月に完全オンライン形式で開催されたNeurIPS2020で、初めて、発表者に自身の研究が社会に及ぼし得る広範な影響について悪影響も含めて評価を行うように求めたのだ。

組織委員会は、倫理的な懸念があると指摘された論文について精査するための倫理審査委員会も設置した。このプロセスにより、不適切とされた論文は不採択となる可能性がある。

AI業界の倫理面のお目付け役を自任する非営利組織テック・インクワイアリー(Tech Inquiry、カナダ・トロント)の設立者であるJack Poulsonは、「人々にこうしたことを考えさせるだけでも大きな価値があると思います」と言い、この方針がAI業界の文化を変える一助となることを期待している。

近年、機械学習の研究者は、偽物の動画を制作するディープフェイクや、警察が容疑者を識別する際に顔認識アルゴリズムに頼ることで犯す間違いまで、AI技術の不適切な利用で生じる問題を強く意識するようになっている。

グーグル社傘下のAI企業ディープマインド(英国ロンドン)の倫理学者Iason Gabrielは、「過去にはテクノ楽観論が優勢だった時期もありました。けれども近年、明らかに風向きが変わってきました」と言う。

意図しない用途

学会参加者に影響評価書を作成させるというアイデアは、Brent Hechtが率いるグループ「Future of Computing Academy」に触発されたものだ。Hechtはテクノロジーが人間に及ぼす影響の専門家で、マイクロソフト社(米国ワシントン州レドモンド)とノースウェスタン大学(米国イリノイ州エバンストン)に所属している。Hechtらは2018年に、コンピューターサイエンス分野の論文の著者に対して、自身の研究が及ぼし得る好ましくない影響や意図しない用途について、論文に記載することを義務付けるべきだと提案した。他の科学分野では、論文の査読はジャーナルに投稿されたときに行われるが、コンピューターサイエンス分野の査読は、論文が学術大会に投稿されたときに行われることが多い。従ってこの分野で最大の学術大会であるNeurIPSは、Hechtらの提案を試す場として、ごく自然な選択だった。

NeurIPS2020には9467本の論文が投稿された。査読者は主に論文の科学的価値を評価するが、採択される可能性のある論文に倫理的な懸念がある場合には、Gabrielが率いる独立した倫理審査委員会に回され、そこで精査された。NeurIPS2020組織委員会のプログラム幹事の1人でFacebook AI Research(米国ニューヨーク)のコンピューター科学者Marc’Aurelio Ranzatoによると、290本の論文に倫理的な懸念が指摘され、最終的には4本が倫理的な問題を理由に不採択になったという。

NeurIPS2020組織委員会のダイバーシティー・アンド・インクルージョン幹事の1人、グーグル社(米国カリフォルニア州マウンテンビュー)のコンピューター科学者Katherine Hellerは、「全体としては、倫理プロセスはうまくいったと思います」と言う。

Gabrielは、3人の匿名の査読者は誰でも、テーマ領域幹事と同じように論文を倫理審査委員会に回すことができるため、問題のある論文の見落としはほとんどないはずだと考えている。「倫理的な懸念があると感じる人が1人でもいれば、倫理審査が始まるからです」と彼は言う。しかし彼は、このプロセスが間違った結論を出す可能性があることも認めている。例えば、査読者が全員男性だった場合には(男性の多い分野では珍しいことではない)、アルゴリズムが女性に不利な影響を及ぼさないかどうか正しく評価することができないかもしれない。「この種の盲点がある可能性は否定できません」。

さらに、査読者には、どのようなことが社会の害となるかに関する具体的な指針が与えられていなかった。Ranzatoによると、一部の査読者は、個人情報や明確な同意なしに収集された写真などを含むデータベースを利用する論文について、倫理的な懸念を指摘していたという。実際、このようなデータベースの使用は強く批判されているのだが、組織委員会が査読者に対してこの点に注意するように呼び掛けたり、問題のあるデータベースのリストを示したりすることはなかった。それでもRanzatoは、今回の査読方針は正しい方向への一歩だと評価している。「完璧ではありませんが、以前より改善されてきています」。

AIを監視する

会議の最終日には、AIが社会に与える広範な影響に焦点を当てた特別セッションが開催された。Hecht、Gabrielをはじめとするパネリストらは、AI業界が抱える問題に対処する方法について議論した。マイクロソフト(米国ニューヨーク)の研究者であるHanna Wallachは、倫理面については最終製品の開発や販売担当の同僚がどうにかしてくれるだろうなどと他人を当てにせず、研究の初期段階から社会に及ぼす可能性のある弊害を評価し、小さくしていかなければならないと呼び掛けた。彼女は、倫理的思考は機械学習分野に組み込むべきであり、倫理の専門家に委託してはならないと考えている。そこを外注してしまったら、「AI分野は他の分野の監視を受けることになってしまうからです」と彼女は言う。

Wallachや、グーグル社の技術プログラムマネジャーであるDonald Martinらは、自社の製品開発プロセスを再設計し、社会的状況を認識して取り入れたものにしようとしている。Martinは、AI倫理は「科学に対する公衆の理解の危機ではなく、公衆に対する科学の理解の危機なのです」と言う。

新しい査読プロセスと倫理に焦点を当てた議論は、NeurIPSの最新の挑戦にすぎない。NeurIPSは常に、機械学習とAIのより良い在り方を模索してきた。この国際会議の略称はもともと「NIPS」だったが、これは「乳首」を意味する俗語でもあり、人々を不快にさせるとして、2018年に「NeurIPS」に改称すると同時に、参加者による性差別的な言動に対しても厳格に対処するようになった。NeurIPS2020では、さらに前進して、AI倫理とインクルーシビティー(排他的にならずに、多様性を受け入れ誰でも参加できる包容性)について、力強い議論が繰り広げられたのである。

(翻訳:三枝小夜子)

キーワード

Nature ダイジェスト Online edition: ISSN 2424-0702 Print edition: ISSN 2189-7778

プライバシーマーク制度