Editorial

何が倫理にかなった顔認識研究なのかを明確にする必要がある

Nature ダイジェスト Vol. 18 No. 2 | doi : 10.1038/ndigest.2021.210249

原文:Nature (2020-11-18) | doi: 10.1038/d41586-020-03256-7 | Facial-recognition research needs an ethical reckoning

コンピューターサイエンス(計算機科学)とAIの分野は、生体計測の倫理的課題と悪戦苦闘している。この問題には、研究機関が対応しなければならない。

拡大する

DILSAD SENOL/iStock/Getty

ここ18カ月間、多くの大学や企業が、顔認識アルゴリズムの改善に使用された数千点(場合によっては数百万点)の顔の画像を含むオンラインデータセットを削除してきた。

ほとんどの場合は、研究者がこれらの画像をインターネット上から除去した。これらの画像が公開データであったため、その収集について、施設内審査委員会(IRB)もその他の研究倫理委員会も問題性を察知しなかったようだ。しかし、画像に写った人々は1人も許可を求められておらず、顔が使われたことを不満に感じる者もいた。

この問題が注目されるようになったきっかけは、ベルリンを拠点に活動するアーティストであり研究者でもあるAdam Harveyの作品だ。公開されたデータセットを利用して、監視システムと連携するソフトウエアの改善を図るという企業活動や、Harveyの作品を報道したジャーナリストによっても公開データが利用されたことが、その作品を通して浮き彫りになった。コンピューターサイエンス(計算機科学)や人工知能(AI)の分野の多くの研究者や関係する施設内倫理審査過程の担当者は、同意を得ずに公開データを使用しても差し支えないと考えていた。しかし、それが変わり始めている。この点は、今よりもきちんと、顔認識研究や他の多くの種類のAI研究を行えるようにするために必要な数々の論点のうちの1つだ。

2020年11月19日号のNature に掲載された顔認識に関する一連の特集記事(347ページ350ページ354ページ)で報告されているように、この分野の多くの人々は、当然のことながら、この技術の利用実態に不安を感じている。一部の科学者は、顔認識技術の不正確な点や偏りを分析し、差別が生じることを警告している。また、規制の強化や透明性の向上、カメラで監視されているコミュニティーとの協議を求める運動や、顔認識技術の利点とリスクを立法者が再考している間は同技術を使用停止にすることを呼びかける運動に参加したりしている科学者もいる。

きちんとした研究

顔認識研究の分野における倫理性の再考を主張している科学者もいる。その一例として、特定の種類の研究を行うべきではないという主張がある。また、多くの科学者は、弱い立場にある人々の顔を調べることを目的とした学術論文に憤りを感じている。その一例が、中国のウイグル族で、政府の監視下に置かれ、多くの人々の身柄が拘束されている。

また、科学的にも倫理的にも怪しげな評価基準(例えば、「犯罪性」)で顔を分類しようとした論文を非難した研究者もいる。

Nature は、顔認識技術や顔認識研究の倫理性に関する科学者の見解について理解を深めるために調査を実施した。生体計測研究に倫理審査を導入するための会議を要求する回答者が多かった。そして、これは実現し始めている。2020年12月に開催される神経情報処理システム(NeurIPS:Neural Information Processing Systems)の会議では、科学者が、その研究の倫理上の懸念事項や負の結果が生じる可能性を論じることが、初めて義務付けられる。また、Nature Machine Intelligence は、特定の種類のAI研究の論文著者に対して、研究の影響を説明する声明文の作成を求めるようになった。こうした動きは、重要な一歩であるが、学術誌や研究助成機関、研究機関が行えることが、まだ他にもあるのではないかと考えられる。

例えば、研究者は、許容される研究の種類に関して、より多くの指針を研究機関から得たいと考えている。Nature の調査では、顔認識研究の倫理性についての懸念や意見の相違が科学者間で広く見られ、また彼らはIRBに対し、十分な指針を示す体制が整っていないのではないかと懸念していることが分かった。

AIに関する一般的な倫理指針は、既に存在している。それに米国や欧州の研究助成機関は、生体計測研究の諸課題を研究する活動を支援し、何を「公開」データと見なすかについて再考することを推奨し、科学者に対して自らの研究が社会に及ぼす影響を検討することを求めている。結局のところ、生体計測研究には人間が関係するため、個人データの収集と分析が可能なのだからそれを行ってもよい、と科学者は考えるべきではない。国民との対話が大事なのだ。科学者は、データに記述された人々の考えを聴くべきだ。それが不可能であれば、研究者は、これらの人々を代弁する代理人集団に連絡を取るように努めるべきである。

第1の問題は、AIに関する倫理指針に、実行が容易でない原則が定められる傾向があることだ。2019年に発表されたオックスフォード大学(英国)の哲学者Brent Mittelstadtの論文では、少なくとも84例のAIの倫理イニシアチブによって、AIの倫理的な発展と展開に関する高次の原則が新たに構築されたことが指摘されている(B. Mittelstadt Nature Mach. Intell. 1, 501-507; 2019)。これらの原則は、医療倫理の諸概念の周辺に集中していた。例えば、人間の自律性の尊重、危害の防止、公正さ、説明可能性(または透明性)などがある。しかし、この論文でMittelstadtは、「公正さ」や「自律性の尊重」などの原則が実務において何を意味するかが文化によって根本的に異なる点を指摘した。医療実務では、患者に危害が加わることを防ぐための国際的に合意された規範と、強固な説明責任のメカニズムがある。AIには、こうしたものがないと、Mittelstadtは指摘した。倫理指針が単なる「粉飾決算」にならないようにするためには、具体的な事例研究や例題を使った学習(worked example)の方が有用だと考えられる。

第2の懸念は、多くの研究者が、研究に必要な資金やデータを企業に依存していることだ。大部分の企業は、生体計測技術の研究方法や利用方法に関する倫理上の問題に懸念を抱いているが、企業にとって製品を売ることが最重要事項であるため、そうした懸念と衝突する可能性が高い。

研究者だけで、企業や政府による倫理に反した顔認証技術や顔分析ツールの利用を止めることはできない。だが、声を大にして反対を主張し、ガバナンスと透明性の強化を求める運動に参加できる。また研究者は、その研究を進めている理由や、データセットの入手方法、その研究によって恩恵を受けると予想されるコミュニティーがその研究の実施を望んでいるのか、そして、その研究がもたらし得る負の影響について、より深く考えることもできるのだ。

(翻訳:菊川要)

キーワード

Nature ダイジェスト Online edition: ISSN 2424-0702 Print edition: ISSN 2189-7778

プライバシーマーク制度