News Feature

AIに公正な判断はできるか?

機械学習が社会に浸透しつつある今、科学者たちは公正なアルゴリズムの実現という難題と格闘している。

拡大する

ILLUSTRATION BY MARIO WAGNER

Nature ダイジェスト Vol. 15 No. 9 | doi : 10.1038/ndigest.2018.180925

原文:Nature (2018-06-21) | doi: 10.1038/d41586-018-05469-3 | Bias detectives: the researchers striving to make algorithms fair

Rachel Courtland

オークランド工科大学(ニュージーランド)のソーシャルデータ分析センターの副所長である医療経済学者のRhema Vaithianathanの心には、2015年に1人の悩める父親から投げかけられた質問が、いまだに重くのしかかっている。彼女はその日、米国ペンシルベニア州ピッツバーグの地下室に集まった少人数の聴衆の前で、ソフトウエアを利用して児童虐待を防止する仕組みについて説明していた。この地区の児童虐待ホットラインには、子どもが危険な目に遭っているのではないかと心配する人々から毎日数十件の通報が寄せられている。コールセンターのスタッフは、通報の内容から虐待の可能性を評価し、虐待の恐れがあると判断した案件については調査が行われるように手配する。しかし、このシステムで全ての虐待事案を把握できるわけではない。Vaithianathanらは、調査に入るべきかどうかの判断を補助するアルゴリズムの開発を請け負う、50万ドル(約5500万円)の契約を勝ち取ったところだった。

全文を読むには購読する必要があります。既に購読されている方は下記よりログインしてください。

Nature ダイジェスト Online edition: ISSN 2424-0702 Print edition: ISSN 2189-7778

プライバシーマーク制度