News Feature

AIに公正な判断はできるか?

Rhema Vaithianathanは、ホットラインへの通報から児童虐待の恐れについて判定するアルゴリズムを構築している。 Credit: ILLUSTRATION BY MARIO WAGNER

オークランド工科大学(ニュージーランド)のソーシャルデータ分析センターの副所長である医療経済学者のRhema Vaithianathanの心には、2015年に1人の悩める父親から投げかけられた質問が、いまだに重くのしかかっている。彼女はその日、米国ペンシルベニア州ピッツバーグの地下室に集まった少人数の聴衆の前で、ソフトウエアを利用して児童虐待を防止する仕組みについて説明していた。この地区の児童虐待ホットラインには、子どもが危険な目に遭っているのではないかと心配する人々から毎日数十件の通報が寄せられている。コールセンターのスタッフは、通報の内容から虐待の可能性を評価し、虐待の恐れがあると判断した案件については調査が行われるように手配する。しかし、このシステムで全ての虐待事案を把握できるわけではない。Vaithianathanらは、調査に入るべきかどうかの判断を補助するアルゴリズムの開発を請け負う、50万ドル(約5500万円)の契約を勝ち取ったところだった。

全文を読むには購読する必要があります。既に購読されている方は下記よりログインしてください。

翻訳:三枝小夜子

Nature ダイジェスト Vol. 15 No. 9

DOI: 10.1038/ndigest.2018.180925

原文

Bias detectives: the researchers striving to make algorithms fair
  • Nature (2018-06-21) | DOI: 10.1038/d41586-018-05469-3
  • Rachel Courtland
  • Rachel Courtlandは、ニューヨーク在住のサイエンスライター。

参考文献

  1. Chouldechova, A. Preprint at https://arxiv.org/abs/1703.00056 (2017).
  2. Chouldechova, A., Putnam-Hornstein, E., Benavides-Prado, D., Fialko, O. & Vaithianathan, R. Proc. Machine Learn. Res. 81, 134–148 (2018).

  3. Reisman, D., Schultz, J., Crawford, K. & Whittaker, M. Algorithmic Impact Assessments: A Practical Framework for Public Agency Accountability (AI Now, 2018).
  4. Wachter, S., Mittelstadt, B. & Floridi, L. Sci. Robotics 2, eaan6080 (2017).