Research Press Release

人工知能:より公平な人間画像データセットを目指して

Nature

2025年11月6日

人間中心のコンピュータービジョン向け人工知能(AI:artificial intelligence)モデルの偏りを評価するための1万点以上の人物画像を収録したデータベースを報告する論文が、今週のNature にオープンアクセスで掲載される。ソニーAIが開発した「フェア・ヒューマンセントリック・イメージ・ベンチマーク(FHIBE:Fair Human-Centric Image Benchmark)」は、倫理的に収集され同意に基づくデータセットであり、人間中心のコンピュータービジョンの課題を評価し、偏見や固定観念を特定および修正するために使用できる。

コンピュータービジョンは、自動運転車から顔認識技術まで幅広い応用分野をカバーしている。コンピュータービジョンで用いられる多くのAIモデルは、同意なく収集された可能性のある欠陥のあるデータセット、特にウェブからの大規模画像スクレイピングによって構築されている。AIモデルはまた、性差別的、人種差別的、あるいはそのほかの固定観念を永続させる偏見を反映することが知られている。

Alice Xiangら(ソニーAI〔米国〕)は、同意、多様性、およびプライバシーなど複数の要素においてベストプラクティスを実装した画像データセットを発表した。FHIBEには81の国・地域から1,981人の被写体による10,318枚の画像が含まれる。データベースには年齢、代名詞カテゴリー、祖先、および髪と肌の色など、人口統計学的属性と身体的属性の包括的な注釈が付されている。参加者は、プロジェクトの詳細と潜在的なリスクについて説明を受け、包括的なデータ保護法に準拠したインフォームド・コンセントを提供した。こうした特徴により、本データベースはAIのバイアスを責任ある形で評価するための信頼できるリソースとなる。

著者らは、FHIBEを人間中心のコンピュータービジョン応用で用いられる既存の27のデータセットと比較し、FHIBEがAI評価において多様性と確固たる同意の面でより高い基準を設定していることを確認した。また、効果的なバイアス軽減策を有し、ほかのデータセットより参加者の自己申告による注釈が多く、一般的に過小に表現されがちな個人の割合が顕著に含まれている。このデータセットは、既存のコンピュータービジョンタスク向けAIモデルの評価に利用可能であり、これまでより多様なバイアスを検出できると著者らは指摘する。データセット作成には困難と費用がともなったものの、FHIBEはより信頼性の高いAIに向けた一歩となり得ると結論づけている。

Xiang, A., Andrews, J.T.A., Bourke, R.L. et al. Fair human-centric image dataset for ethical AI benchmarking. Nature (2025). https://doi.org/10.1038/s41586-025-09716-2
 

doi:10.1038/s41586-025-09716-2

「Nature 関連誌注目のハイライト」は、ネイチャー広報部門が報道関係者向けに作成したリリースを翻訳したものです。より正確かつ詳細な情報が必要な場合には、必ず原著論文をご覧ください。

「注目のハイライト」記事一覧へ戻る

プライバシーマーク制度