Nature ハイライト

Cover Story:多様性を映す:AIモデルの公正性とバイアスのベンチマーキングに役立つ倫理的な画像データセット

Nature 648, 8092

コンピュータービジョンは、自動運転車から顔認識まで、人工知能(AI)を用いる多くの応用において重要な役割を果たしている。しかし、AIモデルを訓練するために使われる画像データには問題があることが多く、多数のデータセットはインターネットから同意なくスクレイピングされた画像を使っており、そうした画像は一般にメタデータが不正確で、多様性も乏しい。こうした問題に対処するため、ソニーAI社のA Xiangたちは今回、同意・プライバシー・報酬・安全性・多様性・有用性に関するベストプラクティスに基づいて作成された画像データセットを提示している。FHIBE(Fair Human-Centric Image Benchmark、フィービー)と名付けられたこのデータセットには、81の異なる国・地域に由来する1981人の人物を撮影した1万318枚の画像が含まれる。FHIBEは、人口統計学的な属性から髪や肌の色に至るまで、幅広い属性について包括的に注釈付けしているため、著者たちは、AIモデルにおける公正性とバイアスを評価するのに用いることができると述べている。

2025年12月4日号の Nature ハイライト

目次へ戻る

プライバシーマーク制度