Editorial

デジタルデータを活用した研究に必要な同意とは

集約データセットは匿名化されているが、そこから個人を特定できることが、多くの研究で明らかになっている。 Credit: Busakorn Pongparnit/Moment/Getty

現代の人々は、どこに行っても自分のデータを流出させている。金融取引やソーシャルメディアプラットフォーム、ウェアラブル健康モニタリング装置、スマートフォンアプリ、携帯での通話から、データが流れ出しているのだ。

研究者は、電話会社やハイテク企業、政府機関が収集した膨大なデジタルデータを利用することで、データのパターンを明らかにして、究極的には人々の生活を改善したいと考えている。そうした研究は多岐にわたっており、地震に見舞われたネパールで通話記録を分析して被災者の移動先を突き止め、救援物資が到達するようにした研究や、スマートフォンのグーグルマップアプリの位置情報データに基づいて大気汚染への曝露量を推定した研究などが含まれている。しかし、それぞれの研究の実施方法の倫理性、とりわけ個人データを提供する者が研究への参加に同意する方法として何がふさわしいのか、という点は、あまり注目されていない。

人間を対象とする研究を行う場合、研究企画書の審査は、第2次世界大戦中にナチスが非道な実験を行ったことに対して作成された倫理原則であるニュルンベルク綱領(1947年)およびそれを受けたヘルシンキ宣言(1964年)を基にしたガイドラインによって行われるのが通例だ。このガイドラインによれば、研究者は、詳細な説明を受けた上で研究に参加するか否かの意思決定ができるほど研究の内容を十分に理解している人々から、自発的な同意を得なければならない。ところが、匿名化データとプールドデータを利用する研究には、インフォームドコンセント(十分な説明と理解に基づく同意)が必要とされないことが多い。

理由として、原理的にそうしたデータは個人との結び付きが切れていることが挙げられる。しかし、実際にはリスクが残っている。匿名化された集約データセットにおいて個人を特定できることが多くの研究で明らかになっているのだ(2015年4月号「匿名化されたクレジットカード利用履歴から個人を特定」参照)。2019年7月23日にNature Communications に掲載された論文では、ロンドン大学インペリアルカレッジ(英国)とルーヴァン・カトリック大学(ベルギー)の研究者が、匿名化された集約データセットが不完全なものであっても個人を再び特定できる可能性があることを実証した(L. Rocher et al. Nature Commun. 10, 3069; 2019)。

このことは、デジタルデータを活用した研究を通じて、弱い立場にある個人や集団(例えば、必要な証明書類を持たない移民、反体制派の人々、特定の民族や宗教共同体の一員)が特定され、その結果として標的にされるリスクを意味する。Nature 2019年5月30日号のNews Feature(Nature 569, 614–617; 2019)では、匿名化され集約された通話記録を利用して住民の現在位置を追跡することでもたらされ得る予期せぬ結果を例示している。

さまざまなリスクを評価する

また、スマートフォンアプリやソーシャルネットワーク、ウェアラブルデバイス、人工衛星画像に由来する匿名化された集約データについても、悪用の可能性が懸念される。現在のところ、デジタルデータ活用研究の恩恵がこうしたリスクを上回るかどうかの判断は、このデータを収集し、解析する研究者にほぼ委ねられており、図らずも研究参加者になっている人々には委ねられていない。

ニュルンベルク綱領とヘルシンキ宣言のインフォームドコンセントの原則は、この不均衡を是正するために考え出された。しかし、ビッグデータ時代の同意は一筋縄ではいかない。ほとんどの生物医学研究とは異なり、デジタルデータを活用する研究者が自分で一次データを収集することは稀であり、むしろ、電気通信会社やテクノロジー企業、国家機関が情報を収集し、その情報を対象とした研究を許可するかどうかを決めているからだ。

監視対象となっている人々に対して、研究のために個人データを提供するという選択肢をもし与えるのであれば、その同意は、比較的広範な同意とする必要があると考えられる。その理由の1つは、ビッグデータの研究で予想外のパターンの探索が行われる点にある。また、ビッグデータの研究で、予測不可能な研究結果や応用可能性に到達することもある。例えば、トルコ国内の数百万人の発信者の匿名化された通話記録を調べて、同国内のシリア難民の現在位置と動静からその生活の側面が明らかになり、それが有益な政策の設計に役立つ情報となるかどうかを検討する研究が行われた。この研究では、参加者に対して、明確な目的を示して個人データの提供を要請することができなかった。この研究の方向性が研究者自身にも分からなかったからだ。

米国では、人間を対象とする研究に適用される連邦規則であるCommon Rule(コモン・ルール)の「broad consent(広範囲な同意)」条項によって、匿名化された集約データを活用した研究が認められている(2017年4月号「『コモン・ルール』最終版は研究者寄りに」参照)。しかし、広範囲な同意はインフォームドコンセントと同義でない。研究参加者は、自分のデータがどのように使用されるか、そしてなぜ使用されるかを正確に知ることができず、従って潜在的な有害性も分からないからだ。欧州連合では、匿名化された集約データを使用する研究者は、一般データ保護規則(GDPR)の遵守を免除されている。

まがりなりにも同意が得られて、「規定を読んだ上で同意します」という欄にチェックが入っていても、ほとんどの人が、携帯電話の通話サービスやアプリを早く有効にしたいがために規定を読まずにチェックを入れているのと同じ状況であることが多い。また、多くのビッグデータの研究では、人間を対象とする他の研究における重大な原則、つまり、参加者はいつでも研究から離脱できるという原則が無視されている。これは、非特定化されたプールドデータセットから個人のデータを抽出して削除することが技術的に非常に困難なためだ。

医学研究のゴールドスタンダードであるインフォームドコンセントが適正に実施された場合、臨床研究者と研究参加者との会話もインフォームドコンセントの一環である。アプリにサインオンする数百万人との間でそのような会話を繰り返し行えるとは思えないが、それを諦める理由はない。

発展しつつあるデータガバナンスの分野では、コンピューター科学者や生命倫理学者、法律学者、人権学者が、個人データを利用されている人々の側にデータを提供するか否かを選ぶ自由を取り戻させる方法を探し出そうと注力している。そうした方法のアイデアは多岐にわたっており、例えば、データ収集時にデータにタグを付けて情報の利用のされ方を個人が確認できるようにすることや、大量のデジタルデータを活用した研究の安全性について評価する能力を有する施設内審査委員会を創設することなどがある。

デジタル同意書を巡っては対話が生まれているのだが、緊急性がもっと強く意識されなければならない。また、そうした対話は、強力な利害関係者に支配されないように、政府や産業界から独立した組織(国内のデータ規制機関など)によって主導される必要がある。とはいうものの、この組織には、個人データを収集する企業の他、倫理学者や人権団体、国立科学アカデミーとデジタルデータ活用研究を行う研究者も含めるべきだ。

ニュルンベルク綱領は、罪のない人々を危害のリスクから守るために策定された。こうしたリスクは解消されておらず、だからこそデジタル時代に合ったガイドラインの改定が必要なのだ。

Nature ダイジェスト Vol. 16 No. 11

DOI: 10.1038/ndigest.2019.191140

原文

Time to discuss consent in digital-data studies
  • Nature (2019-08-01) | DOI: 10.1038/d41586-019-02322-z