News in Focus

巧妙化するボットと社会科学者の攻防

ネット上の本物の人間の声とボットの声を見分けるのは、研究者にとって難題となり得る。 Credit: alexsl/E+/Getty

コンピューターが生成したコンテンツをソーシャルメディアに大量に投稿するボットは、誤った情報を拡散することで選挙に大きな影響を及ぼし、公衆衛生を損なっていると批判されている。今、一部の社会科学者が新たな告発を行っている。Twitter、Reddit、Instagramなどの人気サイトから人間の健康や行動に関する情報を引き出す手法を採る研究にボットが干渉しているというのだ。

これらのサイトから得られるデータは、自然災害がメンタルヘルスに影響を及ぼす仕組みや、米国の若者が電子タバコに群がる理由や、人々が複雑なソーシャルネットワークを形成する仕組みなどを科学者が理解するのに役立つ。けれどもそうした研究の成否は、現実の人々の声と自動的に生成されたボットの声とを区別できるかどうかにかかっている。

南カリフォルニア大学(米国ロサンゼルス)の社会科学者Jon-Patrick Allemは、「ボットはネット上で人間らしく振る舞うように設計されています」と言う。「研究者が市民の振る舞いを記述するには、自分が収集しているソーシャルメディア上のデータが本当に人間から発せられたものだと確信した上で行う必要があります」。

コンピューター科学者のSune Lehmannが初めてボットを設計したのは2013年のことだった。デンマーク工科大学(コンゲンス・リュンビュー)で彼が受け持っているクラスで、ソーシャルネットワークの実験を行うためであった。当時のTwitter上のボットは単純で、その存在はあまり知られておらず、主に特定のアカウントのフォロワー数を増やすために作られていた。彼は、こうしたボットが社会システムを操る可能性があることを学生たちに示したいと考えていた。そこでLehmannは学生たちと、ジャスティン・ビーバーのファンのように振る舞う単純なボットをいくつか設計した。

「ビーバー・ボット」たちはみるみるうちに数千人のフォロワーを獲得した。その後、ソーシャルメディア上のボットは進化を続け、より複雑になり、検出しにくくなっていった。そんなボットがにわかに脚光を浴びるようになったのは、2016年の米国大統領選挙後のことだ。ソーシャルメディア上に展開されたボットが人々の投票行動に影響を及ぼしたと批判されたのである。「突然、人々がボットに興味を持ちはじめたのです」とAllem。

Allemはその後の研究で、ボットが人間の2倍も「電子タバコは禁煙の助けになる」というツイートを投稿していることを示した1。大麻は健康に良いとするツイートもボットによるものが多かったが、実際にはそのような効果は証明されていない2。これらの研究は、Twitterの特定のアカウントが自動化されている可能性を評価するアルゴリズムを利用している。Allemによると、BotSlayerなどのボット探知ツールがあるにもかかわらず、多くの社会科学研究者や公衆衛生研究者がいまだに、自動生成された可能性のあるコンテンツをデータからふるい落とせていないという。

こうした手抜かりはデータセットを汚染する恐れがあると、メリーランド大学カレッジパーク校(米国)で健康格差について研究しているAmelia Jamisonは指摘する。彼女は、ソーシャルメディア上のワクチン接種に反対する投稿を調べている。「ボットはコミュニティーが発したものではない言葉を増幅しているだけなのですが、研究者がそれを議論の一部であるかのように扱うことで、ボットに発言権を与えてしまうかもしれないのです」。

ライプニッツ社会科学研究所(ドイツ・ケルン)の情報科学者Katrin Wellerは、この分野が取り組まなければならない問題の1つは、ボットをどのように定義するかということだと指摘する。全てのボットが誤った情報を拡散しているわけではなく、測候所の観測データや最新の総合ニュースを提供しているものもある。一部の研究者はTwitterのボットを「毎日一定数以上のメッセージを投稿するアカウント」と定義しているが、これは投稿回数の多いユーザーをボットと判断してしまう大雑把な定義である。

もっと複雑な定義もあるが、ボット発見者はボット開発者との軍拡競争に掛かりきりになっている。第一世代のソーシャルメディアボットは比較的単純なプログラムで、一定の間隔を空けて他人の投稿をリツイートしていた。機械学習が進歩した今では、独自コンテンツを投稿する洗練されたボットが作られるようになっている。ランダムな間隔で、人が眠っていそうな時間にはツイートしないなど、人間を模倣したパターンで投稿するボットもある。人間が生成したコンテンツの中に自動的に生成したコンテンツを混ぜて、ボットをうまくカムフラージュしている開発者もいる。

チューリヒ大学(スイス)で定量健康地理学を研究しているOliver Grübnerは、「あなたがボットやその検出法に詳しくなったと思ったときには、ボット開発者もその知識を得ているのです」と言う。「本当に油断のならない分野です」。

Lehmannのようにボットを自作して社会実験を行っている社会科学者は他にもいる。ペンシルベニア州立大学(米国ユニバーシティーパーク)の政治学者Kevin Mungerらは、人種差別的な言葉を使うTwitterユーザーをたしなめるボット群を作り、1つのボット群のプロフィール写真は白人男性とし、もう一方のボット群は黒人男性にした。Mungerは、白人男性のプロフィール写真を持つボットに声を掛けられたTwitterユーザーは、人種差別的な物言いを控えることが多いことを明らかにした3

「ビーバー・ボット」を成功させたLehmannは、より洗練されたボットを設計して、1つのグループの行動がどのようにして次のグループに広がるかを研究している。とはいえ今はボットの評判が悪いので、人々の反発を恐れる彼は、このアプローチを断念する方向に傾いている。「別の静かな場所を見つけて、論争を招くことなく研究をするつもりです」(註:2020年3月、Twitterは開発者ポリシーを変更し、APIベースのボットアカウントを運用する開発者に対して、何のアカウントなのか、アカウントの責任者は誰なのかを明示することを義務付けた。アカウントがボットであるかどうかに関して、利用者に誤解や困惑を与えないための配慮である)。

翻訳:三枝小夜子

Nature ダイジェスト Vol. 17 No. 5

DOI: 10.1038/ndigest.2020.200508

原文

Social scientists battle bots to glean insights from online chatter
  • Nature (2020-01-28) | DOI: 10.1038/d41586-020-00141-1
  • Heidi Ledford

参考文献

  1. Allem, J.-P. et al. JMIR Public Health Surveill. 3, e98 (2017).
  2. Allem, J.-P. et al. Am. J. Public Health https://doi.org/10.2105/AJPH.2019.305461 (2019).
  3. Munger, K. Political Behav. 39, 629–649 (2017).