人工知能:チャットボットは投票意向に影響を与えるかもしれない
Nature
人工知能(AI:Artificial intelligence)チャットボットとの対話は、有権者の態度や意思に影響を与える可能性があることを報告する論文が、Nature に掲載される。この結果は、2024年の米国大統領選挙と2025年のポーランドとカナダ国政選挙における管理された実験で実証された。この結果は、AIを基盤とした説得手法が将来の選挙で重要な役割を果たすかもしれないことを示唆している。
生成AI(generative AI)を用いたチャットボットの台頭は、民主主義社会への影響に関する議論を喚起している。しかし、AIチャットボットが有権者の行動にどう影響するかは、まだ確立されていない。
David Rand ら(コーネル大学〔米国〕)は、2024 年の米国大統領選挙、あるいは 2025 年のカナダとポーランドの国政選挙を対象に、候補者の 1 人を支持するようにプログラムされた AI モデルとの会話をともなう複数の実験を行った。このモデルは、肯定的、敬意を払い、事実にもとづく、そして個人の見解を認めつつ、説得力のある議論を用いて自らの主張を支持するよう指示されていた。米国の研究では、著者らは選挙前に 2,306 人の米国市民を募集し、各参加者は、Donald Trump(ドナルド・トランプ)またはKamala Harris(カマラ・ハリス)のいずれに投票する可能性が高いかを示した。その後、参加者は、候補者のいずれかを支持するように設計されたチャットボットとランダムにマッチングされた。自分の支持する候補者に対する個人の見解は、同じ見解を持つチャットボットと会話すると、わずかに強まった。当初、AI モデルが支持する候補者に反対していた人々を説得するチャットボットでは、より強い効果が認められた。カナダでは自由党党首のMark Carney(マーク・カーニー)、または保守党党首のPierre Poilievre(ピエール・ポワリエーブル)のいずれか、ポーランドでは、中道リベラル派の市民連合の候補者Rafał Trzaskowski(ラファウ・トシャスコフスキ)、または右派の「法と正義(Law and Justice)」党の候補者Karol Nawrocki(カロル・ナヴロツキ)のいずれかをAI が支持するという、ほかの国の選挙実験でも同様の効果が認められた。
政策に関する議論などの事実や証拠は、性格的な特徴に関する議論よりも説得力があった。しかし、事実にもとづく証拠は必ずしも正確ではなく、3 カ国すべてで、政治的右派の候補者を支持する AI モデルの方が、より不正確な主張を行っていた。「これらの調査結果は、AI による政治的説得は、モデルが『知っている』情報の不均衡を悪用し、真実を伝えるよう明示的に指示されている場合でも、不均等な誤りを広める可能性があるという不都合な意味合いを帯びている」と、Chiara VargiuとAlessandro Naiは、同時掲載されるNews & Viewsの記事で述べている。
これらの結果は、参加者が AI が彼らを説得しようとすることを認識していた統制された実験から得られたものである。したがって、その効果が実際の政治環境でも再現されるかどうかは明らかではない。しかし、AIモデルが人々の政治的見解を揺るがす可能性を示唆しており、将来の民主的選挙に影響を与える恐れがある。
- Article
- Published: 04 December 2025
Lin, H., Czarnek, G., Lewis, B. et al. Persuading voters using human–artificial intelligence dialogues. Nature (2025). https://doi.org/10.1038/s41586-025-09771-9
News & Views: AI chatbots can persuade voters to change their minds
https://www.nature.com/articles/d41586-025-03733-x
Conversations with artificial intelligence (AI) chatbots have the potential to influence the attitudes and intentions of voters, according to a study publishing in Nature. These results are demonstrated in controlled experiments during the 2024 US presidential election and 2025 national elections in Poland and Canada. The results suggest that AI-based approaches to persuasion may have an important role in future elections.
The rise of chatbots using generative AI has prompted discussion on the effect of such technology on democratic societies. However, it has yet to be established how AI chatbots could influence voter behaviour.
David Rand and colleagues carried out multiple experiments involving conversations with an AI model that was programmed to advocate for one of the candidates, covering the 2024 US presidential election or the 2025 national elections in Canada and Poland. The model was instructed to be positive, respectful and fact-based, and to acknowledge the individuals’ views while using compelling arguments to support its points. For the US study, the authors recruited 2,306 US citizens ahead of the election; each participant indicated their likelihood of voting for either Donald Trump or Kamala Harris. They were then randomly matched with a chatbot designed to advocate for one of the candidates. The views of individuals towards their preferred candidate were strengthened slightly when speaking with a chatbot with aligned views. A stronger effect was seen for chatbots persuading people who were initially opposed to the candidate that the AI model was advocating for. Similar effects were observed in the other national election experiments, involving AI advocating for either the Liberal Party leader Mark Carney or the Conservative Party leader Pierre Poilievre in Canada, and centrist-liberal Civic Coalition’s candidate Rafał Trzaskowski or the right-wing Law and Justice party’s candidate Karol Nawrocki in Poland.
Facts and evidence, such as discussions about policy, were more compelling than discussion of personality traits. However, the factual evidence was not always accurate, with AI models advocating for candidates on the political right making more inaccurate claims in all three countries. “These findings carry the uncomfortable implication that political persuasion by AI can exploit imbalances in what the models ‘know’, spreading uneven inaccuracies even under explicit instructions to remain truthful,” note Chiara Vargiu and Alessandro Nai in an accompanying News & Views article.
These results come from controlled experiments, in which participants were aware that the AI would try to persuade them. Thus, it is not clear whether the effects would be replicated in real political environments. However, the findings suggest that AI models have the potential to sway people’s political views, which may affect future democratic elections.
- Article
- Published: 04 December 2025
Lin, H., Czarnek, G., Lewis, B. et al. Persuading voters using human–artificial intelligence dialogues. Nature (2025). https://doi.org/10.1038/s41586-025-09771-9
News & Views: AI chatbots can persuade voters to change their minds
https://www.nature.com/articles/d41586-025-03733-x
doi: 10.1038/s41586-025-09771-9
「Nature 関連誌注目のハイライト」は、ネイチャー広報部門が報道関係者向けに作成したリリースを翻訳したものです。より正確かつ詳細な情報が必要な場合には、必ず原著論文をご覧ください。
