News & Views

AIに仕事を任せると不正が増える

人工知能(AI)は加速度的に日常生活に浸透しつつある。文書作成や翻訳から税務処理、経営判断の指針まで、AIは信頼できるアシスタントとなりつつある。しかし、そのアシスタントが、それとなくにせよ、あからさまにせよ、規則破りを求められたらどうなるのか? さらに、AIの行為が不正行為をもくろむユーザーの間接的な意図を忠実に反映し、ユーザーにもっともらしい否認の余地を与えるとしたら? Nature 2025年10月2日号126ページでデュースブルク・エッセン大学およびマックス・プランク人間発達研究所(共にドイツ)のNils Köbisらは、穏やかならざる力学を明らかにしている。つまり、大規模言語モデル(LLM)が代わりに不正行為を実行する場合、人間はそれを自ら行うよりも不正行為に走りやすくなり、そしてLLMは、人間の仲介者よりも、不正を促すプロンプトに従う傾向が強かったのである。

全文を読むには購読する必要があります。既に購読されている方は下記よりログインしてください。

翻訳:古川奈々子

Nature ダイジェスト Vol. 23 No. 1

DOI: 10.1038/ndigest.2026.260146

原文

People are more likely to cheat when they delegate tasks to AI
  • Nature (2025-10-02) | DOI: 10.1038/d41586-025-02819-w
  • 鈴木晶子(すずき・しょうこ)
  • 国際高等研究所(京都府)に所属

参考文献

  1. Köbis, N. et al. Nature 646, 126–134 (2025).
  2. Bandura, A. Pers. Soc. Psychol. Rev. 3, 193–209 (1999).
  3. Epley, N. & Caruso, E. M. Soc. Justice Res. 17, 171–187 (2004).
  4. Berberich, N., Nishida, T. & Suzuki, S. Philos. Technol. 33, 613–638 (2020).
  5. Suzuki, S. Teor. Educ. Rev. Interuniv. 36, 99–118 (2024).
  6. Suzuki, S. Nature Hum. Behav. 7, 1816–1817 (2023).