News & Views
AIに仕事を任せると不正が増える
人工知能(AI)は加速度的に日常生活に浸透しつつある。文書作成や翻訳から税務処理、経営判断の指針まで、AIは信頼できるアシスタントとなりつつある。しかし、そのアシスタントが、それとなくにせよ、あからさまにせよ、規則破りを求められたらどうなるのか? さらに、AIの行為が不正行為をもくろむユーザーの間接的な意図を忠実に反映し、ユーザーにもっともらしい否認の余地を与えるとしたら? Nature 2025年10月2日号126ページでデュースブルク・エッセン大学およびマックス・プランク人間発達研究所(共にドイツ)のNils Köbisらは、穏やかならざる力学を明らかにしている。つまり、大規模言語モデル(LLM)が代わりに不正行為を実行する場合、人間はそれを自ら行うよりも不正行為に走りやすくなり、そしてLLMは、人間の仲介者よりも、不正を促すプロンプトに従う傾向が強かったのである。
全文を読むには購読する必要があります。既に購読されている方は下記よりログインしてください。
本サービスでは、サイトご利用時の利便性を向上させるためにCookiesを使用しています。詳しくは、シュプリンガーネイチャー・ジャパン株式会社の「プライバシー規約」をご覧下さい。
翻訳:古川奈々子
Nature ダイジェスト Vol. 23 No. 1
DOI: 10.1038/ndigest.2026.260146
原文
People are more likely to cheat when they delegate tasks to AI- Nature (2025-10-02) | DOI: 10.1038/d41586-025-02819-w
- 鈴木晶子(すずき・しょうこ)
- 国際高等研究所(京都府)に所属
参考文献
- Köbis, N. et al. Nature 646, 126–134 (2025).
- Bandura, A. Pers. Soc. Psychol. Rev. 3, 193–209 (1999).
- Epley, N. & Caruso, E. M. Soc. Justice Res. 17, 171–187 (2004).
- Berberich, N., Nishida, T. & Suzuki, S. Philos. Technol. 33, 613–638 (2020).
- Suzuki, S. Teor. Educ. Rev. Interuniv. 36, 99–118 (2024).
- Suzuki, S. Nature Hum. Behav. 7, 1816–1817 (2023).
関連記事
2026年1月号
2026年1月号
2026年1月号
2026年1月号
2026年1月号
Advertisement