Cover Story: 不正を誘発するコード:AIにタスクを委ねることで不誠実な行動が助長される可能性がある
Nature 646, 8083 (2025年10月2日)
人工知能(AI)システムに作業を委ねることで、時間を節約でき、生産性が向上し、意思決定の支援が得られるが、これには倫理的リスクが伴う。今週号ではN KöbisとZ Rahwanたちが、AIシステムへのタスクの委任は利益をもたらす一方で、不誠実な行動を助長する場合もあることを明らかにしている。研究者たちは、人間はタスクをAIに委ねる際に不誠実な行為を依頼しがちであることを見いだした。この傾向は、特にインターフェースがAIの振る舞いに曖昧さを許容する場合に顕著であった。例えば、ゲームの参加者が「利益を最大化する」といった目標を設定できる条件では、誠実に振る舞う人の割合は95%から最大12%まで低下した。研究チームはさらに、AIは明白に非倫理的な指示に対して人間よりも従いやすいため、AIシステム自体が問題を引き起こすこともあると指摘している。別の実験では、大規模言語モデル(LLM)は不正行為を行うよう要請されると58〜98%の割合で従ったのに対し、人間は、不正に従うことでインセンティブが得られる場合でも、不正を行ったのはわずか25〜40%であった。研究チームは、極めて具体的なユーザープロンプトを用いてAIの不正行為を制限することは可能だが、このやり方はスケーラブルでもなければ実践的もないと指摘している。これは、設計や政策の基本原則をさらに検討する必要性を浮き彫りにしている。