World View

AI冷戦の勃発を阻止せよ

Nature ダイジェスト Vol. 18 No. 8 | doi : 10.1038/ndigest.2021.210816

原文:Nature (2021-05-11) | doi: 10.1038/d41586-021-01244-z | Stop the emerging AI cold war

Denise Garcia

人工知能の軍事利用が急増すれば世界の安全は損なわれる。私たちは倫理と国際協調を重視しなければならない。

拡大する

NU PHOTOGRAPHY

人工知能(AI)を軍事に活用する動きが加速している。米連邦議会が2019年に設置した「人工知能に関する国家安全保障委員会(National Security Commission on Artificial Intelligence;NSCAI)」は2021年3月に最終報告書を提出し、米国の国家安全保障を維持し、中国およびロシアに対する競争力を保持するためには、AI技術の開発を加速しなければならないと勧告した。

しかし、米国がそんなことをすれば、同国はAIに関する新しい国際規範を先導する役割を担うことはできなくなる。2021年4月には欧州委員会が、AIの安全性と倫理性を確保するための初の国際的な法的枠組みを発表している。欧州議会も、軍事用AIが人間に代わって判断を行うべきではなく、人間による監視が必要であるとする指針を2021年1月に発表している。これに対してNSCAIは、「AIを活用した技術を戦争遂行のあらゆる面に組み込む」ように奨励しているのだ。

この世界にとっての最大の脅威は「不安定性」である。不安定性は、政治や社会、経済、および地球という惑星によってもたらされているが、AIの戦闘能力を高めれば、この世界はさらに不安定なものになる。NSCAIは、研究コミュニティーの声に耳を傾けるべきだ。約4500人のAI研究者やロボット工学研究者が、AIに人間の命を奪う判断をさせてはならないと言明しており、これは欧州議会の指針や欧州連合の規制にも合致している。

NSCAIは、冷戦時代の危険な考え方をよみがえらせた。そして、AI兵器の開発競争に勝つという観点から、今回の報告書を作成した。冷戦時代、技術競争で優位に立とうとする国々は7万発もの核兵器を保有し、現在も全世界に1万3100発の核弾頭がある。核兵器を保持するためのコストは莫大で、全世界で年間700億ドル(約8兆円)の維持費がかかっている。他の脅威に備えるためにも、同程度の費用が必要だ。2019年には、気候に起因する自然災害によって2500万人が住み慣れた土地を離れ、世界各地の紛争によって860万人が移住を余儀なくされた。2021年5月8日には米国の8850kmの燃料パイプラインがランサムウェアによるサイバー攻撃を受けて停止するなど、インフラへの脅威も増えている。

NSCAIは、新しい規制を制定するための国際的な協力を尊重していないどころか、自立型兵器の全面禁止に反対している。規制をしても他国が順守するとは思えない、というのがその理由である。しかし、軍事用AIの開発競争は深刻な不安定化を招く。核兵器とは異なり、AIは既に民間部門のあらゆる用途で利用されている。そのため、例えばドローンや暗視機能付きネットワークカメラなどの軍民両用リスクははるかに高い。

AIを搭載した完全自律型ドローンの軍事利用が懸念される。 | 拡大する

Richard Newstead/The Image Bank/Getty

私は2014年から国連の会議にオブザーバーやアドバイザーとして参加しており、2017年には「自律型兵器の規制に関する国際パネル(International Panel on the Regulation of Autonomous Weapons;iPRAW)」の一員として証言を行った。私は、軍事用AIの規制においては、兵器の数を数えたり、特定の兵器システムに注目したりするよりも、人間の意図や人間と機械との相互作用について規定し、人間が軍事力を制御する義務を各国に負わせることを方針とすべきであると考えている。他の協定でも、AIの悪意ある利用(例えば、顔認識技術を利用して市民を抑圧したり、偏りのあるデータを材料として雇用や投獄に関する判断を行ったりすること)を抑制することができる。2020年には米国の病院や各国の電力網がサイバー攻撃を受けたが、インフラに対するサイバー攻撃から市民を守る必要がある。

NSCAIの報告書は、AIを搭載した自律型兵器システムについて、これが適切に試験され、設計されてさえいれば、国際人道法にのっとった上で、これを用いて人間を殺害する判断を下してよいと主張し、このようなシステムの国際規格を定めることを求めている。しかし、この考え方は間違っている。機械学習は本質的に「ブラックボックス」的なところがあり、これを完全に解釈可能にすることや、配備したAIシステムがその後も期待通りに機能することを保証するのは困難だ。これらのシステムは環境から学習するわけであるが、現実の世界は実験室のように単純ではないのだ。

NSCAIは、米国はロシアと中国にも自律型核兵器を使用しないことを約束させるべきだと主張する一方で、核兵器以外の自律型兵器やAI兵器を規制する協定には反対している。しかし、米国がすべきことはそうではない。核兵器の削減について交渉を行い、有意義な制御においては今後も人間が行うという規範を確立すべきなのだ。

NSCAIは国際協力を軽視し過ぎている。化学兵器禁止条約、生物兵器禁止条約、国連の持続可能な開発目標(SDGs)、1987年に採択されたモントリオール議定書などの責務は、全ての主要国の協力によって実現したものである。また、国際宇宙ステーションは、アメリカとロシアの緊密な協力によって建設された。

ほとんどの国が、戦争におけるAIの使用を抑制する仕組みを望んでいる。2020年6月、先進7カ国(G7)によって、人間中心の考えに基づくAIの開発と利用に取り組む「AIに関するグローバルパートナーシップ(Global Partnership on Artificial Intelligence;GPAI)」が創設された。GPAIは、科学・研究コミュニティーを産業界や政府と結び付け、国際協力を促進する。米国政府は、科学者、研究者、産業界と共に、この道を進まなければならない。

どこまで軍備を増強しても、身の安全を確保することはできない。軍備の増強は、異常気象のような身近な脅威に立ち向かうための資源を奪い、人々の注意をそらす。今世紀最大の衝撃であるコロナ禍により世界が動揺している今は、世界の国々の対立をあおるべき時期ではない。2019年だけでも、米国では気候災害によって約100万人が家を失っている。地球温暖化に対して極めて脆弱であるのは中国も同じである。両国のこの共通点は、新たに生じつつあるAI冷戦に歯止めをかけるなど、協力への道を開く可能性がある。今は、常軌を逸した無益な競争に乗り出している場合ではない。

(翻訳:三枝小夜子)

Denise Garciaは、ノースイースタン大学(米国マサチューセッツ州ボストン)の教授、国際ロボット兵器規制委員会(International Committee for Robot Arms Control)副委員長。

キーワード

Nature ダイジェスト Online edition: ISSN 2424-0702 Print edition: ISSN 2189-7778

プライバシーマーク制度