厳格な欧州AI法は研究とChatGPTをどう変えるか
2024年3月13日、欧州議会が欧州AI法案を可決した。 Credit: Jean-Francois Badias/AP via Alamy
欧州連合(EU)諸国が、世界初の包括的な人工知能(AI)規制法である欧州AI法(EU AI Act)を制定する。この法律は最もリスクの高いAIモデルに最も厳しい規制を課すもので、その目的は、AIシステムの安全性を確保し、基本的な権利とEUの価値観が尊重されるようにすることにある。
スタンフォード大学(米国カリフォルニア州)でAIの社会的影響について研究しているRishi Bommasaniは、「AIの規制に関する私たちの考え方を明らかにし、先例を作るという意味で、欧州AI法には非常に大きな意味があります」と言う。
欧州AI法の制定の背景には、AIの急激な進歩がある。2024年には、オープンAI社(OpenAI、米国カリフォルニア州サンフランシスコ)のAIチャットボット「ChatGPT」の基礎にあるGPTをはじめとする各種の生成AIモデルの新しいバージョンがローンチされる見込みだが、既存のシステムは既に詐欺や誤情報の拡散に使われてしまっている。中国にはAIの商業利用の指針となる急ごしらえの法律がある。米国も規制を進めていて、2023年10月にはJoe Biden大統領が、連邦政府機関にAIのリスクを管理するための行動を義務付ける米国初のAI大統領令に署名している。
2021年4月に欧州委員会によって提案された欧州AI法案は、2024年2月2日にEU加盟国政府によって承認された。法案の最終案は同年3月13日に欧州議会で可決され、近くEU理事会でも承認されて、正式に成立する見込みである。政策ウォッチャーたちは、文言の変更がなければ、法律の適用は2026年に開始されると予想している。
研究者の中には、この法律がオープンサイエンスを促進することを期待して歓迎する人もいれば、イノベーションを阻害するのではないかと懸念する人もいる。Natureは、欧州AI法が研究にどのような影響を与えることになるかを検証する。
EUのAI規制アプローチの特徴は?
EUは、AIモデルを潜在的なリスクに基づいて規制することにした。すなわち、リスクの高い用途に対してはより厳格な規則を適用し、用途が広範で予想が困難なGPTのような汎用AIモデルについては別の規制を適用する。
欧州AI法は、「許容できないリスク」のあるAIシステムを禁止する。生体認証データを使って、人々の性的指向などのセンシティブな特徴を推測するAIシステムなどがこれに当たる。雇用や法の執行(警察活動)などの用途に使われるハイリスクAIには一定の義務が課される。例えば、開発者は自分たちのAIモデルが安全で、透明性があり、ユーザーに説明可能であること、そして、自分たちがプライバシーに関する規則を順守し、差別をしていないことを示さなければならない。より低リスクのAIツールについても、開発者はAIが生成したコンテンツとやりとりするユーザーに対して、そのことを知らせる必要がある。欧州AI法はEU域内で使用されるAIモデルに適用され、規則に違反した企業には年間世界売上高の7%もの罰金が科される恐れがある。
ボッコーニ大学(イタリア・ミラノ)の計算科学者であるDirk Hovyは、「良いアプローチだと思います」と言う。AIは見る見るうちに強力になり、今やどこにでも存在していると彼は言う。「AIの使用と発展の指針となる枠組みを作ることは、完全に理にかなっています」。
欧州AI法による規制はまだ十分でないと考える研究者もいる。自動化が社会に及ぼす影響を研究している非営利団体アルゴリズムウォッチ(ドイツ・ベルリン)の政治学者であるKilian Vieth-Ditlmannは、軍事と国家安全保障目的を規制の対象外とするという「大穴」が開いている上、法の執行と移民へのAIの使用については抜け道があると指摘する。
EUは、イノベーションを途絶えさせるようなことは絶対にしたくないのです
研究者への影響は?
理屈の上ではほとんどない。2023年、欧州議会は法案に、純粋に研究、開発、プロトタイピングのためのAIモデルは規制の対象外とするという条項を追加した。ヘルティスクール(Hertie School、ドイツ・ベルリン)でAIとその規制について研究しているJoanna Brysonは、EUはこの法律が研究に悪影響を及ぼすことがないように細心の注意を払ってきたと言う。「EUは、イノベーションを途絶えさせるようなことは絶対にしたくないのです。この点が問題になるとしたら、私はびっくり仰天するでしょう」。
それでも欧州AI法は、透明性や、自分たちのAIモデルについての報告の仕方や、潜在的なバイアスについて考えさせるという意味で、研究者に影響を及ぼすだろうとHovyは言う。「この法律は、AI研究のグッドプラクティスを徐々に広め、育んでゆくと思います」。
ミュンヘン工科大学(ドイツ)の医師で、機械学習の民主化を目指す非営利団体LAION(Large-scale Artificial Intelligence Open Network)の共同設立者であるRobert Kaczmarczykは、欧州AI法が、意欲的にAI研究を進める小規模企業の足を引っ張るのではないか、こうした企業は法律を順守するために社内の体制を整備する必要があるのではないかと心配している。「小規模企業がこの法律に適応するのは本当に大変だと思います」と彼は言う。
GPTのような強力なAIモデルはどうなるのか?
白熱した議論の末、政策立案者たちは強力な汎用AIモデル(画像、コード、動画を作り出す生成AIモデルなど)を2つの階層からなるカテゴリーに分類して規制することにした。
第1の階層には、研究目的のみに使用されるものやオープンソースライセンスの下で公開されるものを除く、全ての汎用AIモデルが含まれる。これらのAIモデルは、訓練方法やエネルギー消費量の詳細の開示などの透明性の要請を満たしている必要があり、著作権法を尊重していることも示さなければならない。
これよりはるかに厳しく規制される第2の階層には、より高度な「システミックリスク」をもたらす「インパクトの大きい能力」を持つと見なされる汎用AIモデルが含まれる。これらのAIモデルには、厳格な安全性テストやサイバーセキュリティーのチェックなど、「かなり重い義務」が課されるとBommasaniは言う。開発者は、AIのアーキテクチャーやデータソースの詳細を公開しなければならない。
EUにとって「大きい」ことは危険と同義で、1025 FLOPS(FLOPS:コンピューターが1秒間に実行できる浮動小数点演算の回数で、演算性能の指標)以上の計算能力を用いて訓練されたAIモデルはインパクトが大きいと見なされる。これだけの計算能力でAIモデルを訓練する費用は5000万〜1億ドル(約75億〜150億円)に上るため、該当するものはめったにないとBommasaniは言う。オープンAI社の現行のAIモデルであるGPT-4はこれに該当するはずで、そのライバルであるメタ社(Meta)のオープンソースの大規模言語モデル(LLM)である「LLaMA」の将来のバージョンも該当する可能性がある。この階層のオープンソースAIモデルは規制の対象となるが、研究のみを目的とするAIモデルは除外される。
科学者の中には、AIモデルを規制することに反対し、AIモデルがどのように使われるかに注意を払うべきだと主張する人もいる。ユーリッヒ・スーパーコンピューティングセンター(ドイツ)のAI研究者で、LAIONの共同設立者でもあるJenia Jitsevは、「より賢く、より有能であるからといって、より有害であるとは限りません」と指摘し、どのようなものにせよ、能力の尺度に基づいて規制を課すことに科学的根拠はないと言う。Jitsevはこの規制を、一定の人時を投入する化学は全て危険と定義するようなものだとして批判する。「これほど非生産的なことはありません」。
翻訳:三枝小夜子
Nature ダイジェスト Vol. 21 No. 5
DOI: 10.1038/ndigest.2024.240513
原文
What the EU’s tough AI law means for research and ChatGPT- Nature (2024-02-29) | DOI: 10.1038/d41586-024-00497-8
- Elizabeth Gibney
関連記事
Advertisement