2024.1.15 法制度 InfoCom T&S World Trend Report

AIガバナンスを巡る国際協調と取り組み

Gerd Altmann from Pixabay

EUは2023年12月9日、人工知能(AI)の規制案について、欧州委員会、閣僚理事会、欧州議会の3者で大筋合意したと発表した[1]。今後、文言など細部の調整を経てから上記各機関の最終承認、施行となる。AIを提供、利用する主体を対象とし、4段階に分けたリスクに応じた義務付けを行う。重い違反に対しては高額な制裁金を科す(最大で世界売り上げの7%)。一方汎用AIの事業者には透明性義務を課す。施行は2026年の見通し。今後、世界の各国におけるAI規制に関する立法において参照すべき対象となることは間違いない。

この法案の審議に並行して、AIガバナンスに関する国際協調を目指す取り組みが活発に行われていた。これらは、EUのAI規制法など拘束力を持つ各国法を補完するものとされる。

G7(広島プロセス)[2]

G7は2023年5月の広島サミットから、AIガバナンスの共通ルール形成取り組みを進めてきたが、その区切りとして2023年10月30日、高度AIシステム(汎用AI、生成AIなど含む)の開発に関する11の「国際指針」[3]の原則を採択した。付属のAI開発者向け「行動規範」はこれに基づいたものである。原則は、すべてのAIアクターに適用され、設計、開発、展開をカバーし、かつ高度AIシステムの利用を対象としている。指針はAIのリスクをライフサイクルにわたりコントロールするための安全対策に関連している。

英国AIセーフティサミット(the UK AI Safety Summit)[4]

英国は2023年11月1-2日、各国政府代表(28カ国、EU)、学界、産業界を集めた英国AI安全サミットをBletchleyで開催した。会合は、“frontier AI”の安全な開発に関する宣言で幕を閉じた。frontier AIとは、ファウンデーションモデルを含む高度な能力を持つ汎用AIモデルとして英政府が定義したものであり[5]、サミットの対象が最先端/未開拓領域であることを強調している。宣言へは米中EUを含む29の各国/機関の代表が署名しており、同サミットのイベントがG7のようないわゆる政治上の「同志国」のイニシアティブとは異なった広がりを見せている。

米国EU貿易技術評議会/Trade and Technology Council(TTC)

TTCは米欧主導による通商課題や新たな技術管理に関わる政策連携を目的とし、2021年6月、米バイデン大統領と欧州委フォン・デア・ライエン委員長との首脳会談の機会に設置が合意された外交フォーラムで、EUと米国との貿易・技術を巡る政策対話・規制協力の枠組みを提供する。複数の作業部会が設置され、新たな技術標準や、セキュリティ、データガバナンスについて検討されている。TTCはEUと米国の政策立案者やステークホルダーが貿易やAIを含むデジタル問題に関する今後の協力関係を形作るためのプラットフォームとなっており、両サイドの産業界からは支持が大きい。このTTCは2022年12月、信頼できる(生成AIを含む)AIシステムとリスク管理のための評価・測定ツール開発の策定に関わる共同ロードマップ[6]を発表した。半年後の2023年5月末の閣僚級会合では、生成AIシステムの重要性を再確認したうえでロードマップにおける連携を前進させることで合意し[7]、AIへのリスクベースのアプローチを協議するにあたり重要となる65の用語について、その概念、定義を明らかにするリストを公表した。

さらに、英国Bletchleyサミットの開催に合わせるように、米バイデン大統領は2023年10月30日、AIリスク管理に関する大統領令(EO)を発布し、さまざまな民間部門と公的部門にわたってAIに関連するリスクを管理するための広範な規制課題を設定した。AI開発企業にサービス提供や利用開始前に、政府による安全性の評価を受けるよう義務付けるなど、拘束力あるAI規制を求めている。ただし、これを実施するための米大統領の権限はなく、今後、議会の立法手続きを経たうえで、連邦政府機関が権限に基づき拘束力のある規制を行わなければならない。

AIセーフティサミット Bletchley宣言と今後の計画

サミットに参加した国々が署名したBletchley宣言は、frontier AIモデル、すなわちファウンデーションモデルを含む高度な能力を持つ汎用AIモデルに焦点を当て、参加国が安全性の向上で協力することを謳っている。以下がその概要となる。

  • frontier AIの能力に対する理解は未だ完全でなく、意図的な悪用や意図しないコントロールの結果から、重大もしくは壊滅的な被害が生じる可能性がある(特にサイバーセキュリティやバイオテクノロジー、偽情報といったリスク)。
  • AIがもたらす利益を最大化し、AIに関連するリスクに対処するために、イノベーションを促進し、かつ適切なガバナンスと規制のアプローチが重要。
  • 各国がその状況や適用される法的枠組みに基づいてリスクを分類・分析するアプローチをとることを想定。
  • frontier AI(すなわち、高度に強力で有害な可能性のあるAIシステム)を開発する主体、すなわち関係者/企業の役割には重い責任があることを強調し、AIシステムの安全性のテストや評価を重要視。
  • これらの主体に、潜在的な有害性と、その影響を測定、監視、緩和する計画について、状況に応じた透明性と説明責任を負うべきことを奨励。

スナク首相はスピーチで、サミットを機にした安全性のテストに関する新たな合意、およびサミットの今後の設計、運営に関する英国政府の提案を以下のとおり明らかにした。

AI企業テストに関する同志国合意

「志を同じくする政府とAI企業は本日、画期的な合意に達した。ハリス米副大統領と私が英米両政府を代表したことにより、最先端のfrontier AIをテストするための公的部門による世界有数のAI安全研究所が設立される。これによりAIモデルの安全性は当の開発企業以外でもテストを行うことが可能になった。」同首相の言葉にあるように、Amazon Web Services、Anthropic、Google、Google DeepMind、Inflection AI、Meta、Microsoft、Mistral AI、Open AIの各企業は、新研究所の前身、英国内設立のFrontier AI Taskforceに対して既に提供されているアクセス権を、「深める」ことに同意したという。上述のとおり米国政府が大統領令の下、特定の安全情報を引き渡すよう拘束力を持たせたために可能となったものでもある。この合意のもと、豪州、カナダ、EU、フランス、ドイツ、イタリア、日本、韓国、シンガポール、米国、英国は、これら主要企業のAIモデルをテストするための協定に署名した。

IPCC型の制度導入を提案

さらに首相は、国際的なfrontier AIのリスクに関するアドバイザリーパネルに関する合意について詳細を発表。この組織は気候変動に関する政府間パネル(IPCC)をモデルに設立するというもので、英国政府が事務局を務めることを提案している。パネルはYoshua Bengio(IPCC型規制制度の提唱者)による“State of Science”レポートの作成を支援する。このレポートは政策提言を行うものではなく、国際的、国内的な政策決定に資する情報を提供するためのものである。2024年前半に韓国で開催される次回のセーフティサミットに先駆けて発表される予定である。さらに半年後にはフランスでの開催を予定とのこと。

欧米のAI規制に関する取り組みの協調は、両サイドの制度の違いはあるものの、実務を意識した調整に早々と着手し、業界を巻き込み、そのモメンタムを生かして枠組み、組織、標準の設立へとつなげつつある。協議は両陣営の連携を着実に前進させている模様だ。一方、英国が提案するIPCC型の枠組みに、どのような性質が付与されるのか、どこまで具体化するのかについても今後の行く末が注目される[8]。

[1] https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473

[2] https://www.mofa.go.jp/ecm/ec/page5e_000076.html

[3] https://ec.europa.eu/commission/presscorner/detail/en/ip_23_5379

[4] https://www.gov.uk/government/publications/ai-safety-summit-2023-chairs-statement-2-november/chairs-summary-of-the-ai-safety-summit-2023-bletchley-park

[5] 広範なタスクを実行可能で、現在最も進んだ人工知能(AI)のモデルが有する能力に匹敵、またはそれを超える能力を持つ。

[6] https://digital-strategy.ec.europa.eu/en/library/ttc-joint-roadmap-trustworthy-ai-and-risk-management

[7] https://ec.europa.eu/commission/presscorner/detail/en/statement_23_2992

[8] IPCC型規制枠組みにおけるAIモデルの「テスト」が事実上の承認手続きに発展しないか、パネルの人選によってポリシーの方向性が偏らないかなど、一部にはそちらの潜在的リスクを危ぶむ声もある。https://www.forbes.com/sites/jamesbroughel/2023/11/10/creating-an-ipcc-for-ai-would-be-a-historic-mistake/?sh=40400f296d37

※この記事は会員サービス「InfoCom T&S」より一部抜粋して公開しているものです。

当サイト内に掲載されたすべての内容について、無断転載、複製、複写、盗用を禁じます。InfoComニューズレターを他サイト等でご紹介いただく場合は、あらかじめ編集室へご連絡ください。また、引用される場合は必ず出所の明示をお願いいたします。

情報通信総合研究所は、先端ICTに関する豊富な知見と課題解決力を活かし、次世代に求められる価値を協創していきます。

調査研究、委託調査等に関するご相談やICRのサービスに関するご質問などお気軽にお問い合わせください。

ICTに関わる調査研究のご依頼はこちら

関連キーワード

八田 恵子の記事

関連記事

InfoCom T&S World Trend Report 年月別レポート一覧

メンバーズレター

会員限定レポートの閲覧や、InfoComニューズレターの最新のレポート等を受け取れます。

メンバーズ登録(無料)

各種サービスへの問い合わせ

ICTに関わる調査研究のご依頼 研究員への執筆・講演のご依頼 InfoCom T&S World Trend Report

情報通信サービスの専門誌の無料サンプル、お見積り

InfoCom T&S World Data Book

グローバルICT市場の総合データ集の紹介資料ダウンロード