自律型致死兵器システム(LAWS)に関する各国の立ち位置
国際紛争の高まりを追い風に、AI搭載の兵器への投資が勢いを増している。欧米ではAI防衛業界の新興企業が多額の出資を獲得するなど注目を集めている。その一方、国連軍縮部における自律型致死兵器システム(LAWS)の扱いをめぐる議論は遅々とした歩みである。
背景/国連
国連のアントニオ・グテーレス事務総長は2018年、LAWSについて“道徳的に反吐が出る” と表現し、その禁止を初めて呼びかけた。国連では100カ国以上がLAWSを禁止・制限するための新たな国際法の交渉や採択に関心を示している。
グテーレス氏は2026年までにLAWSを禁止する法的拘束力のある枠組みを採択するよう、国連加盟国に求めたものの、2023年末の会合ではロシアなど4カ国が反対し、中国やイスラエルなど11カ国が棄権した[1]。
国連の特定通常兵器使用禁止制限条約(CCW)[2]会合はこれまでも2022年の禁止を求める強力なマンデートを目指したが、圧倒的な支持にもかかわらず、イスラエル、ロシア、英国、米国などの少数国が反対したため、LAWSについては「提案を検討し、コンセンサスによって可能な措置を練り上げる」という尻すぼみの結果に至った経緯がある。現在はこれに続く協議が行われている。
日本の立場
わが国では、政府の基本的な立場は外務省発表の「自律型致死兵器システム(LAWS)について[3]」(令和6年6月24日)で示されている。これは、CCWのもとにおける議論の過程で、日本が提出した作業文書(2024年5月)の中で、述べられている「我が国の基本的な立場」である。
国連が提示した論点は以下であった。
これについての政府発表は、
- 我が国は、人間の関与が及ばない完全自律型の致死性兵器の開発を行う意図はなく、また、当然のことながら国際法や国内法により使用が認められない装備品の研究開発を行うことはありません。
- 新興技術の軍事利用については、そのリスクとメリットを十分理解し、人道的考慮と安全保障上の観点を踏まえながら、包括的な検討を行う必要があります。包括的検討に当たり、我が国は、新興技術の軍事利用は、人間中心の原則を維持し、信頼性、予見可能性を確保し、責任ある形で行われることを重視しています。また、国際人道法(IHL)[4]の義務はLAWSを含む全ての兵器システムに適用されるものであり、IHLを遵守する形で使用できない兵器システムは使用してはならず、それ以外の兵器システムについても、IHLの遵守を確保するために必要な制限を行うとの考え方を支持しています。
- 一方で、人間の関与が確保された自律性を有する兵器システムは、ヒューマンエラーの減少、省力化・省人化といった安全保障上の意義を有するとの考えです。
- 新興技術の更なる発展を見据え、IHL等の国際法との関係を整理しつつ、LAWSに係る規範・運用の枠組みの明確化に向けて取り組むことは重要です。今後も、我が国は、LAWSに係る国際的なルール作りを通じて国際社会の安定に貢献すべく、主要国を含め、広く国際社会において共通の認識が得られるよう、国際的なルール作りに積極的かつ建設的に参加していく考えです。
(下線引用者)
本文では「責任ある」はaccountability, responsibility との表現で現れ、一般的には「説明責任」で代表される概念と思われる。
米国
LAWSについての政治宣言
LAWSに関する米国政府の立場としては国務省の発表、「AIと自律化技術の責任ある軍事利用に関する政治宣言(Political Declaration on Responsible Military Use of Artificial Intelligence and Autonomy)[5]」があり、米国はこの宣言に2024年5月19日時点で54カ国の賛同があったことを明らかにしている[6]。
宣言は、各国とも1)AI機能の責任ある開発、展開、使用を行い、2)軍事AI能力が国際法、特に国際人道法に基づくそれぞれの義務に従って使用されるよう、法的審査などの適切な措置を講じるべきであるとするほか、兵器機能の監督、使用における適切な注意、機能の透明性・監査システムの完備、用途の明確性、ライフサイクルを通じたテストと保証、フェールセーフなど安全策の実施といった兵器の運用にわたったルールを列挙している。
これは米国提案による政治宣言で、人工知能(AI)を活用した兵器などの軍事システムの開発と試験、検証に関する新たなビジョンを打ち出したもので、近年急速に進展する軍事AIの開発に関する米国の試みである。同文書は米軍を法的に拘束するものではないが、同盟国がその原則に同意し、責任をもってAIシステムを構築するための国際基準を生み出すことを期待しており、次の目標を挙げている[7]。
- 武力紛争におけるAIの使用は、国際人道法の基本原則を含む国際人道法に基づく国家の義務に従わなければならない。
- AI機能の軍事利用は、責任ある人間の指揮統制系統内での軍事作戦中の使用を含め、説明責任を果たす必要がある。
- AIの軍事利用に対する原則的なアプローチには、リスクと利点の慎重な考慮が含まれるべきであり、意図しない偏見や事故を最小限に抑える。
- 軍事用AI機能の責任ある開発、展開、使用を確保するために適切な措置を講じる。これらの措置は、軍事用AI機能のライフサイクル全体の関連する段階で実装する。
また、宣言目標を推進するために、支持国に対し、宣言へのコミットメントを公表し、これらの措置の実施に関する適切な情報を公開し、また支持国間で継続的な議論を追及することを促している。
InfoComニューズレターでの掲載はここまでとなります。
以下ご覧になりたい方は下のバナーをクリックしてください。
英国
IHLに従ったLAWSの規制案
※この記事は会員サービス「InfoCom T&S」より一部抜粋して公開しているものです。
[1] https://www3.nhk.or.jp/news/html/20240305/k10014379161000.html https://www.nikkei.com/article/DGXZQOUA274230X20C24A6000000/
[2] 特定通常兵器使用禁止制限条約(CCW)https://www.hrw.org/report/2022/11/10/agenda-action/ alternative-processes-negotiating-killer-robots-treaty
[3] https://www.mofa.go.jp/mofaj/dns/ca/page24_001191.html
[4] 国際人道法には、紛争当事者が用いることのできる戦闘の手段と方法(兵器とその使用法)を制約する一般原則が存在する。
①軍事的必要性と人道的配慮のバランスをとること、
②軍事目標と文民を区別し、軍事目標のみに攻撃を行うこと(区別原則)、
③攻撃によって発生する軍事的利益と付随的被害(文民への被害)のバランスをとること(均衡原則)、
④無差別攻撃を行わないこと、⑤付随的被害を低下させるための各種の予防措置を実施すること
[5] https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy-2/
[6] https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy/
[7] https://www.state.gov/political-declaration-on-responsible-military-use-of-artificial-intelligence-and-autonomy-2/
当サイト内に掲載されたすべての内容について、無断転載、複製、複写、盗用を禁じます。InfoComニューズレターを他サイト等でご紹介いただく場合は、あらかじめ編集室へご連絡ください。また、引用される場合は必ず出所の明示をお願いいたします。
情報通信総合研究所は、先端ICTに関する豊富な知見と課題解決力を活かし、次世代に求められる価値を協創していきます。
調査研究、委託調査等に関するご相談やICRのサービスに関するご質問などお気軽にお問い合わせください。
ICTに関わる調査研究のご依頼はこちら関連キーワード
八田 恵子の記事
関連記事
InfoCom T&S World Trend Report 年月別レポート一覧
メンバーズレター
会員限定レポートの閲覧や、InfoComニューズレターの最新のレポート等を受け取れます。
ランキング
- 最新
- 週間
- 月間
- 総合