火曜日にソウルで開催されたグローバルサミットは、軍事環境における人工知能(AI)の責任ある使用を規制するための新しい「行動計画」を発表しました。この文書は、前年の類似の取り組みに比べてより実践的なガイドラインを提供していますが、法的に拘束力はありません。
昨年のアムステルダムサミットからの進展
ソウルサミットは、昨年アムステルダムで開催された類似の会議の議論を基にしています。そのイベントでは、約60カ国が法的なコミットメントのない「行動の呼びかけ」を支持しました。今年のサミットは、より詳細で実行可能な枠組みを提供することで、これらの議論を前進させることを目指しました。
責任あるAI使用に向けた具体的なステップ
オランダの国防大臣ルーベン・ブレケルマンスは、概念的な理解から実践的な行動への移行を強調しました。「私たちはさらに具体的なステップを踏んでいます」とブレケルマンスはロイターに語りました。「昨年は共通の理解を作り出すことが主な目標でしたが、今は行動に移る段階です。」
更新された文書には、リスク評価、人的管理のための必要条件、AI関連のリスクを管理するための信頼構築戦略に関する具体的なガイドラインが含まれています。また、AIを使用して大量破壊兵器を拡散することを防ぐための重要な問題にも対処しており、核兵器の使用における人的監視の必要性を強調しています。
既存の原則との一致と将来の議論
韓国の公式は、新しい計画が米国政府の軍事における責任あるAI使用に関する声明など、以前に確立された原則と一致していると指摘しました。これらの類似性にもかかわらず、ソウルサミットは、単一の国家や団体に支配されないようにするため、より包括的で協力的なアプローチを促進することを目指しました。
次のステップは、将来のサミットの開催場所と時期を決定し、軍事用途における責任あるAI使用についての対話を継続することです。目標は、マルチステークホルダーアプローチを維持し、防衛コンテキストにおけるAIによってもたらされる進化する課題に対処することです。