周二在首尔举行的全球峰会介绍了新的“行动蓝图”,旨在规范军事环境中人工智能(AI)的负责任使用。与去年类似的倡议相比,这份文件提供了更实用的指南,尽管它仍然在法律上没有约束力。
去年阿姆斯特丹峰会的进展
首尔峰会建立在去年阿姆斯特丹举行的类似会议的讨论基础上。在那次活动中,约60个国家支持了一项更为一般的“行动呼吁”,该呼吁缺乏法律承诺。今年的峰会旨在通过提供更详细和可操作的框架,推动这些讨论的进展。
迈向负责任的人工智能使用的具体步骤
荷兰国防部长鲁本·布雷克尔曼斯强调了从概念理解到实际行动的转变。“我们正在采取进一步的具体步骤,”布雷克尔曼斯对路透社说。“去年更多是关于建立共同理解;现在我们正在更接近行动。”
更新后的文件包括关于风险评估、维持人工控制的必要条件和建立信任以管理与AI相关风险的具体指南。它还解决了防止人工智能被用于扩散大规模杀伤性武器的问题,包括恐怖组织,并强调了在核武器使用中的人工监督必要性。
与现有原则的一致性及未来讨论
韩国官员指出,新蓝图与之前确立的原则一致,例如美国政府关于军事中负责任的人工智能使用的声明。尽管存在这些相似之处,首尔峰会旨在推动更具包容性和协作性的方法,确保讨论不会被单一国家或实体主导。
下一步是确定未来峰会的举办地点和时间,以继续关于军事应用中负责任的人工智能使用的对话。目标是保持多方利益相关者的方法,解决人工智能在防御背景下带来的不断变化的挑战。