2024 年 9 月 12 日 - 文章

从原则到行动:为军事人工智能治理指明道路

在世界各国政府准备大规模部署人工智能之际,第二届军事领域负责任的人工智能峰会(REAIM)于 9 月 9 日至 10 日在首尔召开,讨论未来的治理工作。REAIM 峰会是一次独特的多方利益相关者对话,聚集了来自政府、行业、学术界和民间社会组织的代表。它也是中美两国政府官员与来自 90 多个国家的代表共聚一堂,讨论全球军事人工智能治理问题的为数不多的场所之一。但是,地缘政治竞争的加剧,以及对什么是 "负责任的人工智能 "这一概念的争论,对制定和采用共同的规范、法律和政策框架构成了直接挑战。

行动蓝图?

2024 年人工智能区域倡议峰会最终产生了一份 "行动蓝图",这是一份非约束性文件,以去年海牙峰会产生的 "行动呼吁"为基础。蓝图》围绕人工智能对国际和平与安全的影响、在军事领域实施负责任的人工智能以及人工智能治理的未来,概述了一系列原则。蓝图》认识到关于军事人工智能的讨论已经超越了致命的自主武器系统,因此申明这些原则适用于所有 "军事领域的人工智能应用",包括在后勤、情报行动和决策中使用的人工智能。

蓝图》呼吁决策者特别关注人工智能武器、人工智能决策支持系统,以及人工智能在网络行动、电子战、信息行动和核领域的应用。虽然蓝图仍主要侧重于战术层面,但它承认人工智能有可能通过使升级动态复杂化和降低使用武力的门槛来破坏国际和平与安全。最后,蓝图敦促利益相关方重新致力于知识交流、能力建设,并就与军事人工智能相关的风险和机遇达成共识。

行动蓝图》得到了 61 个国家的支持,据报道包括法国、日本、巴基斯坦、韩国、瑞典、瑞士、乌克兰、英国和美国。尽管中国去年支持了 "行动呼吁",但却不在其中。北京也没有批准由美国牵头的《关于负责任地在军事上使用人工智能和自主权的政治宣言》,该宣言为军事人工智能的开发、部署和使用提供了参数。俄罗斯也没有这样做。以色列是美国的重要盟友,已经在加沙战场上部署了人工智能技术,但它也没有批准任何这些倡议。

国际社会对《行动蓝图》缺乏共识,这即使不令人惊讶,也令人失望。文件中包含的原则反映了利益相关者在什么是 "负责任 "地使用军事人工智能问题上达成的最低共同标准,如 "人工智能应用应符合道德规范,并以人为中心",即人类仍对人工智能的开发和使用负责。同样,该文件毫无争议地确认,人工智能技术应接受法律审查,并按照所有适用的国际法,即国际人道主义法(IHL)和国际人权法(IHRL)使用。尽管如此,参加 REAIM 会议的约 30 位政府代表并不认可这些声明。

各国未能就这些基本原则达成一致,这表明围绕 "负责任的人工智能 "的框架在全球范围内仍存在争议,民主国家在减轻人工智能对个人和社会的潜在危害方面,采取了比专制政权更加以价值观为导向的方法。然而,缺乏共识不应被解释为缺乏关注。在 REAIM 2024 峰会的一次分组会议上,中国代表私下表达了对以色列在加沙使用人工智能的担忧,这凸显了一种共同的紧迫感,即人工智能治理框架无法跟上技术发展的步伐,已经造成了现实世界的伤害。

当然,REAIM 只是讨论军事人工智能治理的一个论坛。REAIM 峰会结束一周多后,联合国未来峰会将在纽约举行,这将为应对这些挑战和促进全球共识提供又一次机会。

从原则到实践

虽然蓝图可能并不具有突破性,但有迹象表明我们正朝着正确的方向前进。在 REAIM 会议上,与会者逐渐达成共识:长期以来,政策辩论一直围绕致命性自主武器系统(LAWS)展开,而非更广泛的人工智能应用,同时狭隘地关注战术问题,而忽略了战略考虑。此外,与会者一致认为,这些辩论过于笼统和抽象,从而妨碍了有效治理。

但这种情况正在逐渐改变。REAIM 的几场会议都强调,需要摒弃 "致命性自主武器系统"(LAWS)的争论,关注战略安全,并在具体案例研究中对人工智能的使用进行严格的测试和分析。与会者普遍认为,有必要对研究问题进行更深入的分析,并更准确地找出知识差距。正如兰德欧洲公司的詹姆斯-布莱克(James Black)所说:"我们仍处于发现问题而非解决问题的阶段。

我们如何才能进入解决问题的阶段?Carnegie Council for Ethics in International Affairs 和牛津大学伦理、法律与武装冲突研究所(ELAC)共同主办的 REAIM 小组会议 "负责任地军事使用人工智能:弥合原则与实践之间的差距 "的重点就在于此。我召集了顶尖的伦理学家、国际律师和军事战略家,向小组成员提问,决策者如何才能更有效地将人工智能治理原则转化为具体的全球行动。该小组讨论会是一系列旨在解决这一紧迫问题的研讨会计划的开端。

伦敦国王学院的肯尼斯-佩恩(Kenneth Payne教授捕捉到了会场中的情绪:"谈论规范很容易摘下低垂的果实,比如注意到关切和需要更大的信任,但很难在此基础上取得长足进展"。在地缘政治竞争日益激烈的时代,人工智能在战略层面带来了重大风险,包括使冲突升级的动态变得更加不透明和不可预测。"佩恩说:"借用克劳塞维茨的说法,战争的'语法'是不确定的。

在这种不确定的情况下,作为制定道路规则的先行者具有明显的战略和规范优势。特殊竞争研究项目国防高级主管、前美国海军上校保罗-里昂斯博士强调说:"虽然治理很重要,虽然负责任的速度很重要,但我们不要忘记,现在是一场创新竞赛,先行者将分配这些价值。"Lyons 认为,负责任的人工智能需要快速实验,让运营商在受控环境中测试不同的治理模式。

随着各国竞相开发和部署新技术,透明度将在确保负责任地使用人工智能方面发挥关键作用。"实施负责任的人工智能原则可以提高效率、有效性和合法性。 公正安全前美国国家安全委员会副法律顾问泰斯-布里奇曼博士强调说。"透明度是信任我们正在生产和运行的人工智能系统的助推器,而信任反过来又能促进这些能力更快地被采用。里昂对此表示赞同,他认为 "在我们规定如何使用人工智能时,信任是我们的身份、我们的工作、我们所遵循的愿景以及为我们服务的价值观所固有的"。

今天,各国可以采取几个步骤来提高军事人工智能的透明度。首先,各国可公布其在军事领域开发和使用人工智能的国内国家战略、政策文件、框架和立法。最重要的是,这应包括编辑和解密在国家安全背景下使用人工智能的政策和程序,包括与使用武力和支持战斗职能的情报行动有关的决策。其次,各国可创建关于军事人工智能的现有知识简编。这些简编可包括在常规和非常规冲突中负责任地使用人工智能技术的案例研究。最后,各国应以可供公开辩论的方式,对国际法如何适用于具体的人工智能使用案例进行集体解释,同时分享法律审查的最佳做法。

除透明度外,知识转让和能力建设对提高军事人工智能治理的力度也至关重要。虽然政策辩论主要集中在监管方面,但从无人机战争中吸取的经验教训表明,不具约束力的文书--包括政策指导、交战规则和行为准则--在实践中可能更能有效地确保道德警戒线到位。简而言之,军事人工智能的治理可能更多地是在政策层面而非法律层面,而培训则是实施的基本组成部分。

最重要的是,有效的人工智能治理需要政治意愿。澳大利亚国立大学的托尼-厄斯金教授强调,有必要制定 "补充性的克制道德责任",即创造条件,使我们能够履行《联合国宪章》和国际人道主义法中已在国际关系中得到广泛认可的克制义务的责任。"我们面临着双重任务,既要就来之不易的现有国际准则的新应用达成共识,又要就有助于形成新准则的新原则达成一致"。鉴于人类面临的风险,厄斯金得出结论说,现在需要的是 "有义务者的联盟",而不是有意愿者的联盟。要完成这项任务,就必须借鉴网络和核领域的经验教训,加强透明度和建立信任措施。

一切,一气呵成

REAIM 强调了军事人工智能治理的两个当务之急:就原则的内容达成更广泛的国际共识,以及采取具体步骤落实这些原则。但什么应该优先?决策者应如何确定人工智能风险的优先次序?鉴于技术进步的速度已经超过了新生的人工智能治理框架,是否存在 "速赢"?

"联合国裁军研究所安全与技术项目负责人贾科莫-佩尔西-保利(Giacomo Persi Paoli)博士认为:"蓝图是循序渐进的一步。"走得太快、太急,很有可能导致许多国家不愿参与"。专家们正在以年而不是以月来衡量治理进展。与此同时,科技公司也在快速前进。"红十字国际委员会技术政策顾问亚历克西-德鲁(Alexi Drew)博士评论说:"就在[REAIM]的门外,在这个被认为不可避免的时间框架内......公司正在积极销售需要监管的系统。

政策制定者可以在一定程度上对人工智能风险进行分流和优先排序。首先要关注影响较大的问题,如人工智能破坏战略威慑力并导致核战争的可能性。另一种方法是应对已经显现的风险,如在目标选择中使用人工智能决策支持系统。治理框架也可以优先考虑对人工智能工具进行监管,因为这些工具极易破坏稳定,落入恐怖分子之手。

这份优先事项清单强调了同时应对近期威胁和生存威胁的必要性。因此,正如佩恩在 REAIM 小组会议上提出的那样,有关军事人工智能治理和生存风险的讨论可能很快就会趋于一致。在人工智能治理方面,决策者需要同时做好所有事情。

这里没有速赢。相对较小的成果包括制定和推广国家人工智能治理政策,以及授权对军事环境中的人工智能系统进行定期法律审查。Carnegie Council-ELAC 小组在 REAIM 会议上提出的透明度措施是决策者在缺乏立法或国际共识的情况下可以立即采取的其他措施。尽管不一定能一蹴而就,美国外交官也应该继续推动更多国家加入《政治宣言》,尤其是那些可能是该技术最严重滥用者的盟国。与此同时,各国政府必须建立一个 "义务联盟",以应对未来的巨大挑战。

如果政府、行业、学术界和民间社会的技术和政策专家不加强合作,这些步骤都不可能实现。加强公私合作伙伴关系至关重要。REAIM 提供了一个重要的合作模式,汇集了多元化、跨学科的专家团队来解决此类复杂问题。

随着这一对话的展开,有必要探讨人工智能如何重塑战争的伦理和战略层面的深层变化。与常规武器不同,人工智能不仅改变了我们使用武力的方式,也改变了我们对使用武力的看法。改变的不仅仅是战争的性质,人类对战争的看法也在发生变化。为了应对当前的挑战,人工智能治理必须立足于更广泛的社会、制度和独特的人类环境,而技术正是在这样的环境中部署的。

布里安娜-罗森博士 (@rosen_br) 是 正义安全组织的高级研究员 ,也 牛津大学布拉瓦特尼克政府学院的战略与政策研究员。她曾在美国政府任职十年,包括白宫国家安全委员会和副总统办公室。

Carnegie Council 国际事务伦理委员会是一个独立的、无党派的非营利组织。本文所表达的观点仅代表作者本人,并不一定反映Carnegie Council 的立场。

您可能还喜欢

2024 年 11 月 13 日 - 文章

道德灰色地带:政治审议中的人工智能代理

随着代理人工智能应用的增加,研究人员和政策制定者必须就伦理原则达成一致,为这一新兴技术的管理提供依据。

2024 年 10 月 24 日 - 文章

人工智能与 2024 年选举的公正性

这是 CEF 第一批学员的最后一个项目,讨论了在 2024 年数十亿人参加投票时,人工智能对选举公正性的影响。

2024 年 10 月 22 日 - 视频

国际事务中的道德领导

在这篇 2024 年全球伦理日致辞中,Carnegie Council 总裁乔尔-罗森塔尔(Joel Rosenthal)分享了他对伦理领导力和伦理必须发挥的作用的看法...