2023 年 10 月 4 日 - 文章

人工智能国际治理的 "中间件 "和模式

生成式人工智能技术的迅速崛起和广泛应用突出表明,迫切需要对人工智能系统在其复杂的历史阶段的每一步进行全面治理。当人工智能技术在社会结构和机构中得到谨慎、小心和一致的使用时,它们就有可能促进集体进步并提升能力。然而,如果贸然部署或缺乏保障措施,则会带来巨大风险。它们有可能破坏社会稳定,危及公共和个人安全,扩大现有的不平等,破坏国际关系。这些人工智能技术的覆盖面和影响力之广,凸显了设想新的国际治理模式和保障措施的紧迫性。

从历史上看,人工智能研发部门一直在抵制政府的监督,而倾向于自律,而政府甚至在努力满足监督需求方面都落在后面。这种做法是不够的。人工智能技术已渗透到我们生活的方方面面,随着少数几家公司对人工智能技术的控制,以及各领域挑战的不断增加,出现了权力失衡的现象。对全球进行严格的道德监督和采取果断的监管行动的必要性变得不可否认。

许多国家和地区团体正在实施或考虑实施限制,特别是随着对人工智能驱动的国家语言模型技术和下游应用的投资不断增长。然而,一些国家尚未开始任何正式审议,而另一些国家则表示担心由于技术经验不足和参与能力有限而在这一快速发展的领域落后。这就造成了治理格局的分散,其特点是各种模式和拼凑的规则大量涌现,反映了不同的文化规范和战略目标。值得注意的是,专门针对人工智能制定的法律屈指可数。

在某种程度上,监管环境中的竞争可能是有益的:集中的技术管理可能会扼杀创新和灵活性。然而,过于分散可能会让不道德的做法通过 "挑选管辖区 "而得以确立,在这种情况下,公司会转向监管更为宽松的管辖区。应对这一风险需要全球合作。

显然,人工智能需要一个量身定制的国际治理框架,借鉴各组织开发的模式,如政府间气候变化专门委员会(IPCC)评估气候变化的规模和影响;国际原子能机构(IAEA)加强原子能对和平、健康和繁荣的贡献,同时确保原子能不被用于任何军事目的;欧洲核研究组织(CERN)推进基础物理学研究。这种将政治和技术职能结合在一起的方法将成为技术专家和政策制定者之间的桥梁,在促进和控制之间取得平衡,以弥补现有机制和方法的不足。此外,这种框架应促进利益攸关方之间的合作与对话,并让公众参与有意义的知情讨论。

最终目标应该是制定具有约束力的全球法规,以监测、报告、核查和必要时强制执行的手段为前提,最好有一项条约作为支持。不过,现在就应立即采取措施,建立这一框架。这些中间行动可以比作计算机科学中的 "中间件",它增强了不同设备和系统之间的互操作性。这种治理 "中间件 "不仅可以连接和调整现有的努力,还可以为今后采取更多可执行的措施铺平道路。

"中间件 "实体和提供商既可以在现有组织的支持下建立,也可以是新创建的,或 者是引入其他具有全球合法性和技术熟练程度的倡议的组合。下文建议的活动不一定都由一个实体开展,其职能可以分散。

在寻求实现全球人工智能治理的过程中,我们面临着两个紧迫的风险:一是用意良好但过于雄心勃勃的努力可能会失败,二是建议的主旨仅限于令人钦佩的目标。下文提出的领域和模式旨在克服政治分歧、组织繁文缛节、技术决定论以及维持行业自律的努力。这些都是切实可行的建议,旨在帮助驾驭全球技术治理的复杂性,克服各自为政的现象。虽然本文没有深入探讨具体细节,但很明显,一些建议进一步考虑的领域可能需要在新出现的和现有的知识产权方面做出让步。我们承认,国家安全的需要将在如何解决这些问题中发挥重要作用。因此,强调为国际稳定展示强有力的技术管理所带来的集体利益和收益,对于接受任何建议都至关重要。

需要注意的是,这份清单并没有按重要性排序。相反,每个项目都是作为一种潜在的方法和有待进一步探索的领域提出的。其中有些可能立即具有相关性,而另一些则可能没有相关性。建议中间件治理实体开展的活动以人工智能国际治理框架为基础。该框架是Carnegie Council 国际事务伦理中心(CCEIA)的人工智能与平等倡议(AIEI)和电气与电子工程师学会标准协会(IEEE SA)的合作成果。下文提出的模式在结构上反映了适合功能性更强的中间件方法的要素,以促进和加快向正式国际协议的过渡,前提是各国就可行的前进道路达成一致意见。

人工智能影响中心:根据预期目标,与相关技术社区密切合作开发的全球中心可监测全球范围内影响较大的人工智能系统、其用途和边缘案例。这样一个登记处可以通过记录这些系统的训练数据及其后续成果和影响来促进合作。

评估接受程度:评估并公布哪些人工智能治理规范框架、法规、最佳实践和标准在全球范围内获得了最广泛的接受并产生了明显的影响,可以促进这些框架、法规、最佳实践和标准的采用。在考虑人工智能生成技术和模型的获取、训练数据的透明度、计算资源、环境影响、产品成熟度声明以及数据公共资源的使用时,这一点尤为重要。

数据来源和出处登记: 捕捉数据产品的衍生历史(源于其原始来源)对于建立可靠的数据来源和维护稳健的数据出处实践至关重要。仅仅依靠水印作为一项独立的举措是不够的,因为它主要解决的是所有权和版权问题。为确保全面的数据可追溯性和完整性,有必要采取一种将水印和详细的脉络跟踪相结合的综合方法。

可互操作的数据共享框架:可互操作的数据共享框架:要实现有效的全球监督,最重要的是制定并采用国际标准和框架,使各地区的数据管理实践标准化。考虑到专有技术创建过程中使用的大量私人数据,这一点变得尤为重要。通过建立这些统一的框架,我们可以促进增强互操作性,加深公众对全球数据共享计划的信任。这一合作努力需要政府、组织和行业利益相关者的共同行动,以确保数据交换对所有相关方都是透明、适当披露和安全的。

全球 "红队": 建立独立的多学科专家名册,通常称为 "红队"每两年更新一次,以解决利益冲突问题,并要求参与者申报参与人工智能相关开发的情况。这些团队的任务是审查人工智能对各行业的积极和消极影响,开发科学和工程工具,通过持续时间和价值链分析评估人工智能系统的安全性和影响,并预测未来的发展。

技术协调理事会:建立一个由全球技术公司组成的常设咨询机构,每季度召开一次会议,分享实时的治理见解,可以促进互操作和可追溯人工智能技术的凝聚力和协同推进。这种方法强调科技巨头和利益相关者之间的持续对话与合作。它有助于防止权力过度集中,并在追求负责任的人工智能发展过程中倡导透明度、互操作性和可追溯性。

全球最佳做法:可设计政策模板和示范保障体系,以承认人工智能技术的普遍使用特性。这些系统的目标应是在鼓励有益的人工智能应用与建立强有力的控制措施以抵制对抗性使用和减少有害结果之间取得平衡。采用这一战略可以提供一个更加公平的竞争环境,特别是对于努力跟上快速技术进步和不断变化的监管环境的国家和实体而言。要想在人工智能(和其他新兴技术)治理方面取得任何有意义的进展,核心是要在鼓励有益的人工智能应用与建立强有力的控制措施以抵制对抗性使用和减少有害结果之间达成一致。

年度报告:编写一份年度报告,汇编和综合有关新兴人工智能趋势、投资和产品发布的研究成果,并评估相关治理框架,可以改变游戏规则。该报告还将涵盖全球驱动因素、潜在威胁、威胁行为体和机遇。通过提出潜在的情景,为政府和国际组织提供可操作的建议,并包括一个详细的时间表,以防止后续行动的延误,该报告将大大加强知情决策并提升公共讨论。

全球事件数据库: 建立一个全球数据库,用于匿名和查明与人工智能有关的重大事件的报告,并以现有的地方努力为基础,可以降低报告的障碍,提高报告的积极性。这一未来的工具应由一个中间件实体管理,该实体应具备评估索赔的技术能力。它可以促进跨境合作,确保威胁分析的一致性。该数据库将为讨论和评估新出现的威胁提供一个安全平台,加强全球备灾能力,并作为一项增强信心的措施。

技术扫盲: 实体应与教育机构合作,利用可免费获取的知识共享许可标准、材料和平台,促进人工智能扫盲。这与教科文组织的指导倡议相一致。此类倡议强调投资教育的重要性,使个人有能力有效驾驭人工智能领域,并挖掘其潜力,以改善个人和社会生活。应调整所有教育课程,采取激励措施并要求公司解释其技术如何运行、系统如何构建、由谁构建、使用哪些资源、目的是什么。这将确保人们,尤其是儿童,将这些系统有机地视为先进但有缺陷的计算工具,并据此参与其中。

技术护照:技术护照 "系统可简化跨管辖区的评估,使利益相关者能够在整个过程中仔细检查一项技术的成果。这种护照将是一份不断发展的文件,人工智能系统在其中积累 "印章",表明专家审查已核实该系统符合预定标准。印章将在系统进化历程和价值链的关键时刻盖上,例如在整合新数据、连接其他系统、退役或应用于新用途时。

国际标准库:建立一个可能由学术环境中的中间件实体管理的综合资料库,集中参考现有的人工智能标准,阐明差异,根据不断进步的技术环境评估更新的必要性,说明实际应用,并解决伦理问题和利益冲突。该资料库将提高透明度、指导决策、促进合作,以防止被道德误导的应用,同时防止受利益冲突影响的标准取代稳健的管理。它将允许有关各方浏览可用资源,并确定使用案例的最佳方法。重要的是,尽管所参考的某些标准可能仍为发布标准的组织所专有,但该资源库仍可免费访问。

开源沙箱:创建开源沙盒或测试平台框架,使开发人员和实施代理能够以道德和透明的方式测试、验证、核实人工智能能力,并提供技术监督,无论是人机交互还是机机互动。这些沙盒框架在设计时将考虑开源和可复制的解决方案架构。这种开源方法不仅在人工智能领域具有巨大的应用潜力,而且还能解决人工智能所带来的前所未有的技术融合问题。如果取得成功,这些开源沙盒中的许多拟议组件将成为管理科学发现和技术创新领域的典范。

技术工具:不断开发软件和硬件工具,包括加密方法和安全协议,为创建强大、安全和可靠的系统奠定基础,以防范网络威胁、数据不当处理、肆无忌惮的数据挖掘和相关漏洞。这种开发还可以提高流程效率,从而节省大量时间和成本。此外,要培养一种超越技术方法的安全文化,必须鼓励广泛的全球利益相关者共享知识和专业技能。这种合作努力可以促进不断完善免费、可访问并适应不断变化的技术环境的工具。

合作政策论坛: 专门的大会,类似于通常与国际条约相关的缔约国会议,可以作为一个论坛,就禁止或限制人工智能技术及其在对国际稳定与安全构成潜在后果的不良风险情况下的应用达成协议。即使在没有正式条约的情况下,这种聚会也能加强技术和人工智能治理。在人工智能模型及其下游应用可能与既定规范框架、军备控制文书以及与政治、社会和人权有关的原则相冲突的情况下,这将证明特别有价值。

申报门户网站: 从军备控制和不扩散制度中汲取灵感,建立一个 "申报门户",要求国家和企业行为者披露其人工智能的发展、方法和部署情况,这将鼓励透明度和遵守全球商定的规范和标准,促进国际技术合作和知识交流,并作为一项建立信任措施。

全球认证: 制定全球认证计划,旨在将普遍认同的道德原则(包括解决紧张点和权衡问题)纳入人工智能流程。理想情况下,这些认证计划应与可靠的专业技术组织合作开展,利用他们在制定此类计划方面所展示的专业知识,确保认证过程超越理论概念,并提供切实可行的解决方案,以解决政治、社会、环境和人权等现有规范性文书中明确规定的伦理问题。

***

全球技术和人工智能治理框架必须既灵活又敏捷。积极促进对话和建立信任措施可以使全球框架的实施更加可靠,并有助于对相关问题做出迅速反应。因此,要管理一项迅速发展的技术,就需要采取全面和联合的方法,涵盖每项技术从诞生到淘汰的整个过程。

虽然企业的意见对制定任何与技术相关的框架都很有价值,但保持开源、社区驱动和独立的方法对提高透明度至关重要。任何框架都应明确界定责任,说明正在开发什么、由谁开发、在谁的指导下开发、采用什么标准开发以及预期目的是什么。这样做既能促使公司展示其对透明、安全和负责任的人工智能部署的承诺,又能促进更广泛的利益相关者合作。

在驾驭不同的监管环境、缓解地缘政治紧张局势以及平衡各种企业利益方面,仍有许多问题尚未解决。例如,如何实施和监督拟议的机制?如何保障政治自主性、企业独立性、技术完整性以及影响这些技术开发和使用的个人、机构和中间件实体的可靠性?当出现政治和技术分歧时,由谁来解决?例如,国际法院是否可以发挥作用,根据国际法解决法律纠纷,并就具有跨国影响的人工智能相关问题提供指导?或者,是否有必要建立一个单独的司法解决机构,以处理具有全球影响的有害使用的潜在索赔?

如果我们能找到这些问题和其他问题的答案(这些问题无疑会随着我们使用这些技术的发展而出现),那么一个全球公认的人工智能治理框架就可以成为治理未来科技进步的垫脚石,并延伸到人工智能以外的领域。

关于本提案

本提案建立在Carnegie Council 国际事务伦理中心(CCEIA)的人工智能与平等倡议(AIEI)和电气与电子工程师学会标准协会(IEEE SA)的合作基础之上。本提案得益于人工智能与治理领域众多杰出人士的专业知识和经验,并以这些专业知识和经验为基础。

AIEI 成立于 2020 年,是一个充满活力、以结果为导向的实践社区,致力于审查人工智能对社会平等的影响。它以促进人工智能进步中的伦理融合和赋权为坚定目标,倡导开发和部署公正、包容、牢牢植根于务实和负责任原则的人工智能技术。这项充满活力的倡议汇集了一个具有全球代表性的咨询委员会,其成员来自各大洲的 20 多个国家。这些顾问都是各自领域的杰出人士,他们来自学术界、政府机构、跨国机构、非政府组织和商界,将技术见解与地缘政治专业知识融为一体。

附加资源

人工智能红队/黑客未来:重新定义 Red Teaming,2023 年 7 月

计算机机械协会关于生成式人工智能的声明,2023 年 9 月

欧洲委员会的工作进展,2023 年 7 月

Credo.ai:黑客思维:DEF CON 31 为人工智能带来的 4 点启示,2023 年 8 月

电气和电子工程师学会关于生成式人工智能的声明,2023 年 6 月

Carnegie Council 国际事务伦理委员会是一个独立的、无党派的非营利组织。本文所表达的观点仅代表作者本人,并不一定反映Carnegie Council 的立场。

您可能还喜欢

2024 年 4 月 30 日 - 播客

乔安娜-布赖森:人工智能只是一种人工制品吗?

在本期节目中,主持人安雅-卡斯珀森(Anja Kaspersen)将与赫蒂学院的乔安娜-布赖森(Joanna Bryson)一起讨论计算科学、认知科学、行为科学和人工智能的交叉学科。

2022 年 5 月 13 日 - 文章

我们所知的伦理已不复存在。是时候重新认识伦理学了。

鉴于国际事务令人担忧的现状,我们有理由对道德规范的框架或共用方式表示极大的关注。为了迎接这一时刻,...

2021 年 12 月 9 日 - 播客

伦理、治理与新兴技术:与卡内基气候治理计划(C2G)和人工智能与平等计划(AIEI)的对话

具有全球影响力的新兴技术正在快速创造新的无人管理空间。Carnegie Council 的 C2G 和 AIEI 计划的负责人讨论了...