设想人工智能治理模式:AIEI 对联合国技术特使的回应

2023 年 9 月 29 日

本报告由Carnegie Council 高级研究员 Anja Kaspersen 卡内基-上广研究员 Wendell Wallach 整理,他们是 "人工智能与平等倡议"(AIEI)的联合主任。 人工智能与平等倡议(AIEI)联合主任.在撰写本报告时,我们参考了来自学术、技术和管理领域的个人和机构的见解。

人工智能国际治理框架

概述

要促进创新技术的惠益,就必须解决潜在的社会干扰问题,并确保公共安全和安保。生成式人工智能(AI)应用的快速部署突出表明,迫切需要建立强有力的治理机制,以进行有效的道德和法律监督。本概念说明建议立即建立一个由合作协商机制支持的全球人工智能观察站,以确定和传播人工智能系统全面国际治理的最佳做法、标准和工具。

目的

这一倡议引导人们关注如何在现有资源的基础上建立一个治理框架,并能产生立竿见影的效果。这样一个框架将使人工智能及相关技术的使用具有建设性,同时有助于防止不成熟的使用或滥用,以免造成社会混乱或对公共安全和国际稳定构成威胁。

从原则到实践

目前已有许多关于负责任地使用人工智能的行为守则或原则清单。联合国教科文组织和经济合作与发展组织/20 国集团发布的守则或原则清单是得到最广泛认可的两份。近年来,各种机构一直在努力通过具体领域的标准将这些原则付诸实践。一些国家和地区提出了建议,甚至颁布了对人工智能特定用途的限制。例如,欧盟委员会发布了一项全面的法律框架(《欧盟人工智能法》),旨在确保人工智能系统安全、透明、可追溯、非歧视和无害环境,并由人类进行监督。中国网络空间管理局遵循《北京人工智能原则》,对企业和应用程序做出了新的规定。美国联邦和州一级的各种举措进一步强调了立法框架的必要性。联合国秘书长最近还提议成立一个高级别小组,考虑对人工智能进行类似原子能机构的监督。

拟议框架

人工智能的治理十分困难,因为它几乎影响到现代生活的方方面面。面临的挑战包括从互操作性到确保应用有助于实现可持续发展目标(SDGs),而不是破坏可持续发展目标的实现。全球治理框架必须建立在现有机构和新倡议的工作基础上,这些机构和倡议应履行关键任务,如监测、验证和执行合规性。只有真正灵活敏捷的治理方法,才能为不断发展的技术提供持续的监督,因为这些技术应用广泛,实现和部署的时间表各不相同,而且有大量不同目的的标准和实践。

考虑到围绕技术政策和治理问题的政治分歧,建立一个新的全球机构需要时间。不过,具体的职能可以而且应该立即得到关注。例如,全球人工智能观察站可以在现有的中立中介机构内进行管理,该中介机构能够以分布式的方式与其他在人工智能研究及其对社会的影响方面具有资质的非营利性技术组织和机构合作。

要建立有效的国际人工智能治理结构,必须具备五个共生的组成部分:

1.一个中立的技术组织,对哪些法律框架、最佳实践和标准在全球的接受程度最高进行分类。随着技术和监管模式的发展,有必要不断进行重新评估。

2. 全球人工智能观察站 (GAIO),其任务是在一般和特定领域层面,对已发布和部署的人工智能及相关系统的特征、功能和特点进行标准化报告。这些工作将有助于评估人工智能系统是否符合已商定的现有标准。报告应尽可能接近实时更新,以便在造成重大损害之前协调早期应对措施。已经存在的观察站,如经合组织的观察站,并不代表所有国家和利益相关者,也不提供监督,无法进行足够深入的分析,或完成下文提出的所有任务。

  • GAIO 将根据需要召集专家和其他相关的、具有包容性的利益攸关方,协调全球辩论与合作。
  • GAIO 将发布一份关于人工智能现状的年度报告,分析上一年出现的关键问题、模式、标准化工作和投资,以及政府、民选领导人和国际组织需要考虑的选择。这将涉及战略前瞻和设想,主要侧重于未来两三年内可能投入使用的技术。这些报告将鼓励就人工智能平台和具体系统的目的和适用规范达成尽可能广泛的一致。
  • GAIO 将开发并不断更新四个登记册。不良事件登记册和新的、正在出现的以及(在可能的情况下)预期应用登记册将共同帮助政府和国际监管机构在部署新系统之前关注潜在的危害。
  • 第三个登记册将跟踪人工智能系统的历史,包括有关测试、核查、更新的信息,以及已部署这些系统的国家的经验。这将有助于许多缺乏资源来评估此类系统的国家。第四个登记处将维护一个数据、代码和模型出处的全球存储库

3.具有有限执法权的规范治理能力,以促进遵守以道德和负责任的方式使用人工智能及相关技术的全球标准。这可能涉及建立一个 "技术护照 "系统,以简化跨管辖区和监管环境的评估。联合国等现有国际行为体的支持将为这一能力提供合法性和授权。可通过国际电信联盟、教科文组织和人权高专办之间的合作,并在电气和电子工程师学会等全球技术组织的支持下,在联合国生态系统内开发这一系统。

4. 合规性评估和流程认证工具箱,以促进负责任的行为,协助建立信任措施和透明度工作。此类评估不应由开发人工智能系统的公司或用于评估这些系统的工具来进行。

5.不断开发技术工具("盒式监管"),无论是嵌入软件或硬件或两者,对于透明度、问 责、验证和审计安全协议都是必要的,并解决与维护所有数字产品中的人权、社会权利和政 治权利有关的问题--其中每一项都是建立信任措施的关键要素。这些工具是与数字空间的其他参与者共同开发的,应不断对其错误活动进行审计,并由科技界进行调整。所有各方都必须能够免费使用这些工具。企业界在提供和开发工具以及技术可行性情报方面的协助至关重要,他们对规范的建议也同样重要。然而,那些在经济上获益最大的企业对监管的攫取是不可接受的。在制定规范、执行规范或向谁提供工具方面,企业不应发挥最终作用。

我们充分认识到,这一骨架框架提出了无数问题,如如何实施和管理此类治理机制,如何建立和保持其中立性和可信性,或如何解决政治和技术分歧,以及如何补救潜在的有害后果。不过,我们提出这个框架是为了激发人们更深入地思考,我们从推广和管理现有技术中学到了什么,还需要什么,以及下一步该怎么走。

新兴技术和融合技术

这一框架在人工智能领域之外也有很大的潜在应用空间。如果行之有效,所提出的许多内容都可以作为尚未预见的科学发现和技术创新领域的治理模式。虽然人工智能的产生使得建立国际治理成为当务之急,但许多其他现有的、新兴的和预期的科学发现和技术创新领域也需要监督。

本提案由Carnegie Council 国际事务伦理委员会 (CCEIA) 与电气和电子工程师学会 (IEEE) 合作提出,借鉴了 2023 年 6 月由Carnegie Council人工智能与平等倡议电气和电子工程师学会 (IEEE SA) 组织、教科文组织巴黎办事处和国际电信联盟日内瓦办事处主办的两次多学科专家研讨会上讨论的观点和概念。不过,参加这些研讨会并不意味着认可本框架或框架中的任何具体观点。

研讨会与会者(按字母顺序排列):


Doaa Abu Elyounes、Phillippa Biggs、Karine Caunes、Raja Chatila、Sean Cleary、Nicolas Davis、Cristian de Francia、Meeri Haataja、Peggy Hicks、Konstantinos Karachalios、Anja Kaspersen、Gary Marcus、多琳-博格丹-马丁、普雷塔姆-马鲁尔、迈克尔-默勒、科琳娜-莫马尔-瓦尼安、杰夫-马尔甘、加芙列拉-拉莫斯、南吉拉-桑布利、莱因哈特-烁尔、克莱尔-斯塔克、索菲亚-瓦莱科萨、温德尔-瓦拉赫、弗雷德里克-维尔纳。


鉴于缺乏硬法,软法功能在人工智能国际治理中的作用

作者:温德尔-瓦拉赫、安卡-鲁埃尔、安雅-卡斯珀森

摘要:

基础模型的出现使世界各地的外交官、立法者和公民警觉到,需要对人工智能进行治理,以扩大效益,同时最大限度地降低风险和不良社会影响。人工智能系统可能会被滥用、误用或无意中破坏国际稳定、公平和人权,这种前景要求高度的合作、监督和监管。然而,各国政府在建立具有执法权的国际硬法制度方面行动不够迅速。在缺乏这种制度的情况下,软法律就成为了一种杠杆,有助于塑造人工智能的发展轨迹,并鼓励围绕其规范和技术管理开展国际合作。在本文中,我们概述了软法律在国际人工智能治理中的关键功能以及实现这些功能的机制。我们还建议按照 Mulgan 等人(2023 年)的观点建立全球人工智能观察站,以履行现有机构尚未(充分)承担或超出其职责范围的职能。


建立全球人工智能观察站(GAIO)的理由,2023 年

以下 GAIO 建议的作者是:伦敦大学洛杉矶分校 Geoff Mulgan 爵士教授、麻省理工学院 Thomas Malone 教授、牛津大学集体智能项目 Divya Siddharth 和 Saffron Huang、元治理项目执行主任 Joshua Tan、合作人工智能 Lewis Hammond。

在此,我们提出了一个貌似可行的补充步骤,作为未来对人工智能进行更严肃监管的必要条件,全世界现在就可以达成一致(该提议借鉴了与伦敦大学洛杉矶分校、麻省理工学院、牛津大学、集体智能项目、Metagov 和人工智能合作基金会的同事合作的成果以及之前的提议)。

全球人工智能观察站(GAIO)将提供必要的事实和分析,为决策提供支持。它将综合支持多种治理对策所需的科学和证据,并回答一个以数据为基础的领域所存在的巨大悖论,即人们对人工智能领域正在发生的事情以及未来可能发生的事情知之甚少。目前还没有机构为世界提供建议,对风险和机遇进行评估和分析,许多最重要的工作都被刻意保密。GAIO 将填补这一空白。

政府间气候变化专门委员会 (IPCC)已经为世界树立了一个榜样。IPCC 于 1988 年由联合国与来自世界各地的成员国共同成立,为各国政府提供可用于制定气候政策的科学信息。

一个可比的人工智能机构将提供可靠的数据、模型和解释基础,以指导有关人工智能的政策和更广泛的决策。在某些方面,全球人工智能组织必须与政府间气候变化专门委员会(IPCC)有很大的不同,必须以更快的速度和更反复的方式开展工作。但理想的情况是,它能像 IPCC 一样,与政府密切合作,为政府提供制定法律法规所需的指导。

目前,许多机构都在收集有价值的人工智能相关指标。国家跟踪其境内的发展情况;私营企业收集相关行业数据;经合组织人工智能政策观察站等组织则关注国家人工智能政策和趋势。此外,还有人尝试绘制更先进的人工智能治理方案,比如governance.ai提供方案。虽然这些举措是一个重要的开端,但科学家如何思考这些问题与公众、政府和政治家如何思考这些问题之间仍然存在鸿沟。此外,有关人工智能的许多问题仍然不透明,而且往往是故意为之。然而,政府不可能对不了解的东西进行合理的监管。

性别平等与信息组织可以通过六个主要活动领域帮助填补这一空白:

  • 首先是建立一个全球标准化事件报告数据库,集中处理人工智能系统与现实世界之间的重要互动。例如,在生物风险领域,人工智能可以帮助制造危险的病原体,一个记录与此类风险相关事件的结构化框架可以帮助减轻威胁。中央数据库将记录涉及人工智能应用的具体事件的基本细节及其在不同环境中的后果--审查系统的目的、用例以及有关培训和评估过程的元数据等因素。标准化的事件报告可以实现跨境协调,降低可能出现的人工智能军备竞赛中沟通不畅的几率并减轻其潜在影响--其后果不亚于核武器军备竞赛。
  • 其次,GAIO 将建立一个重要人工智能系统登记册,重点关注具有最大社会和经济影响的人工智能应用,以受影响人数、互动人时及其影响的利害关系来衡量,以跟踪其潜在后果。理想情况下,它还将制定提供模型访问权限的规则,以便进行审查。新加坡已经有了一个登记处,英国政府也在考虑在国内建立类似的登记处:但类似的方法在某种程度上需要成为全球性的。
  • 第三,GAIO 将汇集关于人工智能关键事实的共享数据和分析;支出、地理、关键领域、用途、应用(这些有许多来源,但它们仍然没有以易于获取的形式汇集在一起,许多关于投资的信息仍然非常不透明)。
  • 第四,GAIO 将通过涵盖劳动力市场、教育、媒体和医疗保健等主题的工作组,汇集有关人工智能对关键领域影响的全球知识。这些工作组将协调数据的收集、解释和预测工作,例如法律硕士对工作和技能的潜在影响。GAIO 还将包括人工智能正面和负面影响的衡量标准,例如人工智能产品创造的经济价值,以及人工智能社交媒体对心理健康和政治两极化的影响。
  • 第五,性别问题信息和联网倡议可以为各国政府提供规章和政策方面的选择,并可 能提供立法援助(借鉴共同发展促进新闻部和原子能机构的经验教训),提供可适应不 同情况的示范法律和规则。
  • 最后,GAIO 将通过一份关于人工智能现状的年度报告,分析关键问题、出现的模式以及各国政府和国际组织需要考虑的选择,从而协调全球辩论。这将涉及一个滚动式的预测和情景方案,主要集中在未来两三年内可能投入使用的技术上,并可借鉴现有的工作,如斯坦福大学编制的人工智能指数

全球环境信息组织还需要创新。如前所述,它需要比政府间气候变化专门委员会(IPCC)更快地采取行动,对新的发展进行快速评估。最重要的是,它可以使用集体情报方法,汇集成千上万科学家和公民的意见,这对于跟踪快速发展的复杂领域的新兴能力至关重要。此外,它还可以采用类似于美国政府对员工举报有害或非法行为的慷慨奖励的举报方法。

要想取得成功,全球环境与可持续发展信息组织需要有与政府间气候变化专门委员 会相当的合法性。这一点可以通过其成员(包括政府、科学机构和大学等)来实现,也可以通过确保将重点放在事实和分析上,而不是处方上(处方将由政府掌握)来实现。理想的情况是,它与在这一领域发挥明确作用的其他机构--国际电信联盟(ITU)、国际电气和电子工程师学会(IEEE)、联合国教科文组织(UNESCO)和国际科学理事会(International Science Council)--建立正式联系。它的目标应该是与已经在这一领域开展出色工作的其他机构,从经合发组织到学术中 心,进行尽可能密切的合作。

与政府间气候变化专门委员会一样,将在成员组织提名的基础上遴选参与该委员会工作的人员,以确保专业知识的深度、学科的多样性和全球代表性,同时最大限度地提高透明度,以最大限度地减少实际存在的和被认为存在的利益冲突。

人工智能界和使用人工智能的企业往往对政府的参与心存疑虑,常常认为政府的参与只会带来限制。但是,自我管理的时代已经过去了。这里提出的是一个部分为政府服务的组织,但主要工作由科学家完成,借鉴了许多其他技术的成功管理经验,从人类受精和克隆到生物和核武器。

近年来,联合国系统一直在努力应对数字技术日益增长的影响力。联合国系统设立了许多委员会和小组,这些委员会和小组往往冠以高大上的头衔,但通常收效甚微。现在最大的风险是,会有多种互不关联的努力,但都没有取得足够的影响力。媒体和政界人士很容易被狂妄的生存风险声明所干扰,很少有人有信心挑战大型企业,尤其是当他们面临本国公民被剥夺开放式人工智能或谷歌带来的好处的威胁时。

因此,使一个新机构合法化并非易事。该组织需要说服来自美国、中国、英国、欧盟和印度等国的主要参与者,让他们相信它将填补一个重要的空白,还需要说服主要企业,让他们相信如果不汇集全球知识和评估,他们控制议程的企图不可能长久。成立该组织的根本原因在于,没有一个国家能从失控的人工智能中获益,正如没有一个国家能从失控的病原体中获益一样。

各国的反应必然各不相同。例如,中国最近提议禁止 "任何内容颠覆国家政权、鼓吹推翻社会主义制度、煽动分裂国家或破坏民族团结 "的法律硕士。相比之下,美国可能希望获得最大限度的自由。

但是,共享知识和分析是各国能够决定自身优先事项的必要条件。无人管理的人工智能威胁着我们思考、行动和发展所需的基础设施和信息空间。以智能的方式汇集知识,是更好地利用人工智能的好处并避免其危险的重要起点。


人工智能国际治理的 "中间件 "和模式

作者:安雅-卡斯珀森

生成式人工智能技术的迅速崛起和广泛应用突出表明,迫切需要对人工智能系统在其复杂的历史阶段的每一步进行全面治理。当人工智能技术在社会结构和机构中得到谨慎、小心和一致的使用时,它们就有可能促进集体进步并提升能力。然而,如果贸然部署或缺乏保障措施,则会带来巨大风险。它们有可能破坏社会稳定,危及公共和个人安全,扩大现有的不平等,破坏国际关系。这些人工智能技术的覆盖面和影响力之广,凸显了设想新的国际治理模式和保障措施的紧迫性。

从历史上看,人工智能研发部门一直在抵制政府的监督,而倾向于自律,而政府甚至在努力满足监督需求方面都落在后面。这种做法是不够的。人工智能技术已渗透到我们生活的方方面面,随着少数几家公司对人工智能技术的控制,以及各领域挑战的不断增加,出现了权力失衡的现象。对全球进行严格的道德监督和采取果断的监管行动的必要性变得不可否认。

许多国家和地区团体正在实施或考虑实施限制,特别是随着对人工智能驱动的国家语言模型技术和下游应用的投资不断增长。然而,一些国家尚未开始任何正式审议,而另一些国家则表示担心由于技术经验不足和参与能力有限而在这一快速发展的领域落后。这就造成了治理格局的分散,其特点是各种模式和拼凑的规则大量涌现,反映了不同的文化规范和战略目标。值得注意的是,专门针对人工智能制定的法律屈指可数。

在某种程度上,监管环境中的竞争可能是有益的:集中的技术管理可能会扼杀创新和灵活性。然而,过于分散可能会让不道德的做法通过 "挑选管辖区 "而得以确立,在这种情况下,公司会转向监管更为宽松的管辖区。应对这一风险需要全球合作。

显然,人工智能需要一个量身定制的国际治理框架,借鉴各组织开发的模式,如政府间气候变化专门委员会(IPCC)评估气候变化的规模和影响;国际原子能机构(IAEA)加强原子能对和平、健康和繁荣的贡献,同时确保原子能不被用于任何军事目的;欧洲核研究组织(CERN)推进基础物理学研究。这种将政治和技术职能结合在一起的方法将成为技术专家和政策制定者之间的桥梁,在促进和控制之间取得平衡,以弥补现有机制和方法的不足。此外,这种框架应促进利益攸关方之间的合作与对话,并让公众参与有意义的知情讨论。

最终目标应该是制定具有约束力的全球法规,以监测、报告、核查和必要时强制执行的手段为前提,最好有一项条约作为支持。不过,现在就应立即采取措施,建立这一框架。这些中间行动可以比作计算机科学中的 "中间件",它增强了不同设备和系统之间的互操作性。这种治理 "中间件 "不仅可以连接和调整现有的努力,还可以为今后采取更多可执行的措施铺平道路。

"中间件 "实体和提供商既可以在现有组织的支持下建立,也可以是新创建的,或 者是引入其他具有全球合法性和技术熟练程度的倡议的组合。下文建议的活动不一定都由一个实体开展,其职能可以分散。

在寻求实现全球人工智能治理的过程中,我们面临着两个紧迫的风险:一是用意良好但过于雄心勃勃的努力可能会失败,二是建议的主旨仅限于令人钦佩的目标。下文提出的领域和模式旨在克服政治分歧、组织繁文缛节、技术决定论以及维持行业自律的努力。这些都是切实可行的建议,旨在帮助驾驭全球技术治理的复杂性,克服各自为政的现象。虽然本文没有深入探讨具体细节,但很明显,一些建议进一步考虑的领域可能需要在新出现的和现有的知识产权方面做出让步。我们承认,国家安全的需要将在如何解决这些问题中发挥重要作用。因此,强调为国际稳定展示强有力的技术管理所带来的集体利益和收益,对于接受任何建议都至关重要。

需要注意的是,这份清单并没有按重要性排序。相反,每个项目都是作为一种潜在的方法和有待进一步探索的领域提出的。其中有些可能立即具有相关性,而另一些则可能没有相关性。建议中间件治理实体开展的活动以人工智能国际治理框架为基础。该框架是Carnegie Council 国际事务伦理中心(CCEIA)的人工智能与平等倡议(AIEI)和电气与电子工程师学会标准协会(IEEE SA)的合作成果。下文提出的模式在结构上反映了适合功能性更强的中间件方法的要素,以促进和加快向正式国际协议的过渡,前提是各国就可行的前进道路达成一致意见。

人工智能影响中心:根据预期目标,与相关技术社区密切合作开发的全球中心可监测全球范围内影响较大的人工智能系统、其用途和边缘案例。这样一个登记处可以通过记录这些系统的训练数据及其后续成果和影响来促进合作。

评估接受程度:评估并公布哪些人工智能治理规范框架、法规、最佳实践和标准在全球范围内获得了最广泛的接受并产生了明显的影响,可以促进这些框架、法规、最佳实践和标准的采用。在考虑人工智能生成技术和模型的获取、训练数据的透明度、计算资源、环境影响、产品成熟度声明以及数据公共资源的使用时,这一点尤为重要。

数据来源和出处登记: 捕捉数据产品的衍生历史(源于其原始来源)对于建立可靠的数据来源和维护稳健的数据出处实践至关重要。仅仅依靠水印作为一项独立的举措是不够的,因为它主要解决的是所有权和版权问题。为确保全面的数据可追溯性和完整性,有必要采取一种将水印和详细的脉络跟踪相结合的综合方法。

可互操作的数据共享框架:可互操作的数据共享框架:要实现有效的全球监督,最重要的是制定并采用国际标准和框架,使各地区的数据管理实践标准化。考虑到专有技术创建过程中使用的大量私人数据,这一点变得尤为重要。通过建立这些统一的框架,我们可以促进增强互操作性,加深公众对全球数据共享计划的信任。这一合作努力需要政府、组织和行业利益相关者的共同行动,以确保数据交换对所有相关方都是透明、适当披露和安全的。

全球 "红队": 建立独立的多学科专家名册,通常称为 "红队"每两年更新一次,以解决利益冲突问题,并要求参与者申报参与人工智能相关开发的情况。这些团队的任务是审查人工智能对各行业的积极和消极影响,开发科学和工程工具,通过持续时间和价值链分析评估人工智能系统的安全性和影响,并预测未来的发展。

技术协调理事会:建立一个由全球技术公司组成的常设咨询机构,每季度召开一次会议,分享实时的治理见解,可以促进互操作和可追溯人工智能技术的凝聚力和协同推进。这种方法强调科技巨头和利益相关者之间的持续对话与合作。它有助于防止权力过度集中,并在追求负责任的人工智能发展过程中倡导透明度、互操作性和可追溯性。

全球最佳做法:可设计政策模板和示范保障体系,以承认人工智能技术的普遍使用特性。这些系统的目标应是在鼓励有益的人工智能应用与建立强有力的控制措施以抵制对抗性使用和减少有害结果之间取得平衡。采用这一战略可以提供一个更加公平的竞争环境,特别是对于努力跟上快速技术进步和不断变化的监管环境的国家和实体而言。要想在人工智能(和其他新兴技术)治理方面取得任何有意义的进展,核心是要在鼓励有益的人工智能应用与建立强有力的控制措施以抵制对抗性使用和减少有害结果之间达成一致。

年度报告:编写一份年度报告,汇编和综合有关新兴人工智能趋势、投资和产品发布的研究成果,并评估相关治理框架,可以改变游戏规则。该报告还将涵盖全球驱动因素、潜在威胁、威胁行为体和机遇。通过提出潜在的情景,为政府和国际组织提供可操作的建议,并包括一个详细的时间表,以防止后续行动的延误,该报告将大大加强知情决策并提升公共讨论。

全球事件数据库: 建立一个全球数据库,用于匿名和查明与人工智能有关的重大事件的报告,并以现有的地方努力为基础,可以降低报告的障碍,提高报告的积极性。这一未来的工具应由一个中间件实体管理,该实体应具备评估索赔的技术能力。它可以促进跨境合作,确保威胁分析的一致性。该数据库将为讨论和评估新出现的威胁提供一个安全平台,加强全球备灾能力,并作为一项增强信心的措施。

技术扫盲: 实体应与教育机构合作,利用可免费获取的知识共享许可标准、材料和平台,促进人工智能扫盲。这与教科文组织的指导倡议相一致。此类倡议强调投资教育的重要性,使个人有能力有效驾驭人工智能领域,并挖掘其潜力,以改善个人和社会生活。应调整所有教育课程,采取激励措施并要求公司解释其技术如何运行、系统如何构建、由谁构建、使用哪些资源、目的是什么。这将确保人们,尤其是儿童,将这些系统有机地视为先进但有缺陷的计算工具,并据此参与其中。

技术护照:技术护照 "系统可简化跨管辖区的评估,使利益相关者能够在整个过程中仔细检查一项技术的成果。这种护照将是一份不断发展的文件,人工智能系统在其中积累 "印章",表明专家审查已核实该系统符合预定标准。印章将在系统进化历程和价值链的关键时刻盖上,例如在整合新数据、连接其他系统、退役或应用于新用途时。

国际标准库:建立一个可能由学术环境中的中间件实体管理的综合资料库,集中参考现有的人工智能标准,阐明差异,根据不断进步的技术环境评估更新的必要性,说明实际应用,并解决伦理问题和利益冲突。该资料库将提高透明度、指导决策、促进合作,以防止被道德误导的应用,同时防止受利益冲突影响的标准取代稳健的管理。它将允许有关各方浏览可用资源,并确定使用案例的最佳方法。重要的是,尽管所参考的某些标准可能仍为发布标准的组织所专有,但该资源库仍可免费访问。

开源沙箱:创建开源沙盒或测试平台框架,使开发人员和实施代理能够以道德和透明的方式测试、验证、核实人工智能能力,并提供技术监督,无论是人机交互还是机机互动。这些沙盒框架在设计时将考虑开源和可复制的解决方案架构。这种开源方法不仅在人工智能领域具有巨大的应用潜力,而且还能解决人工智能所带来的前所未有的技术融合问题。如果取得成功,这些开源沙盒中的许多拟议组件将成为管理科学发现和技术创新领域的典范。

技术工具:不断开发软件和硬件工具,包括加密方法和安全协议,为创建强大、安全和可靠的系统奠定基础,以防范网络威胁、数据不当处理、肆无忌惮的数据挖掘和相关漏洞。这种开发还可以提高流程效率,从而节省大量时间和成本。此外,要培养一种超越技术方法的安全文化,必须鼓励广泛的全球利益相关者共享知识和专业技能。这种合作努力可以促进不断完善免费、可访问并适应不断变化的技术环境的工具。

合作政策论坛: 专门的大会,类似于通常与国际条约相关的缔约国会议,可以作为一个论坛,就禁止或限制人工智能技术及其在对国际稳定与安全构成潜在后果的不良风险情况下的应用达成协议。即使在没有正式条约的情况下,这种聚会也能加强技术和人工智能治理。在人工智能模型及其下游应用可能与既定规范框架、军备控制文书以及与政治、社会和人权有关的原则相冲突的情况下,这将证明特别有价值。

申报门户网站: 从军备控制和不扩散制度中汲取灵感,建立一个 "申报门户",要求国家和企业行为者披露其人工智能的发展、方法和部署情况,这将鼓励透明度和遵守全球商定的规范和标准,促进国际技术合作和知识交流,并作为一项建立信任措施。

全球认证: 制定全球认证计划,旨在将普遍认同的道德原则(包括解决紧张点和权衡问题)纳入人工智能流程。理想情况下,这些认证计划应与可靠的专业技术组织合作开展,利用他们在制定此类计划方面所展示的专业知识,确保认证过程超越理论概念,并提供切实可行的解决方案,以解决政治、社会、环境和人权等现有规范性文书中明确规定的伦理问题。

***

全球技术和人工智能治理框架必须既灵活又敏捷。积极促进对话和建立信任措施可以使全球框架的实施更加可靠,并有助于对相关问题做出迅速反应。因此,要管理一项迅速发展的技术,就需要采取全面和联合的方法,涵盖每项技术从诞生到淘汰的整个过程。

虽然企业的意见对制定任何与技术相关的框架都很有价值,但保持开源、社区驱动和独立的方法对提高透明度至关重要。任何框架都应明确界定责任,说明正在开发什么、由谁开发、在谁的指导下开发、采用什么标准开发以及预期目的是什么。这样做既能促使公司展示其对透明、安全和负责任的人工智能部署的承诺,又能促进更广泛的利益相关者合作。

在驾驭不同的监管环境、缓解地缘政治紧张局势以及平衡各种企业利益方面,仍有许多问题尚未解决。例如,如何实施和监督拟议的机制?如何保障政治自主性、企业独立性、技术完整性以及影响这些技术开发和使用的个人、机构和中间件实体的可靠性?当出现政治和技术分歧时,由谁来解决?例如,国际法院是否可以发挥作用,根据国际法解决法律纠纷,并就具有跨国影响的人工智能相关问题提供指导?或者,是否有必要建立一个单独的司法解决机构,以处理具有全球影响的有害使用的潜在索赔?

如果我们能找到这些问题和其他问题的答案(这些问题无疑会随着我们使用这些技术的发展而出现),那么一个全球公认的人工智能治理框架就可以成为治理未来科技进步的垫脚石,并延伸到人工智能以外的领域。

关于本提案

本提案建立在Carnegie Council 国际事务伦理中心(CCEIA)的人工智能与平等倡议(AIEI)和电气与电子工程师学会标准协会(IEEE SA)的合作基础之上。本提案得益于人工智能与治理领域众多杰出人士的专业知识和经验,并以这些专业知识和经验为基础。

AIEI 成立于 2020 年,是一个充满活力、以结果为导向的实践社区,致力于审查人工智能对社会平等的影响。它以促进人工智能进步中的伦理融合和赋权为坚定目标,倡导开发和部署公正、包容并牢牢植根于务实和负责任原则的人工智能技术。这项充满活力的倡议汇集了一个具有全球代表性的咨询委员会,其成员来自各大洲的 20 多个国家。这些顾问都是各自领域的杰出人士,他们来自学术界、政府机构、跨国机构、非政府组织和商界,将技术见解与地缘政治专业知识融为一体。

注释:

人工智能国际治理框架提出了五个共生组成部分:

(1.) 一个中立的技术组织,负责不断评估哪些法律框架、最佳实践和标准在全球范围内获得了最高程度的认可。

(2) 具有有限执法权的规范治理能力,以促进遵守以道德和负责任的方式使用人工智能及相关技术的全球标准。

(3) 为组织评估和认证是否符合标准提供了一个工具箱。

(4) 不断开发支持人工智能治理的技术工具,这些工具可协助提供与决策相关的数据,验证和审计现有系统,并在必要时降低风险。

(5)建立全球人工智能观察站(GAIO),弥合科学家与决策者之间的理解差距,并履行 下文界定的其他机构尚未履行的职能。


其他资源:

人工智能红队/黑客未来:重新定义 Red Teaming,2023 年 7 月

计算机机械协会关于生成式人工智能的声明,2023 年 9 月

Credo.ai:黑客思维:DEF CON 31 为人工智能带来的 4 点启示,2023 年 8 月

电气和电子工程师学会关于生成式人工智能的声明,2023 年 6 月

您可能还喜欢

2024 年 7 月 31 日 - 播客

负责任的人工智能与大型模型的伦理权衡,与 Sara Hooker 合著

在本期节目中,高级研究员安雅-卡斯珀森(Anja Kaspersen)与 Cohere for AI 的萨拉-胡克(Sara Hooker)讨论了模型设计、模型偏差和数据表示等问题。

2024 年 7 月 24 日 - 播客

人工智能与战争:军备控制与威慑的新时代》,与保罗-沙尔合著

高级研究员安雅-卡斯珀森(Anja Kaspersen)与新美国安全中心(Center for a New American Security)的保罗-沙雷(Paul Scharre)就技术与战争交叉领域的新问题进行了对话。

2024年7月2 日• 播客

控制论、数字监控和工会在技术治理中的作用,与Elisabet Haugsbø合著

高级研究员 Anja Kaspersen 与技术联盟 Tekna 主席 Elisabet Haugsbø 就她的工程之旅、AI 时代的弹性等进行了交谈。