2023 年 7 月 6 日 - 文章

建立全球人工智能观察站(GAIO)的理由,2023 年

以下 GAIO 建议的作者是:伦敦大学洛杉矶分校 Geoff Mulgan 爵士教授、麻省理工学院 Thomas Malone 教授、牛津大学集体智能项目 Divya Siddharth 和 Saffron Huang、元治理项目执行主任 Joshua Tan、合作人工智能 Lewis Hammond。

在此,我们提出了一个貌似可行的补充步骤,作为未来对人工智能进行更严肃监管的必要条件,全世界现在就可以达成一致(该提议借鉴了与伦敦大学洛杉矶分校、麻省理工学院、牛津大学、集体智能项目、Metagov 和人工智能合作基金会的同事合作的成果以及之前的提议)。

全球人工智能观察站(GAIO)将提供必要的事实和分析,为决策提供支持。它将综合支持多种治理对策所需的科学和证据,并回答一个以数据为基础的领域所存在的巨大悖论,即人们对人工智能领域正在发生的事情以及未来可能发生的事情知之甚少。目前还没有机构为世界提供建议,对风险和机遇进行评估和分析,许多最重要的工作都被刻意保密。GAIO 将填补这一空白。

政府间气候变化专门委员会 (IPCC)已经为世界树立了一个榜样。IPCC 于 1988 年由联合国与来自世界各地的成员国共同成立,为各国政府提供可用于制定气候政策的科学信息。

一个可比的人工智能机构将提供可靠的数据、模型和解释基础,以指导有关人工智能的政策和更广泛的决策。在某些方面,全球人工智能组织必须与政府间气候变化专门委员会(IPCC)有很大的不同,必须以更快的速度和更反复的方式开展工作。但理想的情况是,它能像 IPCC 一样,与政府密切合作,为政府提供制定法律法规所需的指导。

目前,许多机构都在收集有价值的人工智能相关指标。国家跟踪其境内的发展情况;私营企业收集相关行业数据;经合组织人工智能政策观察站等组织则关注国家人工智能政策和趋势。此外,还有人尝试绘制更先进的人工智能治理方案,比如governance.ai提供方案。虽然这些举措是一个重要的开端,但科学家如何思考这些问题与公众、政府和政治家如何思考这些问题之间仍然存在鸿沟。此外,有关人工智能的许多问题仍然不透明,而且往往是故意为之。然而,政府不可能对不了解的东西进行合理的监管。

性别平等与信息组织可以通过六个主要活动领域帮助填补这一空白:

  • 首先是建立一个全球标准化事件报告数据库,集中处理人工智能系统与现实世界之间的重要互动。例如,在生物风险领域,人工智能可以帮助制造危险的病原体,一个记录与此类风险相关事件的结构化框架可以帮助减轻威胁。中央数据库将记录涉及人工智能应用的具体事件的基本细节及其在不同环境中的后果--审查系统的目的、用例以及有关培训和评估过程的元数据等因素。标准化的事件报告可以实现跨境协调,降低可能出现的人工智能军备竞赛中沟通不畅的几率并减轻其潜在影响--其后果不亚于核武器军备竞赛。
  • 其次,GAIO 将建立一个重要人工智能系统登记册,重点关注具有最大社会和经济影响的人工智能应用,以受影响人数、互动人时及其影响的利害关系来衡量,以跟踪其潜在后果。理想情况下,它还将制定提供模型访问权限的规则,以便进行审查。新加坡已经有了一个登记处,英国政府也在考虑在国内建立类似的登记处:但类似的方法在某种程度上需要成为全球性的。
  • 第三,GAIO 将汇集关于人工智能关键事实的共享数据和分析;支出、地理、关键领域、用途、应用(这些有许多来源,但它们仍然没有以易于获取的形式汇集在一起,许多关于投资的信息仍然非常不透明)。
  • 第四,GAIO 将通过涵盖劳动力市场、教育、媒体和医疗保健等主题的工作组,汇集有关人工智能对关键领域影响的全球知识。这些工作组将协调数据的收集、解释和预测工作,例如法律硕士对工作和技能的潜在影响。GAIO 还将包括人工智能正面和负面影响的衡量标准,例如人工智能产品创造的经济价值,以及人工智能社交媒体对心理健康和政治两极化的影响。
  • 第五,性别问题信息和联网倡议可以为各国政府提供规章和政策方面的选择,并可 能提供立法援助(借鉴共同发展促进新闻部和原子能机构的经验教训),提供可适应不 同情况的示范法律和规则。
  • 最后,GAIO 将通过一份关于人工智能现状的年度报告,分析关键问题、出现的模式以及各国政府和国际组织需要考虑的选择,从而协调全球辩论。这将涉及一个滚动式的预测和情景方案,主要集中在未来两三年内可能投入使用的技术上,并可借鉴现有的工作,如斯坦福大学编制的人工智能指数

全球环境信息组织还需要创新。如前所述,它需要比政府间气候变化专门委员会(IPCC)更快地采取行动,对新的发展进行快速评估。最重要的是,它可以使用集体情报方法,汇集成千上万科学家和公民的意见,这对于跟踪快速发展的复杂领域的新兴能力至关重要。此外,它还可以采用类似于美国政府对员工举报有害或非法行为的慷慨奖励的举报方法。

要想取得成功,全球环境与可持续发展信息组织需要有与政府间气候变化专门委员 会相当的合法性。这一点可以通过其成员(包括政府、科学机构和大学等)来实现,也可以通过确保将重点放在事实和分析上,而不是处方上(处方将由政府掌握)来实现。理想的情况是,它与在这一领域发挥明确作用的其他机构--国际电信联盟(ITU)、国际电气和电子工程师学会(IEEE)、联合国教科文组织(UNESCO)和国际科学理事会(International Science Council)--建立正式联系。它的目标应该是与已经在这一领域开展出色工作的其他机构,从经合发组织到学术中 心,进行尽可能密切的合作。

与政府间气候变化专门委员会一样,将在成员组织提名的基础上遴选参与该委员会工作的人员,以确保专业知识的深度、学科的多样性和全球代表性,同时最大限度地提高透明度,以最大限度地减少实际存在的和被认为存在的利益冲突。

人工智能界和使用人工智能的企业往往对政府的参与心存疑虑,常常认为政府的参与只会带来限制。但是,自我管理的时代已经过去了。这里提出的是一个部分为政府服务的组织,但主要工作由科学家完成,借鉴了许多其他技术的成功管理经验,从人类受精和克隆到生物和核武器。

近年来,联合国系统一直在努力应对数字技术日益增长的影响力。联合国系统设立了许多委员会和小组,这些委员会和小组往往冠以高大上的头衔,但通常收效甚微。现在最大的风险是,会有多种互不关联的努力,但都没有取得足够的影响力。媒体和政界人士很容易被狂妄的生存风险声明所干扰,很少有人有信心挑战大型企业,尤其是当他们面临本国公民被剥夺开放式人工智能或谷歌带来的好处的威胁时。

因此,使一个新机构合法化并非易事。该组织需要说服来自美国、中国、英国、欧盟和印度等国的主要参与者,让他们相信它将填补一个重要的空白,还需要说服主要企业,让他们相信如果不汇集全球知识和评估,他们控制议程的企图不可能长久。成立该组织的根本原因在于,没有一个国家能从失控的人工智能中获益,正如没有一个国家能从失控的病原体中获益一样。

各国的反应必然各不相同。例如,中国最近提议禁止 "任何内容颠覆国家政权、鼓吹推翻社会主义制度、煽动分裂国家或破坏民族团结 "的法律硕士。相比之下,美国可能希望获得最大限度的自由。

但是,共享知识和分析是各国能够决定自身优先事项的必要条件。无人管理的人工智能威胁着我们思考、行动和发展所需的基础设施和信息空间。以智能的方式汇集知识,是更好地利用人工智能的好处并避免其危险的重要起点。

Carnegie Council 国际事务伦理委员会是一个独立的、无党派的非营利组织。本文所表达的观点仅代表作者本人,并不一定反映Carnegie Council 的立场。

您可能还喜欢

2023 年 7 月 5 日 - 文章

人工智能国际治理框架

Carnegie Council与电气和电子工程师学会(IEEE)合作,提出了一个由五个部分组成的人工智能治理框架,以促进人工智能的建设性使用。

2023 年 7 月 7 日 - 文章

实现人工智能治理的国际框架

高级研究员温德尔-瓦拉赫(Wendell Wallach)和安雅-卡斯珀森(Anja Kaspersen)主张建立一个强有力的人工智能国际治理框架。

2023 年 1 月 24 日 - 文章

现在是对人工智能和技术治理进行系统重置的时刻了

我们怎样才能确保目前正在开发的技术被用于造福大众,而不是少数人的利益?...