安雅-卡斯珀森(Anja Kaspersen)和温德尔-瓦拉赫(Wendell Wallach)在最近的文章中有力地论证了对人工智能和技术治理进行系统性重置的问题,呼吁人工智能伦理不仅要优先考虑透明度和问责制,还要维护基本价值观和人类尊严。
重置应该是什么样的?许多人都在努力解决这个问题。现在有许多套人工智能治理原则,越来越多的人工智能应用审计流程,以及新出现的立法和技术标准。但是,在这些纷繁的承诺中,公司目前很难确定自己应该做什么,政府也很难知道如何监管,而个人则很难知道应该期待什么样的标准,以及如果出了问题,他们可以采取什么样的补救措施。
目前,伦理对话还没有一个明确的基准。每当一项重大创新进入大众市场,无论是 Metaverse 还是 ChatGPT 等大型语言模型,我们都会回到对话的起点。关于 ChatGPT,大多数潜在的伦理问题甚至还没有被发现,更不用说解决了。与此同时,技术和企业利润却在飞速发展和增长。
我们需要基本的管理原则,以确保正如卡斯珀森和瓦拉赫所说的那样,技术的使用是为了共同利益,而不是为了少数人的利益。这些原则必须具有普遍适用性,并能适应未来的各种技术创新。
人权的作用
这些原则已经存在:人权。人权是伦理原则的结晶,是过去 70 年来已经制定和实施的准则。它们已经将广泛的伦理观点提炼为具体的法律原则。人权可以在网络世界中保护基本价值观和人的尊严,就像在离线环境中一样。政府和公司与其努力发明新的标准,不如将现有的人权标准和程序作为人工智能治理的起点。人权是基本价值观和人类尊严的现有法律框架,可以在此基础上添加针对具体情况的保护措施。
公平问题就是一个例子。人工智能伦理学家经常辩论 "公平 "在人工智能治理中的含义:在什么情况下意味着对同类案件一视同仁,在什么情况下可能意味着区别对待。人们在讨论这个问题时,往往把它当作一个新问题,既不考虑人权法中关于公平的讨论,也不考虑法院在具体案件中是如何解释公平的。人工智能伦理学家难以正确理解公平性的一个原因是,他们往往没有认识到根据具体情况来处理公平性问题,而这正是司法决策的一个特点。
将人权置于人工智能治理的核心有几个优势。首先,人权已被国际社会广泛接受。世界人权宣言》(UDHR)家喻户晓。世界上的每一个国家不仅是至少部分联合国人权条约的缔约国,而且定期出席联合国人权理事会和人权监督机构的会议,为其人权记录辩护。人权已经成为一种世界语言和道德准则框架,是经过多年谈判才达成的。在全球范围内就新准则达成一致意见的可能性很小的时候,国际社会对人权的接受就显得尤为重要。
第二,人权相对明确:过去 70 年来,人权工作者一直在探讨和解决诸如 "公平" 和 "平等 "的含义等问题。第三,人权并不极端:相反,人权提供了一种方法,利用法院和政府所熟悉的必要性和相称性检验标准,平衡任何特定情况下的权利和利益。它们还为不同国家和不同情况下的不同解释提供了空间,但须遵守总体参数。这并不是说它们是完美无缺的:它们需要适应人工智能,就像多年来它们适应其他发展一样。
打破神话
那么,为什么人权还没有成为人工智能治理的核心呢?各种神话阻碍了它们的发展,例如:
- 神话:人权阻碍创新。现实:人权不会阻碍创新,但人权要求遵守最低标准,并在国内和国际上为创新者创造公平的竞争环境。
- 神话:人权是复杂的。现实:人权并不比其他规则体系复杂,问题只是人权没有被广泛传授或理解。
- 神话:人权与政府有关。现实:公司也有人权责任,2011 年各国政府在联合国一致同意,并得到企业和公民社会的广泛认可。
- 神话:人权是激进或模糊的。现实:人权为每个成年人和儿童提供具体保护,使他们在任何地方都能每天免受伤害和歧视,而不仅仅是媒体经常讨论的极端情况下的保护。
- 误解:人权在海外,主要涉及武装冲突和人道主义紧急情况等危机局势中的人们。现实:人权(也称公民自由)为世界各国的基本价值观和人类尊严提供法律保护。
人权常常被误解为极端的反应。举个例子,人们通常认为人权意味着不应该使用面部识别技术。事实并非如此:相反,人权法要求,任何侵犯被采集者隐私的行为都必须符合法律规定,必须是出于公共安全或预防混乱或犯罪等合法目的,并且与该合法目的相称。简而言之,这意味着不允许通过面部识别使警察或其他人收集大量有关人们行动的数据;但可以允许通过面部识别谨慎地避免或尽量减少这种数据收集,同时对公共安全和治安产生积极的影响。这不是一种激进的做法,而是一种明智的做法。
在世界某些地区,人权背上了政治包袱:政府和媒体把人权说成是对合理政策的阻挠,而不是在可能遭到滥用的情况下保障每个人的自由。它们还常常被误解,被视为宣扬绝对主义或极端主义立场,而非细致入微的立场。例如,在包括英国在内的一些欧洲国家,部分媒体批评人权限制了政府驱逐寻求庇护者的能力。但是,我们不应该因为一些有争议的话题而忽视人权对每个人、每一天的价值:在促进平等和公平方面,在将儿童置于与他们有关的决策的核心方面,在提高残疾人标准方面,在制定警察和监狱待遇标准方面,在支持卫生和教育政策方面,等等。
订阅卡内基伦理通讯,了解有关人工智能与人权的更多信息
提高人权意识
一个主要的实际问题是,在世界许多地方,除了捍卫人权的律师和活动家之外,人们对人权的理解并不广泛。特别是,计算机科学家和程序员往往不了解人权。这种情况需要改变:大学应开展更多跨学科的人权教育,为技术人员和企业高管提供更多人权培训,政府应具备更多人权专业知识。董事会和立法机构中关于人工智能治理的对话需要包括民间社会,而不是让他们在一旁单独对话。人权需要成为主流对话的一部分,而不仅仅是法律专家的话题。
总之,2023 年人工智能治理面临的挑战不仅是接受伦理,而且要把人权作为人工智能伦理和监管对话的起点。开发和使用人工智能的公司应引入更多的人权专业知识,投资者应通过环境、社会和治理框架来衡量这一点。各国政府在制定人工智能法规和政策时应借鉴人权。国际组织应强调人权在人工智能治理中的作用。
这样做将是一条捷径,可确保人工智能确实维护基本价值观和人类尊严,并确实为共同利益而利用,不仅在少数国家,而且在全球范围内。
凯特-琼斯是查塔姆研究所的助理研究员,也是最近发布的查塔姆研究所研究论文《人工智能治理与人权》的作者: 重置关系》,伦敦:英国皇家国际事务研究所,2023 年。
Carnegie Council 国际事务伦理委员会是一个独立的、无党派的非营利组织。本文所表达的观点仅代表作者本人,并不一定反映Carnegie Council 的立场。