人工智能的伦理与公平:谁来制定规则

2021 年 12 月 23 日

在 2021 年 9 月欧洲核子研究中心火花论坛(Sparks!欧洲核子研究中心(CERN)的 "偶然性论坛"(Serendipity Forum)上,Carnegie Council"人工智能与平等倡议"(AIEI)高级研究员安雅-卡斯珀森(Anja Kaspersen)讨论了与人工智能和权力有关的问题。她问道,随着人类不断扩散和进化人工智能系统,在这个新世界中,谁拥有代理权和影响力?卡斯珀森说,有必要了解人类掌握着控制权,避免技术决定论的叙事,这种叙事本质上服务于利益合谋和脱离,而应更深入地思考人工智能系统为何以及如何可能延续不平等或创造新的不平等。

虽然人工智能(AI)系统显然为各个领域和环境提供了机遇,但从负责任的角度来看待其伦理和治理问题却尚未实现,而且迄今为止很少有倡议能在调节其影响方面产生任何真正的影响。

人工智能系统和算法技术的嵌入和扩展速度远远超过了目前支持它们的技术的成熟度,而现有的治理框架仍在不断发展。

为什么我们做得不够好?

请允许我与大家分享一些精选的思考,揭穿一些神话--当基于人工智能的系统的影响渗透到我们的生活中时,我还会给大家留下一些问题:

首先:关于人工智能的争论常常被说成这项技术将按照自己的轨迹发展。

情况并非如此

它是人类的全部。每一个新事物、每一个挑战、每一个偏见、每一个价值、每一个机遇。我们正处于一个拐点,但这是人类的拐点,在某种程度上也是政治的拐点,甚至是目的论的拐点,而不是技术的拐点。

第二:现有的许多对话过于狭隘,未能理解人工智能系统的微妙之处和生命周期 及其(有时功能有限)和影响。此外,决策者对人工智能系统如何构建的科学方法和复杂性知之甚少。无论是在建立基础模型时,还是在思考人工智能的未来应用时,我们都需要更好的科学和人类学智慧。

第三:辩论的焦点集中在伦理的某些方面,而忽视了更基本、更具挑战性的其他方面。例如:人工智能系统有可能使现有的不平等现象长期存在并制造新的不平等现象吗?人工智能系统有可能延续现有的不平等现象并制造新的不平等现象吗?

这就是所谓的 "伦理清洗 "问题--制造一种表面上令人欣慰、实则虚幻的感觉,即伦理问题正在得到充分解决,从而为推进最终会加深当前模式的系统提供理由。

第四:过度拟合、过度承诺、过度预言和交付不足的陷阱。在各种敏感系统中,从医疗到就业,从司法到国防,我们正在推出的人工智能系统可能在识别相关性方面很出色,但却不了解因果关系。这蕴含着巨大的风险,尤其是在部署到政治脆弱的环境中或部署到公共部门时。

第五:关于人工智能和伦理的讨论在很大程度上仍局限于象牙塔。围绕生物数字革命的社会影响,有必要在公民教育、数字扫盲、多元参与和跨学科研究方面进行更多知情的公共讨论和认真投资。

第六:公众目前对人工智能的认识大多来自科幻小说和大片。我们需要更好的方式来向公众宣传,除了未来人工智能的假想风险之外,我们嵌入人工智能系统的原因和方式也会带来真实而紧迫的限制,而这些系统目前正影响着每个人的日常生活--谁来决定呢?

第七:关于人工智能的公开讨论没有充分考虑到下游后果,而且往往侧重于近视的技术解决主义优化方法,而不是问题所需要的。我称之为人工智能仙尘问题。这包括如何减少资源密集型计算对环境的潜在影响、有关数据所有权的问题,以及我们如何培养人才、培养数字素养和人工智能流畅性,并创建共享空间和白话来分享见解。

尽管将人工智能系统安全地嵌入公共领域非常重要,但具体的棘手问题却很少进入公众讨论。这些问题包括对人工智能系统可中断性的担忧:我们如何才能真正在人工智能系统中设计和构建故障安全机制,以便在意外情况导致其造成伤害时,安全地中断或保护自己?在这个问题上似乎还没有定论,法规充其量也只是雏形。

互操作性是另一个未被重视的问题:从自动驾驶汽车到金融技术和国防应用,无论单个系统设计得多么完美,如果不能与其他系统顺利运行,都有可能产生意想不到的后果。

此外,大流行病的封锁将更多的社会和经济活动转移到数字世界,这也大大加快了人工智能系统进入日常生活方方面面的速度。现在,领先的技术公司通过采购或外包计划,有效控制了许多公共服务和数字基础设施。各国政府和医疗保健提供商以前所未有的规模部署了人工智能系统,用于近距离跟踪和追踪应用以及生物信息应对措施。这引发了一个围绕生物数据流组织的新经济部门。

另一个值得关注的问题是,最容易受到人工智能负面影响的人也最不可能参与讨论,因为他们没有数字接入,或者他们缺乏数字知识,很容易被利用。这些弱势群体往往在理论上被纳入讨论,但却没有能力有意义地参与决策。这种人为设计的不平等和人类偏见有可能通过忽视、排斥、误导和虚假信息扩大他者和他者化,造成严重后果。

也许更隐蔽的是关于技术影响的有意性与无意性的更广泛辩论(超越了关于双重用途的传统讨论)。这种争论的特点通常是,技术和人工智能在本质上是非政治的,或者无法完全预测其使用后的影响。有趣的是,这种观点在非技术人员中尤为突出,他们不理解每项技术创造都蕴含着价值观,而价值观反映了文化、政治、历史行为模式和经济现实。

我认为,现在应该回到绘图板上,解决如何将原则转化为实践的问题。为此,我们需要

  1. 解决我们的盲点。
  2. 扪心自问我们是否拥有正确的平台和领导这些平台的正确人选?我们是否赋予了人们有意义地参与这些平台的权力?
  3. 从欧洲核研究组织的经验中学习,合作可以为反应灵敏和负责任的科学技术提供非常有效的制衡。
  4. 明确我们正在考虑哪些方面的伦理问题,哪些被忽视了。
  5. 意识到我们正在将谁的规则、价值观和利益植入我们的技术。


Anja Kaspersen 是Carnegie Council of Ethics in International Affairs 的高级研究员。她曾任日内瓦联合国裁军事务厅主任和裁军谈判会议副秘书长。此前,她曾担任红十字国际委员会(ICRC)战略参与和新技术负责人。

您可能还喜欢

危险大师》一书封面。CREDIT: Sentient Publications.

2024 年 4 月 18 日 - 文章

危险的主人欢迎来到新兴技术世界

在这篇为《危险的主人》一书平装本所写的序言中,温德尔-瓦拉赫讨论了人工智能和新兴技术的突破和伦理问题。

2024 年 3 月 22 日 - 播客

人工智能管理的两个核心问题,与 Elizabeth Seger 合著

在本期 "人工智能与平等 "播客中,卡内基-上广研究员温德尔-瓦拉赫(Wendell Wallach)和 Demos 的伊丽莎白-西格(Elizabeth Seger)讨论了如何让生成式人工智能变得安全和民主。

2024 年 2 月 23 日 - 文章

当我们谈论 "人工智能民主化 "时,我们指的是什么?

在多方呼吁 "人工智能民主化 "的背景下,Demos 的 CASM 数字政策研究中心主任 Elizabeth Seger 讨论了这个词的四种含义。