为什么我们在人工智能伦理方面失败了?

2021 年 11 月 10 日

最近的事态发展进一步提高了人工智能系统和应用伦理方面的风险。COVID-19 将更多的社会和经济活动转移到了数字世界,这大大加快了人工智能系统进入日常生活方方面面的速度。现在,领先的科技公司通过采购或外包计划,有效控制了许多公共服务和数字基础设施。例如,政府和医疗保健提供商在近距离跟踪、追踪和生物信息反应等应用中,以前所未有的规模部署了人工智能系统和算法技术,在生物数据流中引发了一个新的经济部门。

最令人担忧的是,最容易受到人工智能系统如此快速扩张所带来的负面影响的人群,往往最不可能参与到有关这些系统的讨论中来,因为他们没有数字访问权或访问权受限,或者他们缺乏数字素养,使他们成为被利用的对象。

这些弱势群体往往在理论上被纳入讨论,但却没有被赋予权力,无法在决策中发挥有意义的作用。这种人为制造的不平等,加上人类的偏见,有可能通过忽视、排斥、错误信息和虚假信息来放大他者的存在。

,社会应该深感忧虑的是,在制定和扩大可操作的法律、伦理监督,同时解决现有的不平等问题方面,还没有取得足够的实质性进展。

那么,为什么还没有做更多的工作呢?主要有三个问题:

首先,围绕人工智能伦理和治理的许多现有对话过于狭隘,未能理解人工智能系统的微妙之处和生命周期及其影响。

,这些努力往往只关注技术生命周期的开发和部署阶段,而许多问题发生在概念化、研究和设计的早期阶段。或者,它们无法理解人工智能系统何时以及是否达到了避免复杂适应系统失灵所需的成熟度。

或者,它们只关注伦理的某些方面,却忽视了更基本、更具挑战性的其他方面。这就是所谓的 "伦理 "问题。这就是所谓的 "伦理清洗 "问题--制造一种表面上让人放心,但实际上是虚幻的感觉,即伦理问题已得到充分解决,从而证明有理由继续推进最终会加深当前模式的系统。

让我们明确一点:每一种选择都需要权衡。"谈伦理 "往往是为了强调不同行动方案中的各种权衡。一旦选定了行动方案,全面的伦理监督也就是要解决所选方案无法顾及的考虑因素,这对今后的任何核查工作都至关重要。对于那些试图解决人工智能伦理问题的人来说,这一过程的重要部分往往是绊脚石。

第二个主要问题是,迄今为止,所有关于伦理的讨论都只是空谈。

我们尚未看到这些讨论转化为有意义的变革,以管理人工智能系统嵌入我们生活各方面的方式。

尽管人们试图让广泛的利益相关者参与进来,但规则仍然不明确或不存在,商业利益和地缘政治利益正在发生分歧,创新继续发生在狭小、隐秘和私人的空间,决策权集中在少数人手中,而不平等现象却以惊人的速度增长。

值得关注的主要领域包括人工智能系统实现监控的能力、社交媒体机器人对公共话语的污染以及算法偏见:在从医疗保健、就业到司法等各种敏感领域,各种行为者都在推出人工智能系统,这些系统在识别相关性方面可能很出色,但却不了解因果关系或后果。

过度夸大人工智能系统的能力是人工智能研究和机器学习中一个众所周知的问题。推断和记忆数据中的模式来解决非常具体的任务,这与理解它要解决的实际问题相去甚远。很多时候,负责嵌入和部署人工智能系统的人并不了解这些系统是如何工作的,也不了解这些系统可能会使现有的不平等现象永久化并产生新的不平等现象。

决策者通常也不太了解构建人工智能系统的内容、方法和原因所依据的科学方法和复杂性。他们往往采取一种近视的、技术解决主义的优化方法,将人工智能系统应用于全球、行业和社会挑战,被现有的而不是问题所需要的东西所蒙蔽。还有一些潜在的下游后果问题没有得到解决,如构建、训练和运行人工智能系统所需的资源环境的影响,互操作性以及安全可靠地中断人工智能系统的可行性。

第三个问题是,关于人工智能和伦理的讨论在很大程度上仍局限于象牙塔

围绕生物数字革命对社会的影响,迫切需要开展更多知情的公共讨论,并对公民教育进行认真投资。这有助于解决前两个问题,但目前公众对人工智能的认知大多来自科幻小说和大片。

少数算法偏见的例子已经渗透到公共讨论中。但是,关于人工智能和伦理的研究最吸引眼球的往往是远期的生存风险。

非技术人员错误地认为人工智能系统本质上是非政治性的,他们不理解结构性不平等会发生,尤其是当这些系统遇到其创建和训练背景之外的情况时。道德、平等和治理等概念可能被视为崇高而抽象。

在扩大公众讨论范围方面所面临的部分挑战是,目前仍没有商定的方法或共同的语言来讨论如何嵌入或应用人工智能系统,也没有商定的方法来评估、估计和核实人工智能系统对个人、社会或国际稳定的影响。语言植根于文化--只有通过与熟悉的事物类比才能理解新事物--当人工智能与以往任何事物都不同时,找到正确的隐喻或工具尤为困难。

那么,我们在促进负责任地使用人工智能系统和算法技术的过程中,有哪些地方没有做到位?我们需要如何扩大有关伦理和人工智能的讨论,并加快从原则到实践的转化,以提高准确性、可靠性和有效性?

说世界正处于历史的拐点已成为老生常谈。但是,作为密切参与人工智能和伦理讨论的人,我们知道这是真的,而且我们对我们正在经历的事情知之甚少,也不具备驾驭未来不确定性的智慧。

大规模的技术变革总是会带来深刻的社会、经济和政治变革,而如何以最佳方式应对以保护人们的福祉总是需要时间。这就是人工智能的变革潜力所在;然而,我们没有太多时间来做好它。此外,认为不称职和不成熟的人工智能系统一旦部署就可以补救,或假设存在解药,尤其是与网络安全兼容的解药,都是错误的、具有潜在危险的错觉。

我们必须努力在现有专业知识和网络的基础上,加快和扩大以伦理为重点的人工智能倡议,以加强人类学和科学情报,建立新的对话,赋予所有相关利益攸关方有意义的参与权,探索切实可行的参与方式,以确保透明度,赋予责任,并防止人工智能以可能造成严重社会危害的方式推动不平等。

Anja Kaspersen 和 Wendell Wallach 是Carnegie Council for Ethics in International Affairs 的高级研究员。他们与一个国际顾问委员会共同领导着卡内基人工智能与平等倡议(AIEI),该倡议旨在了解人工智能影响平等的无数方式,并针对这些方式提出潜在机制,以确保所有人都能从人工智能中获益。

您可能还喜欢

2022 年 5 月 13 日 - 文章

我们所知的伦理已不复存在。是时候重新认识伦理学了。

鉴于国际事务令人担忧的现状,我们有理由对道德规范的框架或共用方式表示极大的关注。为了迎接这一时刻,...

2022 年 5 月 3 日 - 文章

为什么民主与专制的比较没有意义

今天,全世界似乎都在专注于 "民主与专制 "的斗争,但如果这种意识形态的争论忽略了重点呢?哥伦比亚 ...

2022 年 4 月 26 日 - 播客

脑机接口的前景与危险》,主讲人:里卡多-查瓦里亚加(Ricardo Chavarriaga

在本期 "人工智能与平等 "播客中,高级研究员安雅-卡斯帕森(Anja Kaspersen)与里卡多-查瓦里亚加(Ricardo Chavarriaga)博士探讨了脑机接口和认知技术的前景与危险。