谁来决定允许就人工智能进行哪些对话?

2022 年 8 月 18 日

大卫-波斯特写了一本名为 寻找杰斐逊的麋鹿:网络空间现状笔记一书中,他提出了一个问题:谁决定谁?他以托马斯-杰斐逊和他如何使用数据的历史视角,对互联网提出了这个问题。波斯特认为,关键人物不是决策者本身,而是那些决定谁能决定谁掌握最终权力的人。肖莎娜-祖博夫(Shoshana Zuboff)是《监控资本主义时代》(The Age of Surveillance Capitalism)一书的作者。 监视资本主义时代的作者肖莎娜-祖博夫(Shoshana Zuboff)也用这一视角探讨了信息时代的权力,她提出(并回答)了 "谁知道?(监控资本主义公司);谁决定?(市场);以及谁决定谁?(监控资本家)。

在开发、使用和购买人工智能系统的过程中,重要的是要问清楚谁掌握着权力,我们正在进行和没有进行哪些对话,以及谁在引导这些对话。谁在决定谁是决策者?在这些对话中,真正的权力在哪里?谁在运作和资助那些引发关注的事件?

正如梅雷迪思-惠特克在她的文章"俘获的高昂代价通过主导学术界以及由国际组织或政府发起的、为人工智能研究重点提供建议的各种专家小组,大型科技公司在很大程度上决定了人工智能研究的内容和方向。在这种文化氛围中,那些反对主流观点的人可能会面临被资助或关闭的风险。2019年 惠特克共同撰写了一篇尖锐的 论文就整个人工智能生态系统面临的多样性危机共同撰写了一篇尖锐的论文,将该领域的现状描述为 "令人震惊"。惠特克及其来自纽约大学 AI Now 研究所的合著者提出,"人工智能行业需要承认其多样性问题的严重性,并承认现有方法未能应对权力分配不均的问题,以及人工智能可能强化这种不平等的手段"。

2021 年,Timnit Gebru、Margaret Mitchell、Emily M. Bender 和 Angelina McMillan-Major 这几位在各自领域都享有盛誉的学者发表了一篇学术文章质疑大型数据集的使用这篇文章对使用大型数据集提出了质疑,原因有很多,包括它们对环境的影响,以及创建模型操纵语言所隐藏的偏见和机会成本。文章中分享的见解后来成为人工智能领域工作的基石。

但就在这篇文章发表之前,合著者之一格布鲁突然被解雇了、 突然被解雇因为她参与了这项工作,并提出了谷歌在从人工智能训练数据中删除偏见和仇恨语言方面做得不够的担忧。用格布鲁的话说"当你开始为代表性不足的人代言时,你的生活就开始变得糟糕。你开始让其他领导者感到不安"。

"杜克大学人工智能和机器人学前教授、呼吁加强对自动驾驶技术和车辆监管的权威人士玛丽-卡明斯(Mary "Missy" Cummings)说:"站出来说真话需要勇气。卡明斯还对深度学习的局限性和当前人工智能系统的成熟度提出了严厉批评,并直言不讳地指出了因此而在网上受到嘲弄的风险。"对我来说,能够对权力说真话是一种奢侈。不是每个人都有这样的奢侈"。

那些表达担忧的人有可能被边缘化,被视为反创新、反增长和反未来的人。班德是上述论文的另一位合著者,她强烈反对 "人工智能炒作和过度关注稻草人问题",并公开分享了她是如何经常被误引的 被错误引用或她的观点被 打折扣.人工智能研究者和评论家阿贝巴-比尔哈内(Abeba Birhane)也曾 警告说人工智能研究员兼评论家 Abeba Birhane 也警告说,不要相信容易被媒体炒作的单一叙事,这种叙事 "缺乏批判性评估技术的能力。缺乏批判性评估技术的能力"在将技术引入或嵌入我们的日常生活之前,缺乏对技术进行批判性评估的能力。

当思想、伦理考虑和改变生活的影响不被公开讨论或不鼓励批判性讨论时,技术就无法在部署之前甚至之后受到质疑或改变。一些人认为,那些在当前社会安排中拥有最大利益的人正在精心设计并确保社会对复杂算法技术的缺陷--如今已嵌入我们的日常生活并根深蒂固--及其造成严重危害的可能性保持沉默。这些技术加剧了不平等,巩固了权力结构,可能危害环境,削弱人的能动性,破坏政治稳定,并从根本上改变全球世界秩序。

其结果就是吉莉安-泰特所说的 "社会沉默",这一观点借用了社会学家皮埃尔-布尔迪厄的观点。泰特 作为《 金融时报》的一名记者,她是少数几个对金融工具相关风险发出警告的人之一,这些金融工具最终导致了金融危机的爆发。她写道:"内部人士并没有公开讨论这些风险。 她写道而像她这样的局外人却很难收集到足够的信息来 "连点成线"。

特特 添加:"可以肯定的是,到 2006 年,一些银行家个人对正在发生的事情感到非常不安(他们经常就此给我的团队写匿名邮件)"。我们发现,这与当前人工智能领域的讨论状况有着明显的相似之处。许多私下向我们表达不安的内部人士不会公开表达,因为他们担心说出来会导致被压制、排挤或解雇。

数据经常被比作石油。也许这种比较最贴切的部分是相关企业利益的沟通方式之间的相似之处。几十年来,石油公司都没有诚实地谈论石油开采对人类和环境造成的负面影响。

与其把人工智能比作石油,不如比作塑料。微塑料在 20 世纪 50 年代曾备受推崇,但现在,微塑料在海洋和食物链中造成了广泛的、不可逆转的危害。正如我们从微塑料的长期影响和对地球造成的不可逆转的危害中看到的那样,我们没有几十年的时间来做好人工智能。 持续和长期的危害在算法被裁减、退休或移除之后的很长一段时间里,现实世界中都可能出现持续和长期的危害。

人工智能伦理是一个不断发展的领域,拥有大量文献和专业知识。但迄今为止,层出不穷的政策影响甚微,往往缺乏实质性分析实施策略。伦理领域的领军人物往往被忽视,或者在叙述性事件中听不到他们的声音。道德机器 道德机器一书的合著者、Carnegie Council"人工智能与平等计划 "的联合主任温德尔-瓦拉奇最近指出:"我意识到,在一些重要活动中,我被有意地排除在外,因为我无法将自己对做出道德选择的观点 需要."

此外,就像医生和律师需要获得执照并遵守行为准则一样,我们也需要要求在这一领域工作的计算机科学家和工程师遵守最佳实践标准。计算机科学和人工智能的发展不再仅仅是理论数学的抽象概念,与日常生活几乎没有关系。它已成为生活的一个决定性特征,对以下方面产生了深刻而深远的影响 人类的意义以及如何保护人类环境产生深远影响。

在基础物理学方面、 欧洲核研究组织通过培养透明文化和鼓励观点多样性,为开展可复制的核研究和科学创造了一个安全的环境。在人工智能领域,类似的方法将努力加强人类学和科学智慧,围绕解决具体问题所需的计算方法类型展开讨论。它将鼓励公开讨论在不同环境中部署不同模型的道德考量,因为这些模型将产生截然不同的安全、数据相关和下游后果,并鼓励发表不同意见,即使这可能会影响公司估值、政治野心以及何时不嵌入或部署此类系统的决策。

加里-马库斯(Gary Marcus)呼吁建立一个 "人工智能欧洲核子研究中心"(CERN for AI),以解决与当前人工智能基础模型迭代的可扩展性有关的问题,并确保人工智能成为一种公共产品,而不仅仅是少数特权阶层的财产。重启人工智能 重启人工智能:打造值得信赖的机器》一书的作者之一。的合著者,马库斯还 受到敌视马库斯也曾因公开提醒人们警惕人工智能系统的过度承诺陷阱而遭到敌视。他认为,不愿意就当前的局限性进行诚实、包容的科学讨论,不利于负责任地长期开发安全的人工智能应用。

这对社会的长期影响已经非常深远,而且广受关注,其对民主和平等的影响比金融领域的社会沉默所引发的全球危机更为深远。祖博夫提出的三个问题:谁知道、谁决定、谁决定谁,揭示了其中的权力结构。

为了确保在使用人工智能和算法技术时有适当的保障、平等或任何形式的公平,我们需要创造一种文化,让领导者和掌权者承担责任。不能只由精英来决定由谁决定。需要允许不同的声音参与到批判性的讨论中来,讨论什么在起作用、起作用的目的是什么、由谁起作用以及为谁起作用。

沉默--以及对沉默的恐惧--可能证明了权力结构或盲点。无论由谁来决定,沉默,无论是有意还是无意,都是我们始终需要挑战的。

Anja Kaspersen 是Carnegie Council for Ethics in International Affairs 的高级研究员,她是人工智能与平等倡议(AIEI)的联合负责人。

科比-莱恩斯博士是伦敦国王学院的客座高级研究员,也是澳大利亚标准局的专家,就即将出台的人工智能标准向国际标准组织提供技术建议。她还是 AIEI 顾问委员会成员,并著有《新战争技术与国际法》(剑桥大学出版社)。 新战争技术与国际法》 (剑桥大学出版社,2022 年)一书的作者。.

您可能还喜欢

危险大师》一书封面。CREDIT: Sentient Publications.

2024 年 4 月 18 日 - 文章

危险的主人欢迎来到新兴技术世界

在这篇为《危险的主人》一书平装本所写的序言中,温德尔-瓦拉赫讨论了人工智能和新兴技术的突破和伦理问题。

2024 年 3 月 22 日 - 播客

人工智能管理的两个核心问题,与 Elizabeth Seger 合著

在本期 "人工智能与平等 "播客中,卡内基-上广研究员温德尔-瓦拉赫(Wendell Wallach)和 Demos 的伊丽莎白-西格(Elizabeth Seger)讨论了如何让生成式人工智能变得安全和民主。

2024 年 2 月 23 日 - 文章

当我们谈论 "人工智能民主化 "时,我们指的是什么?

在多方呼吁 "人工智能民主化 "的背景下,Demos 的 CASM 数字政策研究中心主任 Elizabeth Seger 讨论了这个词的四种含义。