映射人工智能与平等,第 2 部分:定义人工智能与平等

2022 年 1 月 27 日

在绘制人工智能与平等的图谱时,我们可以对人工智能进行大致的分类,这些分类可以突出显示人工智能如何影响人与人之间的关系,以及人与我们共同的环境之间的关系。本系列博文旨在为进一步思考和反思提供素材。

人工智能是一个有争议的术语。一般来说,它指的是用机器模拟人类的认知能力(离散的智能形式)。然而,对于哪些能力才是真正的智能表现形式,一直存在分歧。   

计算机用于执行任务的过程或规则集被称为算法。

许多过程(算法)需要机械或纯数学步骤,而其他过程则需要高阶心智能力,如学习或规划能力。但在短暂的计算机发展史上,计算机执行的一些本质上属于机械性的任务却被贴上了人工智能的标签。例如,在大型数据库或互联网上搜索单词或短语的任务有时就被称为人工智能,尽管人们普遍认为这在很大程度上是一种机械活动,并不需要计算机具备特殊的智能。按照这种用法,人工智能应用已经存在了几十年。  

然而,许多人工智能纯粹主义者,如该主题主要教科书的合著者斯图尔特-拉塞尔,希望将人工智能一词保留给高阶认知能力(拉塞尔、斯图尔特,2019,《人类兼容》,通用),如学习、规划、解决问题和准确理解人类语言。在一些人工智能定义中,自主决策能力(很少或没有人类直接参与)也被视为一个基本特征。例如,欧盟委员会于 2018 年 6 月成立的人工智能高级别小组将自主决策作为其人工智能系统定义的一个要素,并将其定义为 "由人类设计的机器,在给定一个复杂目标的情况下,在物理或数字维度上采取行动......采取最佳行动实现给定目标"(人工智能独立高级别专家组,2019 年)。   

人工智能研究历史的特点是,每当一种令人兴奋的新方法产生之后,就会出现人工智能的寒冬,因为这种方法未能带来预期的突破。然而,深度学习算法的出现,再加上有足够能力执行这些算法的先进硬件,正在产生重大而持续的突破,为人工智能研究领域奠定了坚实的基础。人工智能的发展并不是线性的,它对人类生存条件的变革性影响仍在文化差异的范围内发挥着作用,而这些文化差异是无法用简单的或统计的模型来准确捕捉的。  

深度学习系统通过多层处理来分析大型信息数据库。深度学习算法通过对数据库进行排序,搜索和推断可能无法发现的突出关系,从而为解决以往难以解决的问题提供了新方法,并提高了效率和生产力。这对于挖掘海量研究数据(如任何复杂的医疗状况数据),揭示值得进行实验研究的相关性来说,无疑是一大福音。   

深度学习是机器学习的一个子集。如前所述,计算机的一般学习能力甚至远不及幼儿。尽管如此,计算机的学习技术与其他计算机流程相结合,在各种任务中的表现已经超过了人类专家。例如,研究人员在解决复杂蛋白质的三维结构,即所谓的蛋白质折叠问题时,就曾陷入困境。2020 年 11 月,DeepMind(Aphabet/谷歌的一个部门)发布了AlphaFold,这是一款人工智能应用,成功描述了许多蛋白质的结构。2020年7月,伴随着365,000多种蛋白质结构模型的开放,AlphaFold蛋白质结构数据库问世(《自然》 2020年7月22日)。 

关于哪些过程真正值得被贴上智能的标签,哪些过程看似像人类,但本质上是机械的,目前存在着丰富的争论。反过来,这场争论也为更广泛的对话提供了信息,即哪些能力可能被计算机化,哪些能力可能(或应该)保持人类特有的能力。后一种对话在很大程度上超出了本文的讨论范围,但讨论的框架有时会贬低人类的能力,与现有或未来的计算系统相比,人类的尊严也会受到贬损。换句话说,在某些方面,人已经或将要被认为与机器不平等。   

在计算机化系统中,不同的人工智能元素可能只包括一两个功能,但在更复杂的应用中,以及在复杂的自适应系统中,如金融市场或衍生品市场,人与计算机系统之间会产生互动。  

对于Carnegie Council的 "人工智能与平等倡议",我们并不总是区分系统中那些具有人工智能的元素、那些不值得贴上人工智能标签的算法以及那些由人执行的任务。例如,在当代平等与不平等问题中发挥关键作用的数字经济就由上述三者组成。然而,在数字经济的整体增长、效率、稳定性和安全性方面,人工智能元素正变得越来越重要。在描绘计算机化任务对数字经济的影响时,我们有时会提及 "算法和人工智能系统",以此来细化并绕过关于哪些是人工智能哪些不是的费力讨论。 

算法和人工智能程序对平等问题的影响,有些是程序本身所固有的,有些则来自训练算法的数据库及其分析的数据库,最后还有人类选择使用的工具和技术。在绘制人工智能影响平等问题的方式时,我们试图将算法的影响与数据库的内在特征或人们选择的工具区分开来,以服务于不同的机构或个人目标。   

正如智力有多种形式,从高等数学技能到爵士乐即兴创作天才,不平等也有多种形式,从经济不平等到机会不平等,再到与给予他人的优惠待遇相比不公平或不公正的待遇。平等并不是所有方面的理想或目标。每个人生来就有不同的倾向,磨练不同的技能。人们可以获得或创造不同的经济资源,一般来说,这种情况即使不总是被接受,也是被容忍的。我们关注的是,人工智能或数字经济(人工智能已成为数字经济的主要驱动力)影响一系列平等或不平等问题的各种方式,这些方式往往很少受到科学审查或有意义的公共讨论。  

考虑到机会均等的目标,创造公平的竞争环境,使种族、性别或其他文化因素不会影响受教育、就业或住房的机会。越来越多的人无法使用计算机和互联网,这本身就会使个人和社区处于不利地位。虽然提供上网机会和数字扫盲已成为教科文组织以及各个国家和城市与贫困作斗争的核心目标,但这并不明确是人工智能发挥重要作用的一种不平等形式。

Anja Kaspersen 是Carnegie Council of Ethics in International Affairs 的高级研究员。她曾任日内瓦联合国裁军事务厅主任和裁军谈判会议副秘书长。此前,她曾担任红十字国际委员会(ICRC)战略参与和新技术负责人。

温德尔-瓦拉赫是耶鲁大学跨学科生物伦理学中心的顾问、伦理学家和学者。他还是林肯应用伦理学中心(Lincoln Center for Applied Ethics)的学者、伦理学与新兴技术研究所(Institute for Ethics & Emerging Technology)的研究员以及黑斯廷斯中心(The Hastings Center)的高级顾问。

您可能还喜欢

2024 年 4 月 30 日 - 播客

乔安娜-布赖森:人工智能只是一种人工制品吗?

在本期节目中,主持人安雅-卡斯珀森(Anja Kaspersen)将与赫蒂学院的乔安娜-布赖森(Joanna Bryson)一起讨论计算科学、认知科学、行为科学和人工智能的交叉学科。

危险大师》一书封面。CREDIT: Sentient Publications.

2024 年 4 月 18 日 - 文章

危险的主人欢迎来到新兴技术世界

在这篇为《危险的主人》一书平装本所写的序言中,温德尔-瓦拉赫讨论了人工智能和新兴技术的突破和伦理问题。

2024 年 3 月 22 日 - 播客

人工智能管理的两个核心问题,与 Elizabeth Seger 合著

在本期 "人工智能与平等 "播客中,卡内基-上广研究员温德尔-瓦拉赫(Wendell Wallach)和 Demos 的伊丽莎白-西格(Elizabeth Seger)讨论了如何让生成式人工智能变得安全和民主。