映射人工智能与平等,第 3 部分:人工智能在改变人类生存条件方面的作用以及作为人类的意义

2022 年 2 月 3 日

在绘制人工智能与平等的图谱时,我们可以对人工智能进行大致的分类,这些分类可以突出显示人工智能如何影响人与人之间的关系,以及人与我们共同的环境之间的关系。本系列博文旨在为进一步思考和反思提供素材。

当前的人工智能讨论围绕着一个核心问题展开:是通过人工智能改善人类状况,还是人工智能会以破坏人类合作基本原则的方式改变人类状况?如果两者在某种程度上都是真实的,我们该如何权衡利弊,提高效益,并限制对人类、社会和环境的潜在危害?此外,在一个不断被技术可能性改变的时代,作为人类意味着什么?这些问题之所以如此重要,原因有很多。

失去工作会削弱许多人的价值感和意义感,这只是自动化和人工智能系统如何改变人类状况,有时甚至降低人的内在价值的一个例子。这就造成了人工智能系统能力不断增强与人类能动性丧失之间的矛盾。换句话说,一般来说,人可能会被视为与机器不平等或低人一等。

人们的态度、行为和自我意识已经被咄咄逼人的微目标广告和数字宣传所改变,这些广告和宣传旨在吸引人们的注意力,操纵人们的思想和行为。宣传和广告并非新生事物,但认知科学的发展为如何将操纵行为变成一种艺术形式提供了线索。历史学家和畅销书作家尤瓦尔-哈拉里(Yuval Harari)经常指出,有了数以万计和数以百万计的数据点,算法比我们更了解我们自己。通过这些新技术,公司和其他实体被赋予了操纵个人的权力,而被操纵的个人正在失去他们的能动性。在自由的名义下,一小部分公民、市场营销人员和政治思想家被赋予了权力和许可,他们可以利用这些工具操纵其他人,几乎不受任何限制。人工智能和算法技术越来越多地左右着我们的消费方式、消费内容、消费原因和消费地点,左右着我们的阅读内容、收听内容、投票对象和投票内容。将个人和社群转化为单纯的统计数据、评级和数据点的数字化过程有可能促成一种新的意外数字极权主义。

对行为的数字化操控只是人类生存条件被改变的一个方面。我们的文化和理解模式正在被重新连接,大脑和日常习惯也是如此。我们是否了解发生了什么,我们的认知能力是如何被不断改变的?

人的境况(不要与人性混淆)是一个广义的术语,用来描述人类生存的所有要素以及做人的意义。人类境况包括全人类与生俱来的特征,也包括个人面临的外部因素和事件,以及他们可能面临的道德或伦理难题。它指的是人类如何利用我们与生俱来的特征,我们如何利用这些特征来塑造我们周围的世界,以及反过来,这个世界又是如何塑造我们的。

数百年前,启蒙运动伊始,对人类状况的思考催生了自然哲学(自然科学),并为哲学、艺术、政治、宗教以及最近的认知科学和计算机科学研究提供了指导。我们认为,如果不对人工智能对人类状况的影响进行知情而公开的讨论,我们所有人都将处于危险之中。

技术政治叙事假定并强化了对决定论的信仰,而牺牲了有意义的自由意志,在自由意志中,人的能动性和意图可以占上风。这种有缺陷的叙事建立在一种科学还原论的基础上,破坏了更全面的视角。这样做的风险在于,伦理学会沦为一种机械的功利主义,计算机要做的只是解决困难的电车问题。最后一点非常重要,因为它表明伦理决策可以通过算法实例化(Wallach, Wendell and Allen, Colin, 2009.道德机器:教机器人明辨是非》,牛津大学出版社,纽约)。

人工智能系统默认(有时是设计)是不透明的;也就是说,即使是系统的设计者也无法完全理解导致特定输出的步骤。系统也无法向其人类设计师和用户解释其输出结果所依据的推理。如果公司和工程师不了解自主系统的活动或无法控制它们,就应该宣布它们是不可接受的,或对它们可能造成伤害的情况进行严格管制。

然而,越来越多的人声称,自动驾驶系统将比人类表现得更好或做出更好的判断,因此它们的使用将平衡任何负面影响。例如,有人声称(但肯定未经证实),自动驾驶汽车将比人类驾驶员少发生许多事故。即使自动驾驶汽车更安全,偶尔也会在一个细心的驾驶员不会发生的情况下造成人员伤亡。如果自动驾驶汽车的净效益是积极的,我们社会是否应该接受这种风险?对自动驾驶汽车的接受是否会转化为对其他自动驾驶系统的自动接受,例如在战争中,这些系统的好处和风险尚不明确?这些问题应该得到广泛讨论,但却没有得到充分的知情关注。

关于人工智能系统将比人类系统做出更好决策的说法,往往以人们如何受到偏见和认知偏差影响的例子为依据。认知偏差是一种系统性的判断错误。自从阿莫斯-特沃斯基和丹尼尔-卡尼曼(Kahneman, D. and Tversky, A. 1979.Prospect Theory:风险下的决策分析》,《计量经济学》,第 47 卷,第 2 期,第 263-293 页。263-293:Kahneman, Daniel, 2011.Thinking Fast and Slow, Farrar, Straus, and Giroux),发现了许多类似的认知错误。这些错误包括对统计数据的直观但系统性的误解,以及倾向于忽略那些无法证实自己已有认知的信息。一些未来学家认为,人类进化过程中遗留下来的缺陷(如认知偏差)证明了基因工程、人工智能研究、将大脑与人工智能系统相连接以及其他形式的增强技术的合理性,这些技术可以超越人类的局限性,通过技术手段继续进化。

生产商越来越多地以自主系统将更安全、更准确为由,要求免除某些形式的责任,特别是他们无法预测的低概率事件。至于什么是可以预见或应该预见的,则是另一回事。当然,人工智能系统的设计可以避免人们常犯的逻辑错误,但人工智能系统可能会表现出其他偏差,或对人类会意识到的突出信息不敏感并将其考虑在内。目前,常识推理、语义理解、自我意识、道德智能、情感智能和同理心等能力是工程师们不知道如何嵌入人工智能系统的能力。关于如何最终实现这些形式的智能,有许多理论,但很少有概念证明。

目前关于算法偏见的讨论清楚地表明,不能完全依赖计算机做出正确的决策。我们确实承认,在某些情况下,现在和未来的人工智能系统可能会比那些有很深偏见的人、那些没有意识到自己认知偏差的人、或者那些个人野心压倒正确判断的玩家提出更好的建议。开发人员将越来越多地找到方法,尽量减少计算机输入和输出的偏见。不过,我们认为,最佳决策将对计算机输出进行评估,并将其与操作员和专家的监督和见解相结合。

遗憾的是,关于人工智能系统将比人类做出更好决策的论点已经损害了人类的能动性和自信心,同时也为将关键决策交给机器提供了理由。无论人工智能系统未来是否会取代人类智能,人类的能动性都在不断被削弱,责任和权力也在不断被机器取代。在短期内,这符合企业的利益,因为它们不想为科学的过度发展和它们所部署系统的行为负责。


Anja Kaspersen 是Carnegie Council of Ethics in International Affairs 的高级研究员。她曾任日内瓦联合国裁军事务厅主任和裁军谈判会议副秘书长。此前,她曾担任红十字国际委员会(ICRC)战略参与和新技术负责人。

温德尔-瓦拉赫是耶鲁大学跨学科生物伦理学中心的顾问、伦理学家和学者。他还是林肯应用伦理学中心(Lincoln Center for Applied Ethics)的学者、伦理学与新兴技术研究所(Institute for Ethics & Emerging Technology)的研究员以及黑斯廷斯中心(The Hastings Center)的高级顾问。

您可能还喜欢

2024 年 7 月 31 日 - 播客

负责任的人工智能与大型模型的伦理权衡,与 Sara Hooker 合著

在本期节目中,高级研究员安雅-卡斯珀森(Anja Kaspersen)与 Cohere for AI 的萨拉-胡克(Sara Hooker)讨论了模型设计、模型偏差和数据表示等问题。

2024 年 7 月 24 日 - 播客

人工智能与战争:军备控制与威慑的新时代》,与保罗-沙尔合著

高级研究员安雅-卡斯珀森(Anja Kaspersen)与新美国安全中心(Center for a New American Security)的保罗-沙雷(Paul Scharre)就技术与战争交叉领域的新问题进行了对话。

2024年7月2 日• 播客

控制论、数字监控和工会在技术治理中的作用,与Elisabet Haugsbø合著

高级研究员 Anja Kaspersen 与技术联盟 Tekna 主席 Elisabet Haugsbø 就她的工程之旅、AI 时代的弹性等进行了交谈。