您真的对人工智能的伦理问题感兴趣吗?

2021 年 10 月 19 日

伦理原则是广泛而笼统的,而人工智能(AI)的每一个应用都是具体而特殊的。如何在实践中落实伦理原则,对任何参与开发人工智能的人来说都是一个挑战。

在概述我的方法之前,请允许我问您一个诚实的问题:你为什么感兴趣?你致力于改善世界吗?还是你只是想更好地使用道德语言为你正在做的事情辩护?

在Carnegie Council的 "人工智能与平等倡议"(AIEI)中,我们希望重塑人工智能领域的人们对伦理的思考方式。问题并不在于伦理问题没有得到讨论--它确实存在。问题在于,许多科技界人士对讨论伦理问题感到过于自在。他们认为,这不过是用其他手段来表达政治而已。

表面上看,两者有相似之处。对行业的道德批评看起来很像政治批评。它们都可能导致制约和控制。但是,精通政治与精通伦理的意义是截然不同的。

在商业道德领域,人工智能有一个值得警惕的故事。几十年前,当商学院首次开始教授商业道德时,他们希望让学生能够更合乎道德地做生意。在实践中,学生们现在从这些课程中掌握了各种工具,通过提出令人信服的理由来回击批评者,证明自己的企业是合乎道德的,即使它并不合乎道德。换句话说,他们擅长的是政治,而不是道德。

那么,精通伦理学意味着什么呢?我认为,道德是应对不确定性挑战的一种方法。当你不了解全部情况时,道德价值观可以指导你如何行动。价值观是我们在雄心壮志与不确定性之间进行校准的方式。人工智能领域充满了不确定性,从智能系统如何处理数据缺乏透明度,到无法预测社交媒体平台等应用将如何发展并影响其所在的社会。

所有的选择都有利弊权衡。能够很好地实施道德规范的人,对这些取舍都很敏感。他们能觉察到表面之下存在的紧张关系。他们能预见到自己可能做出的选择可能产生的有害影响,并寻求减轻这些影响的方法。

在这篇文章的开头,我问了一个诚实的问题:你阅读这篇文章的动机是什么?现在让我再问一个:这个问题给你的感觉如何?也许你不屑一顾:"嗯,当然,我想改善这个世界"。也许你会停顿片刻,审视一下自己:"我希望我没有把我的工作合理化。有可能吗?

如果你对自己的动机感到本能的好奇,我会说你已经走上了在工作中实践道德的正确轨道。如果你对自己的动机感到本能的好奇,我会说你已经走上了在工作中实施道德规范的正确道路。

无论我们是否意识到这一点,我们所处的位置和我们想要达到的位置之间总是存在着一种紧张关系。要全身心地投入到任何工作中,要么需要有抑制紧张的意志力,要么需要对自己正在做的事情感到真正的自在。我在处理每一个道德难题时,都会试着去感知哪种选择会让人自然而然地静下心来。我们该如何应对手头的挑战,从而在解决细节问题之外,不再需要进一步思考和关注?

这需要实践和纪律--但作为第一步,我们可以试着谦虚一些。我们需要了解,我们在多大程度上对自己正在做的事情深信不疑,从而阻挡了其他可以丰富我们世界观的观点。这就是一家真正邀请并倾听批评声音的公司与一家任命了一个道德咨询委员会的公司之间的区别,前者在性别和地域方面都符合要求,但却从不提出任何棘手的问题。

学术界会告诉你,广义上有三个伦理学流派。道义论认为,做正确的事就是要遵守规则。功利主义认为,只要能带来最大的善,就是正确的事情。还有一种美德伦理学认为,如果你注重培养品格,你就会做正确的事。

美德伦理在科技界重新流行起来。由于自由国际主义的世界观被普遍认为是良性的,这种观点认为,由具有自由国际主义价值观的公司开发的技术肯定能让世界变得更美好。

不幸的是,事实并非如此。我们发展人工智能的方式往往会让世界变得更糟:破坏民主稳定、扩大不平等或恶化环境。行业中的许多人已经被主流思潮所禁锢,将他们的疑虑合理化。

要想有效地植入道德规范,我们需要培养的美德是不同的:意识到我们个人的抵触情绪,向他人敞开心扉,以及在集体决策过程中邀请不同观点的勇气。


有关人工智能与平等以及温德尔-沃拉赫个人故事的更多信息,请查看他 2021 年 5 月与安雅-卡斯珀森(Anja Kaspersen)的播客节目 "对人工智能伦理的历史和作用的创造性思考"。

Wendell Wallach 是Carnegie Council for Ethics in International Affairs 的卡内基-威弘研究员。他与高级研究员安雅-卡斯珀森(Anja Kaspersen)共同领导卡内基人工智能与平等倡议(AIEI),该倡议旨在了解人工智能影响平等的无数方式,并针对这些方式提出潜在机制,以确保所有人都能从人工智能中获益。

您可能还喜欢

2024 年 7 月 31 日 - 播客

负责任的人工智能与大型模型的伦理权衡,与 Sara Hooker 合著

在本期节目中,高级研究员安雅-卡斯珀森(Anja Kaspersen)与 Cohere for AI 的萨拉-胡克(Sara Hooker)讨论了模型设计、模型偏差和数据表示等问题。

2024 年 7 月 24 日 - 播客

人工智能与战争:军备控制与威慑的新时代》,与保罗-沙尔合著

高级研究员安雅-卡斯珀森(Anja Kaspersen)与新美国安全中心(Center for a New American Security)的保罗-沙雷(Paul Scharre)就技术与战争交叉领域的新问题进行了对话。

2024年7月2 日• 播客

控制论、数字监控和工会在技术治理中的作用,与Elisabet Haugsbø合著

高级研究员 Anja Kaspersen 与技术联盟 Tekna 主席 Elisabet Haugsbø 就她的工程之旅、AI 时代的弹性等进行了交谈。