本文最初发表于Fortune.com。
随着对 ChatGPT 的批评屡见报端,我们也越来越多地听到对人工智能持批评态度的思想家之间的分歧。虽然就如此重要的问题展开辩论是自然的,也是意料之中的,但我们不能让分歧在这个关键时刻阻碍我们在人工智能伦理方面取得进展。如今,我担心那些本应在技术/商业、政策和学术界成为天然盟友的人,却越来越多地相互掐架。当人工智能伦理领域出现分歧时,既得利益者就更容易将伦理考虑完全抛在一边。
这些分歧需要结合我们是如何在大型语言模型和其他形式的生成式人工智能快速发展的背景下来理解的。
ChatGPT 背后的公司 OpenAI 最初是一家非营利性公司,以解决人工智能安全问题为己任。然而,随着 OpenAI 在大型语言模型方面的工作逐渐变得有利可图,OpenAI 转而成为一家上市公司。它部署了 ChatGPT,并与微软合作--微软一直试图将自己描绘成最关注道德的科技公司。
例如,两家公司都知道 ChatGPT 违反了全球认可的联合国教科文组织人工智能伦理原则。OpenAI 甚至拒绝公开发布GPT 的前一版本,理由是担心会出现与我们现在看到的相同类型的潜在滥用。但是,对于 OpenAI 和微软来说,赢得企业竞争的诱惑压倒了伦理方面的考虑。这在一定程度上助长了人们对依靠企业自治甚至政府来建立必要保障的怀疑。
我们不应该对这两家公司的领导层过于愤世嫉俗,他们受困于对股东的信托责任和做正确事情的真诚愿望之间。他们的初衷是好的,正如所有对人工智能的发展轨迹表示担忧的人一样。
美国参议员克里斯-墨菲(Chris Murphy)(民主党-康涅狄格州)最近发布的一条推文以及人工智能界的回应或许最能体现这种紧张关系。在讨论 ChatGPT 时,墨菲发了一条推文:"有东西要来了。我们还没准备好。就在这时,人工智能研究人员和伦理学家们纷纷发声。他们接着批评参议员不了解这项技术,沉溺于未来主义的炒作,把注意力集中在错误的问题上。墨菲回击了一位批评者:"我认为她的言论效果非常明显,就是试图阻止像我这样的人参与对话,因为她更聪明,像她这样的人比我们其他人更聪明。"
我对诸如此类的争议感到痛心。墨菲提出的担忧是有道理的,我们需要政治领导人参与制定法律保障措施。然而,他的批评者质疑我们是否把注意力集中在了正确的问题上并没有错。
为了帮助我们理解各种批评者的不同侧重点,并希望能够超越这些可能造成破坏的分歧,我想为人工智能发展所引发的大量伦理问题提出一个分类法:
第一个篮子与社会正义、公平和人权有关。例如,现在大家都清楚,如果算法是根据体现了种族、性别和其他形式偏见的数据训练出来的,就会加剧这些偏见。
第二个篮子是生存问题:人工智能开发界的一些人担心,他们正在创造一种可能威胁人类生存的技术。2022 年对人工智能专家进行的一项调查发现,半数专家预计,到 2059 年,人工智能将以指数级增长,比人类更聪明。
第三个篮子与将人工智能模型置于决策角色的担忧有关。有两项技术为这一讨论提供了焦点:自动驾驶汽车和致命的自主武器系统。然而,随着人工智能软件模块越来越多地嵌入人类生活方方面面的控制系统,也会产生类似的担忧。
贯穿所有这些问题的是对人工智能的滥用,例如为政治和经济利益散布虚假信息,以及两个世纪以来人们对技术性失业的担忧。经济进步的历史主要涉及机器取代体力劳动,而人工智能应用则可以取代智力劳动。
对于所有这些担忧,我都深表同情,不过对于第二种担忧中更多的未来主义担忧,我倾向于持友好的怀疑态度。正如上文墨菲参议员在推特上所举的例子,人工智能批评者之间的分歧往往源于担心存在论的争论会分散对社会公正和控制等紧迫问题的关注。
但是,我们不能让健康的怀疑和辩论演变成对可能的盟友和合作伙伴的迫害。
人工智能界人士需要牢记,让我们走到一起的东西比让我们分道扬镳的重点差异更重要。
这一刻太重要了。
Wendell Wallach 是Carnegie Council 国际事务中的伦理问题卡内基-上广研究员,并担任人工智能与平等倡议(AIEI)的联合主任。他还是耶鲁大学生物伦理学跨学科中心技术与伦理学研究小组的名誉主席。
Carnegie Council 国际事务伦理委员会是一个独立的、无党派的非营利组织。本文所表达的观点仅代表作者本人,并不一定反映Carnegie Council 的立场。