长期主义:道德特洛伊木马

2022 年 9 月 29 日

最近,哲学家威廉-麦卡斯基尔(William MacAskill)在他的著作《我们欠未来什么? 我们欠未来什么一书中将 "人类的命运应该是我们道德上的头等大事 "这一观点广为流传。他的核心主张是,如果我们能避免在短期内毁灭人类,那么今天的 80 亿人类的重要性将远远超过后代的数千亿人类。

麦卡斯基尔的论点被称为 "长期主义"(通常写作 "长期主义"),已经遭到了尖锐的批评。例如,专栏作家克里斯蒂娜-恩巴在 《华盛顿邮报》上写道:"乍一看,它令人信服,但作为一种价值体系,其实际影响令人担忧"。她解释说,在实践中,它意味着将 "防止对人类生存的威胁视为最有价值的慈善事业"--这意味着我们应该在应对威胁人类长期生存的风险方面投入更多。

正如 Emba 所说,这似乎不可能有异议。想想气候变化吧:现在,我们大多数人都会同意,几十年来,我们一直低估了环境崩溃的威胁,事后看来,我们应该更愿意牺牲一些生活水平,以加快从燃烧化石燃料过渡到不燃烧化石燃料。

当你考虑取舍时,困难就来了。究竟今天应该牺牲多少才能增加子孙后代在各种已知威胁下生存的机会?对未来威胁的猜测程度如何才能证明当前的牺牲是合理的?谁应该在何时做出牺牲?谁来决定何时牺牲、谁来牺牲以及他们必须牺牲什么?

举个极端的例子,假设有一项提案,要求将四分之一的人力资源用于最大限度地降低大型小行星或彗星撞击地球的风险。想象一下,政府强制要求大学将主要精力放在小行星跟踪技术上,并征用工厂生产导弹部件,以改变迎面而来的小行星的轨迹。

这样的提议是荒谬的,因为小行星撞击不可能在短期内威胁到人类,也许要等上几百万年。但是,小行星撞击可能在短期内发生的威胁是现实的 足够现实我们显然应该投入一部分人力资源来应对这一威胁。好莱坞大片《别往上看》(Don't Look Up)是一部关于气候变化的寓言故事,但也有趣地探讨了如果小行星的威胁突然出现,人类可能会准备不足。

究竟应该投入多少时间和资金来防御小行星或彗星?这个问题并没有明显的答案,小行星撞击只是众多推测的长期威胁之一--其中很大一部分与人类技术有关。我们已经开发出了一种能够让地球无法居住的技术--核武器,我们投入了大量的时间和政治资本来确保这种技术永远不会被使用。

我们现在正在研究其他具有类似破坏潜力的技术。例如,我们应该投入多少资金来应对人类制造的病原体造成的大流行病风险?或者由人工智能驱动的系统在执行类似人类的任务时变得比人类更聪明,但却与人类的核心价值观不够一致?

科幻小说对于识别潜在威胁很有帮助,但在考虑实时权衡方面,它只能带我们走到这一步。传统上,科幻小说家希望告诫我们,不要在不了解技术的不良影响或邪恶用途的情况下,自以为是地选择追求技术。例如,我们在规范基因编辑研究的范围,以防止产生新的致命病原体或生物武器时,就听取了这一建议。

但这只是一种方法。另一种方法是故意在生物实验室中研究致命病原体,试图为可以想象的未来大流行病做好更好的准备并开发治疗方法。哪种方法看起来更好,在一定程度上取决于我们是否认为,这种可以制造致命病原体的研究也能提供可能带来其他突破的洞察力。

基因编辑技术的发展有可能造就能力超越当代人的后代。如果我们对这些后代给予很高的道德评价,我们可能会觉得有义务追求这项技术,同时尽最大努力降低风险。与此相反,如果我们优先考虑最大限度地降低对当代人福祉的风险,我们可能更愿意严格限制可以开展的研究。

为研究如何治疗病原体而制造新病原体会带来风险,即病原体可能在治疗方法开发出来之前 "逃离 "生物实验室设施。生物安全专家 生物安全专家指出,我们不知道我们正在冒多大的风险:"目前,国际上没有要求对这些设施进行报告,也没有授权任何国际实体收集有关这些设施所采取的安全和安保措施的信息,或在全球范围内进行监督"。

然而,还有另一个更根本的问题:我们用于防备未来大流行病的资源不能同时用于治疗今天的可预防疾病和慢性病。让现在活着的人生活得更好是肯定的收益,而让潜在后代所面临的推测收益最大化和推测风险最小化则是不确定的收益,这两者之间始终存在着内在的矛盾。

我们毫不怀疑像威廉-麦卡斯基尔这样的哲学家是出于好意。我们的许多同事和朋友都与他有着同样的担忧,其中一些人还在优先考虑长期生存风险的必要性方面发出了自己的声音。然而,我们担心,这些合理的担忧很容易被扭曲,并与个人欲望、目标、救世主信念以及促进根深蒂固的政治议程和企业利益混为一谈。

要想知道为什么,想象一下你是一个亿万富翁,投资开发了一种技术,这种技术在短期内会造成各种形式的危害,甚至在长期内会毁灭人类。你担心公众和政府会关注短期危害,并通过监管如何开发和使用该技术来损害你的利润。

为了降低这种可能性,你可能会决定投资提升那些关注长期生存风险,同时夸张地宣称长期利益的思想家的形象。这种策略在讨论人工智能的风险和益处时尤为明显。开发者和投资者希望通过说服公众,让他们相信真正的 "大 "威胁正在得到解决,从而对更直接的问题和缺陷持乐观态度。他们希望给公众造成这样的印象:今天造成的伤害是值得忍受的,因为当技术成熟时,明天承诺带来的好处将远远超过这些伤害。这种策略掩盖了一种可能性,即长期的风险将远远超过具体应用的短期利益。

例如,致力于预测人工智能生存风险的研究机构,其大部分资金都来自那些热衷于开发尖端人工智能系统和应用的亿万富翁,这绝非巧合。与此同时,研究这些尖端应用却很难甚至不可能获得资助,因为这些应用目前的应用方式虽然提高了利润,但却损害了社会。

因此,善意的长期主义哲学有可能成为少数人既得利益的特洛伊木马。因此,我们惊讶地看到,这一哲学立场像一根红线,贯穿于联合国秘书长安东尼奥-古特雷斯意义深远的新宣言--《我们的共同议程》之中。

古特雷斯写道:"现在是进行长期思考的时候了[......]我们占主导地位的政策和经济激励措施仍然偏重于短期和现状,以牺牲人类和地球的长期福祉为代价,优先考虑眼前利益"。他指出,今世后代将不得不承受我们的作为或不作为所带来的后果,并认为 "人类面临着一系列长期挑战,这些挑战在人类的多个生命周期中不断演变"。

正如我们所看到的那样,乍听之下,这样的言论似乎没有人会反对。然而,我们认为这种言论是有害的。它有可能使那些为政治、经济和技术精英的短期利益服务的议程变得可信,从而推动那些已明确表明有可能加剧不平等和损害更广泛公众利益的技术的发展。

我们并不是说这就是意图。但我们担心,这些听起来无伤大雅的词语会被用来为自己辩护,尤其是古特雷斯提议建立一个 "未来实验室",以 "支持各国、国家以下各级当局和其他方面进行能力建设和交流良好做法,以加强长期性、前瞻性行动和适应性"。(强调是后加的)

如果说长期主义的基本思想--给予子孙后代与我们自己同样的道德权重--从表面上看似乎没有争议,那么我们需要从更长远的哲学角度来看待它。长期主义是功利主义或结果主义的一种形式,这一思想流派最初由杰里米-边沁(Jeremy Bentham)和约翰-斯图尔特-密尔(John Stuart Mill)提出。

功利主义的前提是,我们应该做任何对大多数人最有利的事,表面上听起来也像是常识,但它有许多众所周知的问题。几百年来,这些问题一直被对立的两派哲学家所指出,一派认为道德规则和义务可以优先于结果论的考虑,另一派则主张道德主要在于培养品格。换句话说,长期主义可以被视为关于代际伦理的历史悠久的辩论中的一种特殊立场。

推动长期主义的普及并不是为了解决这些长期存在的思想争论,而是为了绕过这些争论。通过吸引人的口号,它试图确立后果主义的道德决策,将子孙后代的福祉放在首位,将其作为我们这个时代的主流伦理理论。

长期主义是在功利主义哲学家彼得-辛格(Peter Singer)的启发下,从有效利他主义运动中发展起来的。然而,与辛格最初对人道主义事业的关注相比,长期主义代表了一种根本性的转变。辛格认为,我们把钱花在奢侈品上是不道德的,因为这些钱可以投资于人道主义事业,减轻弱势群体的痛苦。

以此类推,长期主义的逻辑认为,如果我们把钱投资于塑造未来,而不是用来减轻此时此地的痛苦,那是不道德的。对这种逻辑的质疑通常被称为 "当下偏见"。

但是,我们今天应该为假设的未来生物的生命牺牲多少,而这些未来生物甚至可能并不生活在现实中,而是生活在元宇宙中?正如学者埃米尔-托雷斯 所说"批评者很可能会指责,关注遥远未来的数字人只会转移对影响现实人类的现实世界问题的关注"。"长期主义的核心难题在于,这种伦理上的可疑影响很容易被隐藏在令人钦佩的情感背后。

例如,当被问及参与编写《我们的共同议程》的情况时,威廉-麦卡斯基尔 回答说他的观点无人能反对,比如 "从积极引导未来的角度来看,许多似乎最重要的挑战都涉及全球公共产品。"

麦卡斯基尔还建议:"或许,我们甚至希望在全球范围内对人工智能的某些领域进行监管,或者至少在全球范围内放慢其发展速度,因为我们认为这些领域会带来更多的风险和危险,而且与人工智能的大多数用途不同,它们将带来极大的益处。而联合国拥有这种召集力,拥有这种软实力,因此它有可能提供帮助。"

人工智能的国际治理是许多人的共同目标,包括Carnegie Council for Ethics in International Affairs。但是,正所谓 "魔鬼在细节中"。如何区分人工智能的风险领域与麦卡斯基尔认为会带来极大好处的 "人工智能的大多数用途"?长期主义者的情绪可能会偏离对新型应用进行近期治理的理由。

"我们的共同议程 "正在讨论之中,最终将于 2023 年举行 "未来峰会"。显然,防止技术毁灭人类是一个很好的目标。它很可能需要更多的资金和关注。但是,我们应该从哪些其他社会公益和核心人权中转移资金和注意力呢?

我们需要的不是口号,而是对长期目标和近期目标之间的矛盾和权衡进行深入思考。但是,如果需要一个口号来概括我们对 "我们的共同议程 "的不满及其对长期主义的暗示,那么我们只需看看联合国另一份报告的标题:"我们的共同议程"。 报告的标题的标题:"未来就是现在"。

事实上,从我们的角度来看,对今天还活着的人的善意和关怀是任何可行的未来的先决条件。

安雅-卡斯珀森(Anja Kaspersen)和温德尔-瓦拉赫(Wendell Wallach)分别是Carnegie Council for Ethics in International Affairs 的高级研究员和卡内基-威弘(Carnegie-Uehiro)研究员。 人工智能与平等倡议(AIEI)。.

您可能还喜欢

危险大师》一书封面。CREDIT: Sentient Publications.

2024 年 4 月 18 日 - 文章

危险的主人欢迎来到新兴技术世界

在这篇为《危险的主人》一书平装本所写的序言中,温德尔-瓦拉赫讨论了人工智能和新兴技术的突破和伦理问题。

2024 年 3 月 22 日 - 播客

人工智能管理的两个核心问题,与 Elizabeth Seger 合著

在本期 "人工智能与平等 "播客中,卡内基-上广研究员温德尔-瓦拉赫(Wendell Wallach)和 Demos 的伊丽莎白-西格(Elizabeth Seger)讨论了如何让生成式人工智能变得安全和民主。

2024 年 2 月 23 日 - 文章

当我们谈论 "人工智能民主化 "时,我们指的是什么?

在多方呼吁 "人工智能民主化 "的背景下,Demos 的 CASM 数字政策研究中心主任 Elizabeth Seger 讨论了这个词的四种含义。