大局观

2022 年 8 月 30 日

从俄罗斯入侵乌克兰到 1 月 6 日叛乱听证会,再到美国最高法院关于枪支和堕胎的裁决,新闻中充斥着各种值得愤怒的故事。但是,如果我们把愤怒集中在一个或另一个问题上,我们就有可能忽略这些故事之间的联系。我们应该后退一步,从更大的视角来看待问题,以历史为背景,回顾过去,展望未来。

自第二次世界大战以来,世界在一系列领域取得了缓慢但重大的进步,从扩大对人权的尊重到在消除贫困和不平等方面取得进展。然而,在向前迈出两步之后,我们现在显然又在后退。

尤其是俄罗斯在乌克兰的行为对来之不易的冲突行为准则造成了毁灭性打击。它对国际人道法(战争法)的漠视使这一重要事业急剧倒退。至少同样具有破坏性的可能是二阶和三阶影响;例如,乌克兰粮食的武器化加剧了非洲的饥荒,导致不可避免的破坏社会稳定的后果,如被迫移民。

美国最高法院以破坏对法治的尊重为代价,短视地为狭隘的意识形态谋取利益,必将产生同样深远的破坏性影响。与此同时,关于美国在 2021 年差点发动政变的揭露将在美国国内外引起反响,削弱全球对民主规范复原力的信心。

在这些和其他事态发展中,我认为我们看到了一个更大的图景,其特点是三种趋势:人权的缩减、结构性不平等的加剧以及现有权力结构的进一步巩固。

展望未来,我们都应该关注这三种趋势将如何影响新兴技术的发展。最明显的例子还是来自乌克兰,因为打击入侵的紧迫性压倒了对开发致命自主武器系统的道德担忧。

例如,法英武器 "硫磺石一号 "可能是目前战场上部署的自主性最强的武器:它的操作员定义了一个搜索区域,它能在该区域内识别并摧毁坦克等车辆。尽管人们普遍呼吁禁止开发一些致命的自主武器,但《特定常规武器公约》(CCW)多年来一直未能达成共识

在美国,不断升级的枪支暴力问题正在为有道德问题的创新提供更多动力。今年 6 月,Axon 道德顾问委员会的 12 名成员中有 9 人辞职以示抗议,因为泰瑟枪背后的公司在乌瓦尔德校园枪击案后宣布,计划开发一种无人机,能够监视公共场所,并对任何被认定为现行枪手的人实施泰瑟枪。辞职后,Axon 停止了这项技术的开发。

正如伦理顾问们所理解的那样,监控算法的不稳定性增加了误判无辜者的风险;一旦此类技术在校园枪击案等看似狭隘的应用案例中被接受,就会为更广泛的应用打开大门,而在这些应用中,潜在的弊端将越来越大于益处。

从长远来看,所有形式的数字监控--从专制国家的社会信用体系到美国科技巨头的监控资本主义模式--都是通过灌输恐惧来巩固权力。

曾几何时,埃莉诺-罗斯福(Eleanor Roosevelt)倡导《国际人权宣言》,为美国在全世界树立了个人权利和自由之光的声誉,而现在,美国的科技公司却站在了限制任何控制个人数据的数字权利的最前沿。当生活中更多的事情以数字方式进行时,数字权利就成为了人权的核心组成部分。

与此同时,俄罗斯重拾旧式帝国殖民主义侵略的做法,与前瞻性的数字殖民主义现象有着明显的相似之处--科技公司让国家和人民屈从于那些控制其数据而非土地的人。

我们是否有意愿通过在未来几十年里继续努力再向前迈出两步来应对我们目前的退步?我认为,答案将取决于我们是过于专注于个别问题,还是能够理解它们是如何融入大局的。应对气候变化的共同需要为集体行动提供了前景。我们需要从根本上转变观念,从执着于个别问题转变为具有普遍意识,将集体福祉放在国家政策和国际事务的首位。

您可能还喜欢

危险大师》一书封面。CREDIT: Sentient Publications.

2024 年 4 月 18 日 - 文章

危险的主人欢迎来到新兴技术世界

在这篇为《危险的主人》一书平装本所写的序言中,温德尔-瓦拉赫讨论了人工智能和新兴技术的突破和伦理问题。

2024 年 3 月 22 日 - 播客

人工智能管理的两个核心问题,与 Elizabeth Seger 合著

在本期 "人工智能与平等 "播客中,卡内基-上广研究员温德尔-瓦拉赫(Wendell Wallach)和 Demos 的伊丽莎白-西格(Elizabeth Seger)讨论了如何让生成式人工智能变得安全和民主。

2024 年 2 月 23 日 - 文章

当我们谈论 "人工智能民主化 "时,我们指的是什么?

在多方呼吁 "人工智能民主化 "的背景下,Demos 的 CASM 数字政策研究中心主任 Elizabeth Seger 讨论了这个词的四种含义。