是 "权宜之计"(Deus ex machina)还是 "暗黑破坏神"(Diabolus ex machina)?

2022 年 6 月 15 日

在许多科幻电影中,情节的结局都是 "神来之笔","机器中的上帝"。在这些电影的结局中,一个极不可能的发展解决了一个看似棘手的问题,导致了一个大团圆的结局,没有反思,甚至没有理由。

20 世纪 80 年代,数据科学家约瑟夫-韦曾鲍姆曾对围绕技术的"魔幻思维"提出警告,他说,只有那些误解技术的人才会敬畏技术。在人工智能领域的巨额投资中,有不小一部分可以追溯到 "魔幻思维"。例如,去年欧盟议会的一份文件夸张地声称,"可以把人工智能视为继空气、土、水和火之后的第五元素"。

这种神奇的想法并非没有代价。由于夸大了技术的可能性,技术的潜在风险和局限性往往得不到充分的宣传和理解。关于人工智能的诚实而科学的讨论经常缺乏。

事实上,许多所谓的 "人工智能解决方案 "目前只不过是企业的蛇油和仙粉。它们远离人工智能研究的最前沿,只是将更大的数据集和更强的计算能力用于解决一些问题,而这些问题往往可以通过训练有素的人类和对组织文化的投资得到更廉价、更有效的解决。在全球稳定性减弱、紧张点成倍增加的危险时期,机器学习和人工智能所能实现的承诺有可能会取代对已知局限性的道德考量。

这种以数据为中心的解决方案如果过早地嵌入到关键功能中,而人类又准备不足,无法理解和解决算法的局限性以及与大型数据集相关的问题,那么这种解决方案就会非常危险。

富有的公司正在将大量资源投入到技术解决方案中,就像莫扎特在世时,德国君主将大量资金投入到作曲家身上一样。因此,这个时代的作曲家在音乐创作方面最多产的;君主们的投资帮助几代音乐爱好者实现了增值。但是,当前大量涌入的投资并不是为了给世界创造美好的事物,甚至不一定是为了以最合适的方式解决问题--它可能是为了让科技公司的估值和股价保持高涨,尽管这些公司存在缺陷、风险,而且其领导者几十年来一直未能兑现技术承诺。这可能是为了支持"长期主义 "和 "生存风险 "等价值体系,而这些价值体系本身就是优先考虑某些价值观的特殊框架,同样也是有争议和争论的--这是有充分理由的。

企业和私营机构在塑造人工智能的有效风险和伦理难题的时限方面发挥着越来越重要的作用--这种现象以前在其他领域也曾出现过,包括核武器和生物武器研究。政治理论家艾玛-桑德斯-黑斯廷斯(Emma Saunders-Hastings)认为,这些尝试可能会导致 "关系不平等"--受影响最大的人最没有发言权。"她写道:"一些人的利他主义使其他人处于他们的权力之下。

可以说,战略慈善机构通常由私人经营,有其特定的愿景和目标,可能产生 "令人反感的等级森严的社会和政治关系"。大笔资金可以定义问题和叙事。由此产生的风险范式并不一定具有包容性或全面性,也无法让那些资金或权力较少的人发表意见。纽约大学社会学家莫娜-斯隆(AIEI 顾问委员会成员)和推特总监拉姆曼-乔杜里(Rumman Chowdhury)将这些称为"叙事陷阱",告诫决策者 "在工作和专业参与这些主题时,要注意我们相互讲述的故事中的陷阱。它们是警示信号或警钟,应该时不时地敲响"。

事实上,私人和临时慈善机构正在越来越多地定义什么是风险,而没有太多的公众监督。这导致人们对慈善力量对集体思考、调查范围、企业或政策应对措施的影响缺乏了解和监督,无法应对人工智能深入我们日常生活所带来的内在矛盾点和权衡。

战略调整、 重新认识伦理在对复杂而强大的系统进行审查时,需要一个新的筹资框架,以便能够对风险和局限性进行自由而现实的讨论,并对数据和人工智能能够和不能解决哪些问题,以及使用这些技术会带来哪些新问题进行坦率而无畏的科学讨论。

每当我们看到或听到类似 " 神来之笔"的东西,或莫名其妙地使用技术,过于简单或轻易地解决问题时,我们就需要检查一下自己的 "神奇思维"。我们必须返璞归真,询问我们试图解决的问题是什么,技术或人工智能如何以及是否是最佳解决方案,并与那些将受到任何拟议解决方案影响的人进行协商。我们需要意识到我们所代表的价值观是什么,我们的服务对象是谁,以及我们作为全球社会所面临的最紧迫的问题是否正在得到解决。

一位建筑师最近在推特上发帖说,他们希望人们不要再建造透明楼梯,因为 "人们穿裙子"。如果受技术影响的人对技术的建造方式没有发言权,那么数据和人工智能也会出现同样的问题。在构建工具时,团队的多样性以及在使用前和整个生命周期中对潜在影响的审查至关重要。重大风险被忽视。产品被过度推销。专家之间互相推诿。

我们需要讨论权力问题,每次都要质疑是谁的利益或价值观在驱动 "机器 "的 "行为"。要管理好风险,确保现在和未来的平等,光靠 "神来之笔"是不够的。

Anja Kaspersen 是Carnegie Council for Ethics in International Affairs 的高级研究员,她是人工智能与平等 Initiative (AIEI) 的共同负责人。

科比-莱恩斯博士是伦敦国王学院的客座高级研究员;澳大利亚标准局的专家,就即将出台的人工智能标准向国际标准化组织提供技术建议;以及人工智能教育协会顾问委员会成员。她是以下著作的作者 新战争技术与国际法》 (剑桥大学出版社,2022 年).

您可能还喜欢

2024 年 2 月 23 日 - 文章

当我们谈论 "人工智能民主化 "时,我们指的是什么?

在多方呼吁 "人工智能民主化 "的背景下,Demos 的 CASM 数字政策研究中心主任 Elizabeth Seger 讨论了这个词的四种含义。

2024 年 2 月 21 日 - 播客

做好准备,不要惊慌:驾驭数字版权格局,与萨姆-格雷戈里合作

高级研究员安雅-卡斯珀森(Anja Kaspersen)与世界见证组织(WITNESS)执行主任山姆-格雷戈里(Sam Gregory)就合成数据、人工智能生成的媒体和深度伪造所带来的挑战和机遇进行了交谈。

2021 年 4 月 19 日 - 播客

国际人工智能大会:在治理人工智能革命方面实现有意义的包容性

千万不要错过国际人工智能治理大会(ICGAI)在线演讲系列的第二场会议!本场活动的主题是 "人工智能治理中的有意义的包容性"。