2023 年 1 月 24 日 - 文章

现在是对人工智能和技术治理进行系统重置的时刻了

我们怎样才能确保目前正在开发的技术用于造福大众,而不是为少数人谋利?

当 ChatGPT 被问及人工智能的进步对人类状况意味着什么时,它回答我们说,人工智能将 "改变人们看待自身能力和技能的方式,并改变他们的自我意识"。它可能 "影响人们的认同感和目标感"。它可能 "改变人们形成和维持关系的方式,影响他们的社区感和归属感"。生成式人工智能(包括 ChatGPT 等大型语言模型和 Dall-E 等图像生成器)在 2022 年取得的进展令人惊叹。当它雄辩地告诫我们自己对人类的自我意识、目的和归属感可能产生的影响时,我们自然会被打动。但是,大型语言模型只能把我们反馈给它们的东西反馈给我们。通过统计联想技术和强化学习,ChatGPT 背后的算法可以找出并反刍出具有洞察力的词语和概念,但它并不了解这些词语和概念所蕴含的深层含义。

约瑟夫-韦曾鲍姆(Joseph Weizenbaum)被认为是计算科学的先驱,他是 1965 年计算机会话程序ELIZA的创造者,该程序曾让一些用户误以为它是人类。当我们对技术解决问题抱有不切实际的过高期望时,就会忘记深入思考其局限性和潜在的负面影响。Weizenbaum 后来说,他深感忧虑的是,参与 ELIZA 项目的人并不完全了解他们是在与计算机互动,也不了解人类不加批判地依赖技术的固有倾向。他认为,在一个迎合还原论叙事的社会中,这是一种道德缺失。

开创性的政治理论家汉娜-阿伦特(Hannah Arendt)在 1958 年出版的《人的境况》(The Human Condition)一书中指出,某些经历--她称之为劳动、工作和行动--赋予人类认同感和尊严。破坏这种尊严是一个严重的错误。在当前的人工智能讨论中,我们发现人们普遍不理解为什么捍卫人类尊严如此重要。在这个世界上,人类生活的意义和价值有可能被剥夺。

2023 年,我们需要就人工智能系统的价值和局限性展开一场理智而真诚的辩论,这些系统正在迅速融入我们的日常生活,我们也需要就如何在与这些系统的互动中理解自己展开辩论。

社交媒体平台就是一个值得警惕的例子。虽然社交媒体平台最初因其能将我们团结在一起而备受赞誉,但其诸多有害的弊端已深深扎根于我们和整个社会的运作方式之中,很难想出办法来根除将真相武器化和 "他者化 "这种将社会和人们割裂开来的做法。社交媒体平台能否兑现曾经的承诺,抑或这也只是一种幻觉?

也许若干年后,我们回首往事时,会感叹生成式人工智能对教育的破坏性影响,就像社交媒体对真相的破坏性影响一样。学生们不加编辑地提交 ChatGPT 的输出结果,而教育者们则争先恐后地布置 ChatGPT 无法规避的作业。尽管这些语言模型与任何形式的具有常识推理和理解能力的人工通用智能相去甚远,但它们的重要性是不可否认的。

但是,人工智能生成模型的输出仍然远远不能代表集体智慧,更不用说智慧了。因此,在 2023 年,我们必须寻求开发一种新的模式,促进协作解决问题,将机器智能与人类智慧的精华融为一体。人工智能研究和应用部署的激励结构应从取代人类工作的技术转向增强和扩大集体协作智慧的应用。要实现这一点,我们需要扪心自问:完整而全面的重置是什么样的?

在过去几年里,人工智能伦理讨论一直围绕着我们已经提到过的两个问题展开。人工智能将如何改变做人的意义?我们又该如何权衡人工智能改善和恶化人类状况的方式?

这些问题与第三个没有得到充分关注的问题纠缠在一起:当围绕人工智能建立的系统被部署到经济的各个领域时,谁赢谁输?当前的数据和算法革命正在重新分配权力,这是以往任何历史性转变都无法比拟的。激励结构引导着人工智能的应用,加剧了结构性不平等:其目的通常是取代人类的工作,而不是提高人类的福祉。

在过去的工业革命中,机器也取代了人类劳动,但生产率的提高并没有全部归资本所有者所有,而是通过更好的工作和工资与劳动者分享。如今,每一份自动化的工作,所有的生产率收益都归资本所有者所有。换句话说,随着人工智能系统缩小了只有人类才能完成的工作范围,生产率的提高只归属于系统的所有者,也就是我们这些拥有股票和其他金融工具的人。我们都很清楚,人工智能的发展在很大程度上是由寡头垄断的科技领导者控制的,他们在决定人工智能的社会影响和我们的集体未来方面拥有无与伦比的权力。

此外,越来越多的人工智能应用被开发出来,用于追踪和操纵人类,无论是出于商业、政治还是军事目的,手段无所不用其极--包括欺骗。我们是否有可能成为人工智能旨在操纵的机器人?

我们需要开始全面思考人工智能,而不是零敲碎打。我们怎样才能确保目前正在开发的技术被用于公共利益,而不是少数人的利益?我们怎样才能激励企业部署人工智能生成模型,让员工掌握更深层次的高价值技能,而不是让他们成为多余的人?什么样的税收结构才能抑制取代人类员工的行为?需要什么样的公共政策和指数来计算并重新分配商品和服务给那些受到技术失业和环境影响的人呢?应该对人工智能用于操纵人类行为施加哪些限制?

要解决诸如此类的问题,就必须打破社会学家皮埃尔-布迪厄(Pierre Bourdieu)和人类学家、记者兼作家吉莉安-泰特(Gillian Tett)所说的 "社会沉默"--当一个概念被普遍认为是禁忌或不能公开讨论时。在人工智能领域,社会沉默围绕着潜在的风险和负面影响,从工作岗位的转移到隐私的侵蚀,以及在有关人工智能系统的开发和部署的讨论中排斥不同的声音。关注人工智能伦理是一个开端,但迄今为止,它对正在开发和部署的新工具的设计影响有限。

如果不对风险进行广泛讨论,就无法采取措施降低风险。社会沉默会使不平等永久化,破坏不同群体之间的共鸣,并助长社会冲突。如果在讨论技术时没有代表不同的观点,就无法在技术融入社会之前甚至之后对其提出有效的质疑。

社会沉默问题涉及一个更深层次的问题:谁决定我们谈论人工智能的内容,谁决定我们不谈论人工智能的内容?人工智能的发展不仅与技术本身有关,我们用来讨论人工智能的叙述也很重要。主流叙事根植于 "科学主义",认为假定人类智能的系统可以还原为物理学并自下而上地重新创建。科学主义是一种神学,它扭曲了我们理解技术能做什么和不能做什么的方式。它要么忽视了人类在引导技术进化方面可以而且应该发挥的作用,要么将这一作用拱手让给那些从人工智能所带来的可能性所主导的文化中获益最多的人。

2023 年,我们需要就人工智能系统的价值和局限性展开一场理智而真诚的辩论,这些系统正在迅速融入我们的日常生活,我们也需要就如何在与这些系统的互动中理解自己展开辩论。

前面提到的汉娜-阿伦特(Hannah Arendt)曾有过著名的 "平庸之恶 "的论述--即普通人在没有完全意识到其行为后果的情况下,就会被利用,成为不法行为的帮凶。

有鉴于此,从事人工智能系统的研究、开发和部署工作的人员现在是抵御潜在有害和危险的人工智能应用的第一道防线。大多数立法者可能根本不了解 ChatGPT 这样的系统。即使他们了解,他们也会因为认为必须支持有望提高经济生产力和国家竞争力的创新而在方法上大打折扣。

因此,诸如 ChatGPT 等生成式人工智能模型和许多其他模型实际上是不受管理的,只有经过选择的、但有些站不住脚的行业准则、标准和实践规范。我们担心的是 "治理隐形斗篷",即指导方针的编写和实施方式表面上是为了解决伦理问题,但实际上却混淆了这些问题,使其被忽视或绕过。

不过,从积极的方面来看,我们在 2022 年欣喜地看到,人们对伦理的兴趣日益浓厚,并将其作为应对人工智能固有困境的一种方式。例如,我们在会议上看到了科学家和工程师的参与,而十年前他们可能会对此不屑一顾。越来越多的人认识到,在人工智能应用中切实融入伦理道德意味着什么。越来越多的人认识到,现有的整个模式是错误的,它正引领我们走向一个扭曲基本价值观、损害人类尊严的未来。

需要重启!

伦理是一种可以促进这种重置的语言。例如,当我们不掌握指导决策所需的所有信息,或无法预测各种行动方案的后果时,伦理可以帮助我们应对不确定性。它可以帮助我们确定需要提出的好问题,从而保持谦逊,并驾驭我们认识上的差距、现有的和新出现的紧张点,以及不同选项和选择中固有的权衡。

也许有人会批评我们强调人工智能对社会的不良影响。可以肯定的是,人工智能带来的好处是显而易见的。但是,人工智能系统带来的好处是否能真正抵消大量且日益增多的弊端呢?

罗伯特-奥本海默是曼哈顿计划的负责人,他研制的原子弹结束了二战中对日本人的战争:"要想成为一名科学家,除非你相信世界的知识以及这种知识所赋予的力量,是一种对人类具有内在价值的东西,而且你要利用它来帮助知识的传播,并愿意承担后果。"

当然,负面影响是可以化解的,但前提是必须给予足够的重视,而且必须有这样的意愿。无论我们下一步决定做什么,开发商和公共决策者都必须 "做好承担后果的准备"。用神经科学家和作家阿尼尔-塞思的话来说就是"我们不仅要关注新形式的人工智能对我们的控制力,还要关注我们是否以及何时需要对它们采取道德立场"。

人工智能有可能让我们团结起来,应对环境挑战,改善公共卫生,提高工业效率和生产力。然而,它也越来越多地被用来巩固和维持分歧,加剧现有形式的不平等。优先考虑透明度和问责制是不够的。确实有必要采取合乎道德的立场。

尽管我们可能对人工智能带来的进步感到惊叹,但要真正实现有效的技术治理,就必须进行系统重置,以改善人类的生存条件。人工智能和支持它的技术社会系统不得压迫、剥削、贬低或操纵我们或环境。这不仅是对治理的挑战,也是承认每个人的社会和政治权利以及生命尊严的问题。

安雅-卡斯珀森(Anja Kaspersen)和温德尔-瓦拉赫(Wendell Wallach)分别是Carnegie Council for Ethics in International Affairs 的高级研究员和卡内基-威弘(Carnegie-Uehiro)研究员。 人工智能与平等倡议 (AIEI).

Carnegie Council 国际事务伦理委员会是一个独立的、无党派的非营利组织。本文所表达的观点仅代表发言者本人,并不一定反映Carnegie Council 的立场。

您可能还喜欢

2024 年 7 月 31 日 - 播客

负责任的人工智能与大型模型的伦理权衡,与 Sara Hooker 合著

在本期节目中,高级研究员安雅-卡斯珀森(Anja Kaspersen)与 Cohere for AI 的萨拉-胡克(Sara Hooker)讨论了模型设计、模型偏差和数据表示等问题。

2024 年 7 月 24 日 - 播客

人工智能与战争:军备控制与威慑的新时代》,与保罗-沙尔合著

高级研究员安雅-卡斯珀森(Anja Kaspersen)与新美国安全中心(Center for a New American Security)的保罗-沙雷(Paul Scharre)就技术与战争交叉领域的新问题进行了对话。

2024年7月2 日• 播客

控制论、数字监控和工会在技术治理中的作用,与Elisabet Haugsbø合著

高级研究员 Anja Kaspersen 与技术联盟 Tekna 主席 Elisabet Haugsbø 就她的工程之旅、AI 时代的弹性等进行了交谈。