人工智能代理(Agentic AI)是一种能够独立规划和执行多步骤流程的人工智能系统,近年来由于生成式人工智能的兴起而变得更加突出。生成式人工智能模型,尤其是大型语言模型,可以解释文本和创建回复,使人工智能代理(如聊天机器人)能够模仿人类属性和对话,甚至比几年前更有说服力。
这些新能力催生了大量新颖的应用--尤其是在政治审议领域--使代表和非政策制定者都能考虑人工智能代理的三种角色:
- 人工智能支持人类之间的讨论;
- 人工智能作为混合审议的参与者(人类也在场);以及
- 人工智能替代人类审议(在人类缺席的情况下)。
如今,使这些角色得以实现的新工具和新举措正在部署之中,其中包括免费在线平台pol.is和联合国政治与建设和平事务部(UN-DPA)的数字和平对话,这两个平台都赋予了人工智能代理以调节作用。
审议的演变:从模拟到互联网和人工智能
即使在生成式人工智能兴起之前,审议过程(允许众多参与者通过对话讨论并形成自己的想法,最终汇聚成一个共同的决定)在过去几十年中也受到了新技术的严重影响。
1967 年,德国政治哲学家于尔根-哈贝马斯出版了 公共领域的结构转型他批评当时的信息技术--电视和广播--破坏了公共对话,因为它们创造了单向的信息传播工具,人们只能接受观点,而不能贡献观点。然而,随着互联网和社交媒体的出现,这一趋势得到了扭转,拥有数字连接的人们可以更加独立地分享他们的想法。
由此开启了一个时代,无论好坏,互联网都为围绕政治问题的辩论和对话提供了一个充满活力的空间。新的参与障碍出现了,从数字扫盲到连通性,新的审议挑战也出现了,从两极分化加剧到网络回声室的发展。
我们现在面临一个新问题,即人工智能模型正式或非正式地参与 审议过程,以及这对社会决策意味着什么,特别是在制定全球规范和目标时。
政治中的正式和非正式审议
这里有两类政治决策过程值得注意。
首先是正式的审议过程,通常与政府决策有关。对于非政策制定者来说,可以采取与政府代表举行市政厅会议的形式,也可以采取公民大会的形式,这两种形式的目的都是收集选民需求和想法方面的信息,以便更好地调整当选官员的决策。公民大会(如 2020 年法国气候问题公民大会)提供了一种结构,根据议事理论家的观点,在这种结构中可以产生最佳结果。这些结构化对话使用专家简报、工作组、主持人和投票等工具。市政厅的结构通常较为简单,包括民选代表或候选人的演讲,以及与选民的问答。
而非正式讨论则是指在更广泛的范围内形成政治舆论的讨论,没有特别的设计或针对性。它们可以包括社交媒体上围绕政治话题的讨论、博客或新闻文章的评论线程,或对时事的视频评论。在线讨论通常会像网络一样传播,人们会对特定政治话题进行转贴、评论、点赞并提供原创内容。
当然,非正式讨论在塑造公众舆论方面要比正式讨论有效得多,但它们往往没有通向政策行动的明确途径。政治学家简-曼斯布里奇(Jane Mansbridge)将此称为 "日常对话",她解释说,通过前后对话,人们可能更愿意改变想法,因为在这种对话中,人们的防卫心理会减弱,情感和经验也能更自然地融合在一起。然而,非正式的讨论可能会造成闭环,使好的想法无法传达给决策者。
新出现的人工智能代理角色及其影响
人工智能代理开始被有意地用于正式场合,以应对当前审议中的一些挑战,如允许大规模审议、克服语言障碍、监控对话中的有害行为以及引导参与者取得明确的结果。然而,人工智能代理也有意无意地出现在非正式商议中。事实上,人工智能聊天机器人在社交媒体中并不是什么新鲜事物,近十年来,无论是出于善意还是有害的原因,人工智能聊天机器人都已被部署。如今的区别在于,人工智能代理更有说服力、用途更广、更容易创建。
人工智能代理的这些不同用途导致了不同层次的道德灰色地带,需要越来越多地加以解决。
作为审议工具的人工智能有可能操纵审议过程,例如在总结时歪曲观点、不适当地监控评论或遗漏后续行动要点。作为参与者的人工智能代理可能会用不恰当或有害的观点 "污染 "审议过程,从而导致负面的社会结果。当然,仅由人工智能代理进行的审议,即没有人类的审议和 "数字双胞胎 " 之间的审议,也会带来一些重大问题,即人类在塑造我们所生活的社会中丧失了能动性,以及在发展和加强我们的社会结构中丧失了对话的益处。
下表概述了各类人工智能代理的一些主要用途和伦理问题。
审议类型 | 人工智能代理类型 | 主要用途 | 伦理问题 |
---|---|---|---|
正式 | 主持人 | 总结要点、翻译、指导与会者取得成果。 | 遗漏某些参与者,结果错误或有偏差。 |
正式 | 参与者 | 在审议中代表被排除在外的声音。 | 被 "取代 "群体的陈述失实,缺乏代理权,无法从审议中获益。 |
正式 | "双胞胎" | 测试观念和想法,例如民众对政策变化的潜在反应。 | 被 "取代 "群体的陈述失实,缺乏代理权,无法从审议中获益。 |
非正式 | 主持人 | 内容推荐、广告。 | 信息孤岛和回音室、两极分化、操纵。 |
非正式 | 参与者 | 影响(可以是虚假信息,也可以是某些原因)、内容聚合(例如,机器人转发某个话题)。 | 操纵,尤其是当人类参与者不知道聊天框是人工设置的时候。 |
非正式 | "双胞胎" | 如果聊天机器人能相互 "交谈",那么数字双胞胎的非正式讨论就有可能发生。 | 对此,各方看法不一,有些人认为聊天机器人的非正式对话可能会对审议产生积极影响,而另一些人则担心,如果没有约束,聊天机器人可能会采取任何有害行动。 |
意识到这些伦理挑战可以恢复人类失去的部分能动性,特别是如果在正式和非正式讨论中都有意识地进行设计选择的话。
慎思过程是人类交流思想和塑造所处社会的自然手段。可以说,人工 "思想家 "的加入并不简单,但如果能够理解和应对风险,在某些情况下,负责任地使用人工 "思想家 "是可能的。在未来几年里,随着决策者和普通公众向新一轮可持续发展目标(SDGs)迈进,并利用多边论坛来应对众多全球挑战,这个问题就显得尤为重要。
随着代理人工智能应用的增加,研究人员和政策制定者必须探讨这些自主人工智能系统如何影响我们的想法和政治决策,然后就人工智能治理的伦理原则达成一致。
Eleonore Fournier-Tombs 是 联合国大学政策研究中心 联合国大学政策研究中心(UNU-CPR) 的预测行动与创新负责人。
Carnegie Council 国际事务伦理委员会是一个独立的、无党派的非营利组织。本文所表达的观点仅代表作者本人,并不一定反映Carnegie Council 的立场。