外交中的人工智能

大型语言模型 (LLM) 与外交

强有力的多边行动依赖于各国接收、处理和生成大量书面文本的能力。决议、备忘录、公报、主席报告、誊本等等;处理和生成如此大量的文本是一项艰巨的任务,许多缔约方可能经常会感到乏味和重复。因此,如果某些缔约方还没有使用大型语言模型来支持他们在这一领域的工作,那么他们使用大型语言模型的强烈冲动也就在情理之中了。

这种做法会带来哪些道德上的权衡?

下载公报

权衡利弊的建议

卡内基伦理加速器召集了来自外交组织、学术界和民间社会的专家,进一步分析这些权衡,并制定了一系列管理这些权衡的建议。

外交实体如何应对采用法律硕士所带来的透明度、不平等和技能淡化等问题?

阅读单页资料

关于外交中的人工智能的伦理加速器会议

讲习班 1

2023 年 11 月 8 日
Carnegie Council
纽约州纽约市

讲习班 2

2024 年 3 月 19 日
Carnegie Council
纽约州纽约市

电脑屏幕上的 ChatGPT 主页

图片来源:Jonathan Kemper(Unsplash)

预测人工智能在外交中的应用情景

如果外交实体在翻译、研究和预测任务中采用 LLM,我们可以期待什么样的结果?影响使用 LLM 是否有效的关键技术、经济、社会、文化(等)因素是什么?

卡内基伦理加速器的三位参与者评估了六种不同的人工智能情景的驱动因素和可能性。

阅读文章