人工智能管理的两个核心问题,与 Elizabeth Seger 合著

2024 年 3 月 22 日 - 56 分钟收听

开源人工智能与完全由寡头公司控制的大型语言模型和其他形式的生成式人工智能,哪个更危险?开放建立人工智能生成模型的途径是否会让人工智能更加民主?还有哪些方法可以确保生成式人工智能的安全和民主?

卡内基-上广研究员温德尔-沃拉赫(Wendell Wallach)和 Demos 的 CASM 数字政策研究中心主任伊丽莎白-西格(Elizabeth Seger)在本期 "人工智能与平等"播客中讨论了这些问题以及更多内容。

如需了解 Seger 的更多信息,请阅读她最近发表的关于人工智能民主化的文章

Two Core Issues in AI Governance Spotify podcast link Two Core AI Governance Issues AIEI Apple podcast link

你好。我是温德尔-瓦拉赫。本期播客的嘉宾是伊丽莎白-西格(Elizabeth Seger),她是伦敦跨党派政治智库Demos 数字政策团队的主任。她还是剑桥大学 "人工智能:未来与责任 "项目的研究成员。我发现伊丽莎白的迷人之处在于,她已成为人工智能(AI)治理中两个最关键问题的思想领袖,这些问题将有助于确定人工智能是会促进平等还是会加剧结构性不平等。其中第一个问题是,大型人工智能模型,尤其是生成式人工智能,是否会因为潜在的危险而无法成为等同于开源软件的人工智能。

欢迎你,伊丽莎白

谢谢你邀请我。

WENDELL WALLACH:非常高兴邀请到您。请向我们解释一下,为什么人工智能、大型语言模型(LLM)和其他框架应该由大公司控制还是开放源代码是一个如此有争议的问题。

埃莉莎贝特-塞格: 围绕大型语言模型和高能力人工智能的开源争论已经成为一个大问题,而且极具争议性,因为这是一个巨大的控制问题。这是一个高风险的控制问题。

一方面,不对模型进行开源或允许大公司独占控制权,会使这些模型的控制权掌握在极少数大型科技公司手中,这样做可能会阻碍其他参与者参与到有望成为一个经济上非常有利可图和有益的人工智能产业中来。

另一方面,系统的开源可能会将这些系统的控制权交到坏人手中,而将功能强大的人工智能系统交到恶意行为者手中可能造成的破坏程度也令人担忧。

因此,我们双方都有一个巨大的控制问题,如果我们把问题搞错了,风险就很大。

温德尔-瓦拉赫: 我听你说过,你认为开源和企业控制之间的区别实际上是一种错误的二分法。请澄清一下。

Carnegie Council 国际事务伦理中心是一个独立的、无党派的非营利机构。本播客表达的观点仅代表发言者本人,并不一定反映Carnegie Council 的立场。

您可能还喜欢

2024 年 7 月 31 日 - 播客

负责任的人工智能与大型模型的伦理权衡,与 Sara Hooker 合著

在本期节目中,高级研究员安雅-卡斯珀森(Anja Kaspersen)与 Cohere for AI 的萨拉-胡克(Sara Hooker)讨论了模型设计、模型偏差和数据表示等问题。

2024 年 7 月 24 日 - 播客

人工智能与战争:军备控制与威慑的新时代》,与保罗-沙尔合著

高级研究员安雅-卡斯珀森(Anja Kaspersen)与新美国安全中心(Center for a New American Security)的保罗-沙雷(Paul Scharre)就技术与战争交叉领域的新问题进行了对话。

2024年7月2 日• 播客

控制论、数字监控和工会在技术治理中的作用,与Elisabet Haugsbø合著

高级研究员 Anja Kaspersen 与技术联盟 Tekna 主席 Elisabet Haugsbø 就她的工程之旅、AI 时代的弹性等进行了交谈。