负责任的人工智能与大型模型的伦理权衡,与 Sara Hooker 合著

2024 年 7 月 31 日 - 64 分钟收听

在本期 "人工智能与平等 "播客中,高级研究员安雅-卡斯帕森(Anja Kaspersen)与Cohere 人工智能负责人萨拉-胡克(Sara Hooker)讨论了她在模型设计、模型偏差和数据表示方面的开创性工作。她强调了在构建和使用大型模型时了解道德权衡的重要性,并谈到了现代人工智能开发的一些复杂性和责任。

Responsible AI & Ethical Trade-offs AIEI Spotify link Responsible AI & Ethical Trade-offs AIEI Apple Podcast link

ANJA KASPERSEN: 随着人工智能(AI)不断重塑叙事和范式,我很高兴地欢迎萨拉-胡克(Sara Hooker)。萨拉是Cohere for AI 的创始人、研究副总裁和负责人,该研究实验室致力于解决复杂的机器学习(ML)问题,并开展探索未知领域的基础研究。在播客的文字稿中还可以找到萨拉令人印象深刻的简历链接、她的重要研究成果以及她探索机器学习的已知与未知的播客

欢迎您,萨拉。很高兴与您进行这次对话。

很高兴来到这里。

ANJA KASPERSEN:在我们深入探讨 "机器学习和人工智能的已知和未知 "的复杂性之前--或许可以顺便消除一些误解--你能分享一下是什么激励你进入这个领域的吗?是什么关键时刻或关键影响因素让您来到这里,并采用了我刚才提到的这种非常特殊的观点?

萨拉-胡克: 我的职业生涯一直以回答有趣的问题为动力。我是一名受过专业训练的计算机科学家,但我想说的是,即使是 Cohere 的人工智能,很多也是基于这样一种理念,即走在思想的前沿。

通常情况下,你必须用不同的方法来看待现有的组件,Cohere for AI 就是一个很好的例子。我们是一个混合实验室。我们有一个大型行业实验室,这在当今取得进展的方式中非常典型,尤其是在建立大型语言模型(LLM)方面,我们拥有大量的计算机和全职员工,但我们也有一个混合开放站点部分,在这里我们与不同领域的不同专家开展了大量合作。我一直同样感兴趣的是,是什么导致了突破,也许是什么人和空间的组合导致了有趣的想法。

今年早些时候,我们发布了一个多语种模型,该模型支持 101 种语言,这几乎完全是全球近 3000 名研究人员共同努力的成果。这真的很有趣,因为这就是我所说的一个非常大的科学项目,你必须在研究人员中达成共识,认为这是一个重要的问题。

您可能还喜欢

2024 年 7 月 24 日 - 播客

人工智能与战争:军备控制与威慑的新时代》,与保罗-沙尔合著

高级研究员安雅-卡斯珀森(Anja Kaspersen)与新美国安全中心(Center for a New American Security)的保罗-沙雷(Paul Scharre)就技术与战争交叉领域的新问题进行了对话。

2024年7月2 日• 播客

控制论、数字监控和工会在技术治理中的作用,与Elisabet Haugsbø合著

高级研究员 Anja Kaspersen 与技术联盟 Tekna 主席 Elisabet Haugsbø 就她的工程之旅、AI 时代的弹性等进行了交谈。

2024 年 6 月 27 日 - 播客

人工智能、军事伦理与意义炼金术士,与 Heather M. Roff 合著

高级研究员安雅-卡斯珀森(Anja Kaspersen)和海军分析中心(The Center for Naval Analyses)高级研究科学家希瑟-罗夫(Heather Roff)讨论了人工智能系统、军事事务等问题。