人工智能问责制

定义和介绍

人工智能问责制是指在开发、部署和使用人工智能时,应将不良后果的责任分配给责任方。 由于机器学习和深度学习系统的不透明性和复杂性、创建和实施人工智能产品通常涉及的利益相关者数量,以及该技术的动态学习潜力,人工智能技术往往牵涉到问责问题。

人工智能系统经常被批评为 "黑盒子",这意味着用户无法完全解释或理解其输出结果背后的过程。如果无法解释或理解人工智能的决策,就很难对有害的产出分配责任和追究当事人的责任。

如需了解有关人工智能问责制的更多信息,请浏览下面的资源库。

失去透明度、可追溯性和问责制

"大型语言模型(LLM)是在封闭环境中开发的难以捉摸的随机系统,通常由不愿意分享其架构信息的公司开发。这就很难知道系统是如何以及为什么会产生特定的输出结果。这反过来又使我们难以追踪系统输出可能产生的危害的原因,并追究相关人员的责任"。

下载公报,进一步了解在外交中使用法律硕士的利弊得失。

下载公报

人工智能问责资源

2022 年 10 月 6 日 - 播客

人工智能促进信息无障碍:伦理与哲学,与 Emad Mousavi 和 Paolo Verdini 合著

Emad Mousavi 和 Paolo Verdini 讨论了人工智能背后的伦理和哲学。他们谈到了伦理机器人项目,并探讨了问责问题。

2020年6月8日 - 播客

神秘的机器:国际安全中的人工智能伦理之路》,与阿瑟-霍兰-米歇尔合著

我们该如何学会信任人工智能系统?在大流行病后的世界里,各国都面临着大规模抗议活动,这项技术会带来哪些影响?

讨论问题

  1. 为什么人工智能系统的透明度很重要?
  2. 当人工智能系统出错时,谁应该承担责任?
  3. 人工智能开发者应在多大程度上对其所创建系统的意外后果负责?
  4. 公司在使其人工智能系统具有可解释性方面有什么责任(如果有的话)?
  5. 我们怎样才能让复杂的人工智能系统更容易被解读,在这个过程中,教育应该发挥什么作用?
  6. 开发人工智能系统应遵循哪些伦理和技术原则,以防止人工智能问责问题?
  7. 如果可以的话,如何规范人工智能问责问题?
  8. 在医疗保健和刑事司法等关键领域,人工智能的可解释性有多重要?

人工智能国际治理框架

鉴于生成式人工智能应用的快速发展,Carnegie Council 国际事务伦理与电气和电子工程师学会(IEEE)根据 2023 研讨会上讨论的观点,共同开发了这一框架。

该提案 "旨在激发人们更深入地思考我们从推广和管理现有技术中学到了什么、需要什么以及下一步该怎么走"。

阅读框架

其他资源

城市如何利用公共采购的力量实现负责任的人工智能

卡内基国际和平基金会(Carnegie Endowment for International Peace)分析了加利福尼亚地方政府如何将传统上平凡的职能转变为战略杠杆。

阅读

为人工智能系统开发问责机制对开发值得信赖的人工智能至关重要

美国进步中心就美国国家电信和信息管理局 (NTIA) 的人工智能问责政策提交了一份公开意见。

阅读

自动决策的道德、透明和问责框架

英国政府发布了一个七点框架,以帮助政府部门合乎道德地使用人工智能决策系统。

阅读

IBM 人工智能设计 | 问责制

IBM 认为,"每一个参与人工智能创造的人都有责任考虑该系统对世界的影响,投资开发该系统的公司也是如此"。

阅读