如果 "信任是必须的",那么人工智能监管机构需要做的三件实事是

2022 年 1 月 27 日

"欧盟委员会数字事务主管玛格丽特-维斯塔格(Margrethe Vestager)在发布期待已久的欧盟人工智能(AI)规则的声明中宣称:"在人工智能方面,信任是必须的,而不是可有可无的。她说得没错。欧盟提出的新规则和行动对于通过确保在使用人工智能时维护平等、道德和人权来赢得公民信任至关重要。但是,需要被视为值得信赖的不仅是技术,治理体系本身以及应用该体系的监管者也需要赢得公众的信任。

在全球范围内,人们对 COVID-19 疫苗管理的态度表明,管理作为信任的基础越来越受到公民的重视,在消除疫苗犹豫不决方面,对审批流程的信任与对疫苗本身的信任同等重要。

英国政府数据伦理中心(Centre for Data Ethics)在其 COVID-19 存储库和 2020 年公众态度审查中发现,"对技术管理规则和条例的信任是预测人们是否相信数字技术在 COVID-19 应对措施中发挥作用的最大因素"。与人们对大流行病的关注程度或对技术有效的信念等态度变量以及年龄和教育程度等人口变量相比,这种对管理的信任具有更强的预测能力"。

但是,世界各地的监管机构需要做些什么才能被视为值得信赖,从而赢得公众对其做法的信任呢?TIGTech 最近对 "信任与技术管理"的研究发现了三个关键因素,它们可能会有所帮助:

1.确保有效执法

我们的研究表明,当公民看到治理正在发挥作用时,他们对治理的信任度最高--当治理机构明显站出来维护公共利益、捍卫价值观、执行法律、惩罚组织、公布违规行为时。如果公众认为监管机构更关注科技发展的顺利进行,并将财务问题置于道德、社会价值观和人权之上,那么他们就最有可能失去信任。

与对争议较少的领域大开绿灯相比,拟议的《欧盟人工智能法》在促进创新和维护欧洲价值观之间试图划清界限,是真正的创新之举,它明确指出了需要特别关注的 "不可接受 "和 "高风险 "应用。但是,由 110 多个民间社会组织组成的联盟 "立即获取"(Access Now)等评论家呼吁,人工智能的风险分配标准、提供者和使用者应更加透明,违规者应承担更明确的责任,受人工智能影响的人们应享有有意义的补救权。这些都将有助于证明该法案是值得信赖的。

主要的执行机制是对科技公司处以巨额经济处罚,最高可达全球营业额的 6%,评估主要依靠自律。这是否足够?从历史上看,即使是巨额罚款也往往被视为 "经营成本",而自律往往会使行为在很大程度上保持不变。

随着这一新法律框架的实施,各成员国可能需要考虑其他更有创意、更有效的方法,而不仅仅是罚款,以确保这一法规能起到让公司承担责任的作用,从而赢得公民的信任。

2.更加人性化、开放、善于沟通

当人们对监管机构有更多了解时,他们会对监管更有信心。PA Consulting 的报告《反思监管机构》显示,以英国为例,82% 的人在听说过监管机构后会感到更有保障,67% 的人希望更多地了解监管机构的工作。

根据这一新的法律框架,各成员国必须指定一个或多个国家主管机构,在国家层面执行法规。重要的是,要相信他们会广泛宣传这些机构是谁,他们负责什么,并鼓励他们更多地公开他们是如何工作的,他们做了什么,以及他们的方法是如何生效的。尽管有些人感到不自在,但如果监管机构的代表被点名和公开,并在社区和媒体上谈论他们所做的工作、工作的效果以及效果不佳的情况,则会特别有帮助。

在探讨公民对监管机构信任度的对话中,"少一点冷漠、多一点开放、多一点人情味 " 是一个反复出现的主题;他们应该从监管机构的网站做起。英国最值得信赖的两个监管机构--食品标准局和人类受精与胚胎管理局--拥有最容易访问、信息量最大的网站,这肯定不是巧合。它们以通俗易懂的语言编写,清楚地说明了自己的工作,并证明了它们在履行职责时的开放性、可及性和包容性。

3.增强我们的能力,与公民建立包容性关系

欧盟《人工智能法》不允许将公民和最终受人工智能影响者的观点和价值观纳入其职权范围。正如英国阿达-拉芙蕾丝研究所(Ada Lovelace Institute)关于加强《人工智能法》的建议 所指出的那样,该法不允许个人以任何实质性的方式对人工智能系统侵犯基本权利的行为进行投诉或质疑。

我们在 "信任与科技治理 "方面的工作表明,让公民参与制定复杂的伦理决策和法规是信任的重要推动力。这不仅是因为,正如研究强调的那样,公民"更有可能信任一个受普通人影响的决策,而不是一个仅由政府或闭门造车做出的决策";甚至还因为,决策中纳入的观点越多元,判断就越明智,还因为公民的参与和赋权赋予了治理设计过程更多的民主合法性,从而使其更值得信赖。

如果信任真的是必须的,那么欧盟及其他地区的人工智能监管机构可能需要与公民建立一种新的、更具包容性的关系;让公民直接或通过公正的中介机构参与到复杂的伦理判断中,这样才能让人工智能为我们所有人服务,同时又不会造成更多问题。在英国,公民生物识别技术委员会(Citizen Biometrics Council)就是这方面的一个实例,该委员会将直接为英国面部识别技术的政策和管理提供信息。

这三个重要考虑因素将大大有助于赢得公民对人工智能治理的信任,进而赢得他们对人工智能多种应用的信任。它们还将转变监管机构的角色,正如 PA 咨询公司所建议的那样,将监管机构从"行业的监督者转变为公众的拥护者"。委员会的新规则正在为这一角色铺平道路,但只有当成员国和其他国家的监管机构通过有效执法和有意义的参与来成功维护公众利益,帮助人工智能发挥其造福社会的潜力时,这些规则才会有效。


Hilary Sutcliffe,SocietyInside,科技治理信任计划主任,www.tigtech.org

您可能还喜欢

2024 年 4 月 30 日 - 播客

乔安娜-布赖森:人工智能只是一种人工制品吗?

在本期节目中,主持人安雅-卡斯珀森(Anja Kaspersen)将与赫蒂学院的乔安娜-布赖森(Joanna Bryson)一起讨论计算科学、认知科学、行为科学和人工智能的交叉学科。

危险大师》一书封面。CREDIT: Sentient Publications.

2024 年 4 月 18 日 - 文章

危险的主人欢迎来到新兴技术世界

在这篇为《危险的主人》一书平装本所写的序言中,温德尔-瓦拉赫讨论了人工智能和新兴技术的突破和伦理问题。

2024 年 3 月 22 日 - 播客

人工智能管理的两个核心问题,与 Elizabeth Seger 合著

在本期 "人工智能与平等 "播客中,卡内基-上广研究员温德尔-瓦拉赫(Wendell Wallach)和 Demos 的伊丽莎白-西格(Elizabeth Seger)讨论了如何让生成式人工智能变得安全和民主。