为什么说 "软法律 "是解决人工智能节奏问题的最佳途径?

2021 年 9 月 29 日

当快速发展的技术对社会的影响太快,政府无法通过法律法规保护人们时,就会出现 "步调问题"。

法律法规是 "硬法律"。相比之下,软法律指的是在法律上无法直接执行,但有时却能产生实质性义务的措施。这方面的例子包括指导方针、成套原则、行为准则、私人标准和合作伙伴计划。在许多行业,硬法律和软法律并存。

人们对软法律在人工智能中的作用仍持怀疑态度。有些人认为,我们必须有硬法律来保护人们,我理解其中的原因:看看科技巨头近年来的行为,很难说我们可以或应该相信它们会自我约束。

然而,怀疑论者往往忽视的是,自律确实可以成为软法律的一部分,但它远非全部。其他软法律方法可以更有力度,产生更大的影响。干细胞研究就是一个例子:如果你想在任何顶级学术期刊上发表文章,就必须证明你遵守了干细胞研究的标准。事实证明,这是在实践中执行标准的强大动力。

我与亚利桑那州立大学法律、科学与创新中心(Center for Law, Science & Innovation)的同事卡洛斯-伊格纳西奥-古铁雷斯(Carlos Ignacio Gutierrez)一起,一直在研究这样的例子,以发现哪些效果好,哪些效果不佳,哪些效果较差。我们在一个公开数据库中汇编了 634 个人工智能软法律项目。这些软法律程序来自世界各地,包含跨行业、跨领域的程序。我们对每个程序进行了分析,并根据 100 多项标准对其进行了测试。

我们发现,约有三分之二的国家没有提供任何公共机制来确保该计划能够兑现承诺。因此,软法律肯定不是负责任地使用人工智能和邻近技术的灵丹妙药。然而,当我们根据过去和当前的成功经验,将其转化为未来的学习成果时,有两个因素使软法律方法更加有效:可信的间接执行机制和合法性认知。干细胞的例子就说明了这两点。

即使我们在理想情况下更倾向于硬法方法,但节奏问题意味着等待立法轮子转动是不合理的,也是不负责任的。纳米技术为我们提供了一个例子:15 年前,我曾参与过一些讨论,当时一些人坚持认为只有硬法才能管理纳米技术,而如今美国仍未出台专门针对纳米技术的硬法。

软法律的最大缺点是无法直接在法律上强制执行,但与硬法律相比,软法律有许多优点。它更加灵活,适应性更强。软法律更容易进行试验,看看哪些有效,哪些无效。软性法律具有规范性和跨界性,而硬性法律往往在达成一致意见和谅解之前就过早颁布,并受到国家管辖范围的限制。

各国政府都意识到了这些优势:我们数据库中的一个惊喜是,我们意识到有多少软法律范例是由公共机构建立和领导的。人们通常认为软法律是由非政府实体主导的:公司、非政府组织或其他基础广泛的利益相关者机构。虽然这种情况确实存在,但在大多数情况下,是由政府建立软法律机制,因为政府认识到软法律机制在速度和灵活性方面的优势。

自动驾驶汽车就是一个例子:十多个国家的政府已经制定了开发自动驾驶汽车的指导方针,告诉企业他们希望自动驾驶汽车如何运行。在这种情况下,软法律,如各种标准制定组织制定的私人标准,有可能有效发挥作用,因为公司希望避免政府转而制定正式法规,因为正式法规可能会带来更多成本和限制。

尽管如此,软法律往往会以其他方式导致硬法律。当一套原则在一个行业中得到广泛认可时,法院就可以决定让公司对因不遵守这些原则而造成的损害承担责任。保险公司拒绝承担法律责任,可以有力地促使公司遵守软法律准则。

人工智能给软法律带来了特殊的挑战。首先,它的黑箱性质使其更难实现透明度。其次,理解上的障碍使得让利益相关者进行有意义的参与更具挑战性。

第三,当每家公司都有动力遵守准则时,准则就能发挥更好的作用--例如,这样他们的产品就能与其他产品互通,或者因为他们看到了声誉上的好处。人工智能带来了更复杂的挑战,即如何让公司遵守会损害其利润的准则,比如不部署操纵人的方法。

软法律固然有其挑战,但硬法律也有许多弱点和局限性,尤其是对于像人工智能这样快速发展的多样化技术而言。温斯顿-丘吉尔(Winston Churchill)曾说过,民主是除其他所有形式之外最糟糕的政府形式。软法律远非一个完美的工具,无法应对将人工智能嵌入我们的民主和社会结构所带来的所有挑战--但从实际情况来看,软法律可能是除其他所有形式之外最糟糕的治理形式。

Gary Marchant 是亚利桑那州立大学(ASU)法学教授兼法律、科学与创新中心主任。他的研究兴趣包括基因组学和个性化医疗的法律问题、环境监管中基因信息的使用、风险和预防原则,以及纳米技术、神经科学、生物技术和人工智能等新兴技术的管理。

您可能还喜欢

2024 年 4 月 30 日 - 播客

乔安娜-布赖森:人工智能只是一种人工制品吗?

在本期节目中,主持人安雅-卡斯珀森(Anja Kaspersen)将与赫蒂学院的乔安娜-布赖森(Joanna Bryson)一起讨论计算科学、认知科学、行为科学和人工智能的交叉学科。

危险大师》一书封面。CREDIT: Sentient Publications.

2024 年 4 月 18 日 - 文章

危险的主人欢迎来到新兴技术世界

在这篇为《危险的主人》一书平装本所写的序言中,温德尔-瓦拉赫讨论了人工智能和新兴技术的突破和伦理问题。

2024 年 3 月 22 日 - 播客

人工智能管理的两个核心问题,与 Elizabeth Seger 合著

在本期 "人工智能与平等 "播客中,卡内基-上广研究员温德尔-瓦拉赫(Wendell Wallach)和 Demos 的伊丽莎白-西格(Elizabeth Seger)讨论了如何让生成式人工智能变得安全和民主。