在绘制人工智能与平等的图谱时,我们可以对人工智能进行大致的分类,这些分类可以突出显示人工智能如何影响人与人之间的关系,以及人与我们共同的环境之间的关系。本系列博文旨在为进一步思考和反思提供素材。
迄今为止,人们主要关注的是人工智能如何强化现有形式的偏见,包括与种族、性别和残疾有关的偏见,这些偏见导致了不公正和不公平的待遇,并限制了机会。我们所说的偏见是指使个人或群体处于不利地位或无能为力的偏见或对事实的歪曲。正义和公平(经常互换使用)可以广义地理解为不带任何偏见地给予每个人应有的待遇。
不幸的是,现有的性别、种族、民族、教育和阶级等方面的不平等往往被植入到人工智能应用的设计和部署中。例如,人类社会和进程中固有的偏见往往会在被分析的现有数据中重现,因此也会反映在算法的输出和系统的运行方式中。尝试使用算法对被判有罪的个人进行判刑,已被证明会复制和强化现有的偏见,如种族和社会阶层的偏见(《人工智能、司法与法治》, AIEI Podcast,Renee Cummings 撰写)。
虽然算法偏差现已得到广泛认可,但对解决和改善其影响的有效手段的研究才刚刚开始。人工智能伦理学家尤其关注在可能造成社会影响的领域部署有偏见和不准确的人工智能工具。执法部门使用的人脸识别软件,是将一张人脸照片上的数据点与数据库中的人脸进行匹配的软件,它提供了相当大比例的假阳性结果,往往对我们中处境较差的人不利。(乔伊-布奥兰维尼、蒂姆尼特-格布鲁,《 第一届公平、问责和透明会议论文集》,PMLR 81:77-91, 2018。另见Anita Chabria, "美国公民自由联盟称,面部识别软件将五分之一的加州立法者误认为罪犯",《洛杉矶时报》,2019 年。)因此,加利福尼亚州禁止执法机构和执法人员安装激活和使用任何形式的生物识别监控系统。(https://californiaglobe.com/articles/governor-newsom-signs-bill-banning-facial-recognition-technology-in-police-body-cameras/)遗憾的是,在公共和私营部门使用有偏见的算法的现象仍在继续,而且往往不被人们所认识。
尽管如此,目前和未来人工智能驱动的应用如何减少不平等和贫困的例子不胜枚举。PULA 是非洲一家为小农服务的保险公司。PULA 要应对的挑战是,非洲每十年左右就会发生一次旱灾,导致农作物歉收,许多农民不仅一贫如洗,而且无法为下一个播种季节购买种子或化肥。PULA 与种子和化肥公司合作,在每次购买种子和化肥时捆绑一份保险。农民通过手机注册保单。
然后,PULA 利用深度学习算法对云层覆盖进行分析,以确定哪些地区降雨量不足,无法确保作物健康生长。这些地区的农民会自动收到一张证书,用于兑换下一个播种季节的种子和化肥。随着手机的普及和深度学习算法的出现,PULA 解决了为传统方式无法投保的贫困农民提供低成本保险的问题。截至本文撰写之时,PULA声称已为 510 万农民投保,并处理了大约 3900 万份索赔,而且这些数字还在持续上升。
像 PULA 这样的故事确实令人振奋,经常被引用来支持人工智能应用的广泛部署,即使它们可能会重现偏见或破坏隐私。迄今为止,我们仍不清楚,人工智能应用(无论是旧的还是预期的)能够改善不平等现象的积极方式,是否真正证明了人工智能可能加剧不平等现象的多种方式是合理的。
Anja Kaspersen 是Carnegie Council of Ethics in International Affairs 的高级研究员。她曾任日内瓦联合国裁军事务厅主任和裁军谈判会议副秘书长。此前,她曾担任红十字国际委员会(ICRC)战略参与和新技术负责人。
温德尔-瓦拉赫是耶鲁大学跨学科生物伦理学中心的顾问、伦理学家和学者。他还是林肯应用伦理学中心(Lincoln Center for Applied Ethics)的学者、伦理学与新兴技术研究所(Institute for Ethics & Emerging Technology)的研究员以及黑斯廷斯中心(The Hastings Center)的高级顾问。