"对思维机器的研究能让我们了解更多关于大脑的知识,而这些知识是我们无法通过内省的方法学到的。西方人正以小工具的形式将自己外化"。- 威廉-巴勒斯,《裸体午餐
我们正在经历二战以来最大的难民危机之一。据联合国难民署(UNHCR)称,在俄罗斯入侵乌克兰的几周内, ,超过 400万人逃离乌克兰。尽管国际媒体的注意力都集中在东欧,但这是在全球南部已经十分严峻的形势之上发生的:据估计,在全球约 8 240 万难民中,该地区国家吸收了三分之二。
东欧和全球南部的情况是,大量人口匆忙跨越边境,寻找庇护所和保护,并需要在目的地国有尊严地逗留的基本条件。这是一个极具挑战性的局面,但新技术已经帮助了那些抵达者和接收移民者。技术可以帮助东道国管理大量信息,为其安全和越境者的安全做出重要决策。技术还在许多方面帮助了移民,例如获得实时地理位置、通过在线房地产租赁公司获得免费住宿和加密货币捐赠;以及对抗互联网停电和假新闻。
人工智能(AI)技术有可能缓解诸如我们 2022 年初在乌克兰以及多年来在全球南部观察到的情况。随着形势的不断发展,利用义务论和功利主义的视角来思考在移民背景下使用人工智能的利弊是一项有益的工作。
人工智能、伦理与移民
近年来,人工智能在移民周期中的应用越来越多,这是不争的事实。自 2020 年以来,由于 COVID-19 大流行,人工智能在移民领域的应用加快了速度,以便各国监控边境,表面上看是帮助阻止病毒的流动。人工智能技术还被用于身份验证、审议签证申请和其他行政决策、边境管理,以及利用算法分析移民造成问题的可能性。然而,不加区分地使用人工智能技术给公共政策管理者和移民都带来了挑战,包括可能对人权保护产生不利影响,如歧视和侵犯隐私。
移徙危机的历史表明,大部分移徙者的现实情况都很脆弱,寻求庇护者和难民、流离失所者、儿童(尤其是失散儿童和孤身儿童)、妇女、因种族和族裔而受迫害的少数群体以及男女同性恋、双性恋、变性人和跨性别者都是如此。他们的脆弱性可能减轻,也可能加剧,这取决于在移徙过程中如何使用人工智能。
最后,我们认为移民决定存在两个极端。一边是移民的人权,另一边是接收国的国家安全。我们承认,国家有权决定如何以最佳方式管理其境内的移民潮。然而,我们也强调,这种权力并非没有限制。它受到国际人员流动制度成员国自愿通过的国际人权准则的限制。
在移民领域使用人工智能的实例
人工智能在移民领域的应用越来越频繁,也越来越全面。在美国,"极端审查倡议"(Extreme Vetting Initiative)是一个监测签证申请人和签证持有者社交媒体活动的项目,以评估他们是否会对社会做出积极贡献。由于有人批评该项目可能会提供不可靠的信息,侵犯网络言论自由权,美国终止了该项目的机器学习部分。在新西兰,算法根据移民的年龄、性别和种族来检测可能不受欢迎的人。在欧盟,利用人工智能技术运作的测谎仪iBorderCtrl 已被用于在机场对乘客进行筛查。希腊正在测试用于监控难民营的Centaur 系统,该系统基于算法预测和报告潜在的安全威胁。 马来西亚通过无人机核查入境限制措施的遵守情况。美墨边境使用的监控技术与移民死亡人数增加有关,因为移民试图躲避监控,最终选择了更危险的路线。2020 年,欧盟 "地平线 2020 "研究与创新计划资助了Roborder项目。该项目尚未投入运行,但其目标是开发一个完全自主的边境监控系统,能够识别边境上的犯罪活动。
道义论 x 功利主义
为了更好地思考移民和人工智能问题,我们回到关于人工智能使用的道义论和功利主义哲学视角。
功利主义者认为,如果人工智能能够产生比人类更好的结果,就应该利用它来实现收益最大化。例如,机器人在决定移民身份时会为国家带来更大的安全。根据这一观点,技术可以实现快速、无偏见、准确和有数据支持的决策。因此,它可以减少决策过程中人类偏见和先入为主的可能性。即使少数人的利益会因为决策没有进行充分的评估判断而受到损害,但从更广泛的角度来看,决策也是有效的,因为它能使更多的人受益。从国家的角度来看,基于大量数据的快速决策可以更好地维护国家安全利益。因此,对于更多的人来说,人工智能的使用将使整个过程更加公平、安全和客观。因此,支持在移民管理中使用人工智能的论点主要是功利性的。
道义学家认为,即使人工智能可以提供比人类更好的结果,但从道德上讲,使用人工智能来执行人类固有的任务是不允许的。例如,使用算法来决定谁可以进入和留在一个国家,无论其后果如何,都是错误的。这一论点的根源在于,人的尊严源于两个承认自己是自由和权利拥有者的个体之间的互动。因此,不应该使用人工智能,至少是在某些需要评估的领域,因为人工智能缺乏了解整个个人和移民背景的能力,也无法衡量这种决定对移民生活项目的影响。
即使是出于善意,人工智能的使用也可能成为监视和压迫的工具。它的使用可能导致歧视性做法,侵犯隐私权、行动权和结社权。由于技术往往会复制数据库的偏见,这些偏见反映了不公平的社会做法,如种族主义和仇外心理,这些和其他形式的歧视很可能被人工智能系统复制。因此,从伦勃罗的角度来看,人们可以被归类为具有犯罪人格的人。
此外,开发算法的团队往往缺乏性别、社会阶层和种族的多样性,这增加了隐性歧视的可能性。通过访问和考虑你的社交网络、朋友和社区等,隐私权和结社权受到了侵犯。总之,人工智能无法理解不同移民现实的背景和细微差别。因此,在这个问题上,人工智能不应该拥有最终决定权。尽管如此,义务论的观点倾向于移民的人权。
最后的考虑
在考虑移民问题时,我们一方面要考虑国家安全,另一方面还要考虑移民的人权。到目前为止,在这些情况下使用人工智能唯一对移民有利的论点似乎就是有可能加快移民决策的速度。即使人工智能可以通过提供速度和国家安全来最大限度地提高福利,政府在移民问题上使用人工智能也必须基于人的尊严原则找到限制。
各国政府、学术界和民间社会必须讨论在移民问题上使用人工智能的问题,以避免过度使用并确保其有效利用。我们主张,在开发算法及其应用和评估过程中,必须纳入明确的人权概念。由不同性别、阶级、种族和民族血统的团队开发移民算法至关重要。算法使用前和使用过程中的审查机制以及问责程序必须成为这项技术使用的核心。