作为 在比利时布鲁塞尔举行的第 17 届国际计算机隐私与数据隐私(CPDP)年会的一部分, 迪奇雷基金会 迪奇雷基金会及其主任詹姆斯-阿罗约(James Arroyo)召开了一次研讨会,讨论人工智能(AI)和天基数据给个人隐私带来的风险和机遇。Carnegie Council 访问学者詹娜-马莱科斯-史密斯(Zhanna Malekos Smith)被选中介绍她在天基数据和伦理方面的研究。会议强调了人工智能如何推进人类出于多种目的收集、监控和分析外太空数据的能力。本文总结了人工智能支持的地球观测数据(又称天基数据)的潜在用途和误用方面的主要收获。
天基数据
天基数据是指从卫星、望远镜和空间探测器等仪器中获取的信息。一般来说,这类数据包括遥感数据、空间气象数据、卫星图像以及导航和通信数据。根据国家太空委员会用户咨询小组发布的2023 年白皮书《太空数据伦理》,这些数据主要用于了解宏观层面的现象。例如,对森林火灾、动物物种迁徙模式、城市交通状况、水位,甚至军队调动的观测。天基数据还可以包括个人行动的信息收集,这引起了人们对隐私的关注。
隐私和监控问题
一方面,通过人工智能收集和处理天基数据,可以提高各组织协调和向难民提供人道主义救援的能力。另一方面,白皮书警告说,"错误标注地球观测数据同样会造成不必要的偏差,从而产生有害影响,例如,错误地将一个人口稠密的地区标注为'贫民窟'或'难民营',可能会使其受到不应有的鄙视,甚至成为被铲除的目标"。借助机器学习和预测分析来研究难民人口,人们担心专制政权可能会利用这些信息来伤害那些逃离迫害的人。查塔姆研究所关于人工智能时代难民保护的报告指出,"庇护和难民保护将成为全球和国家人工智能治理的测试案例之一,也是能否实现符合人权的人工智能的测试案例之一"。
除了这些担忧之外,国家太空委员会的白皮书还解释说,卫星监控可以用来监视恐怖分子嫌疑人并拦截他们的太空通信,或者更简单地说,帮助农民通过精准农业管理土地。不过,白皮书提醒说,一般来说,使用地球上的技术监控个人比使用太空技术更具成本效益,在技术上也更可行。
为了促进公平和自主,同一份白皮书还主张美国推进一套新的道德规范,以保障个人隐私权并降低歧视风险。具体来说,作者建议"为了负责任地处理和共享空间数据,迫切需要开展工作,预测可能出现的危害--这些危害可能不同于普通的数据伦理失误--并专门为空间数据制定一个新的伦理框架"。
太空数据伦理
在 CPDP 国际讲习班期间,我曾向听众询问他们是否同意应制定一个全新的伦理框架来应对天基数据风险的主张。没有人同意空间数据需要一个新的伦理框架。相反,与会者对 "新模式 "的实用价值提出了质疑,并鼓励利用现有框架,在应用这一工具时确保人的尊严、监督和公平。
贝尔蒙特报告》就是一个在数据科学中使用已有伦理框架的例子,而不是重新发明轮子。1972 年,美国公共卫生生物医学丑闻涉及对死于梅毒的非裔美国病人进行研究的不道德做法,此后,美国国会成立了国家生物医学和行为研究受试者保护委员会。该委员会在加利福尼亚州贝尔蒙特召开会议,颁布了健康科学研究的三项伦理原则:(1) 尊重人;(2) 公正;(3) 惠益,以及知情同意。接着,1993 年,一群信息技术领导人在加利福尼亚州门洛帕克召开会议,提出了《门洛报告》。该报告以贝尔蒙特报告的三项原则为基础,又增加了几项原则,如:(1) 尊重法律,(2) 减少伤害,(3) 考虑利益相关者的观点,(4) 责任制。
在用户顾问组气候和社会效益小组委员会在下一届全国理事会上提出倡导一套 "新的 "数据伦理原则之前,先看看贝尔蒙特和门洛模型,看看有哪些不足之处,可能会更有帮助。如何将这些模式应用于太空领域?第 74 届国际宇航大会即将在意大利米兰举行,美国太空领导人可以在大会期间召开一个会外研讨会,与国际太空界更多的各界人士一起推动关于数据科学伦理原则的讨论。反过来,这也可以照亮如何在这种人工智能增强的能力下保护难民免受迫害。
Carnegie Council 国际事务伦理委员会是一个独立的、无党派的非营利组织。本文所表达的观点仅代表作者本人,并不一定反映Carnegie Council 的立场。