在人工智能方面,新出现的情况是政府处于治理制度的顶点。欧盟委员会(EC)最近宣布的《人工智能法》等举措就表明了这一点。然而,数字时代真正可持续的框架需要全方位的利益相关者来解决人工智能治理和政策问题。在这一过程中,让最脆弱的群体发出自己的声音至关重要。同样至关重要的是,"大科技 "的利益应与人类利益保持一致,特别是在确保人工智能不会损害人权方面。这将带来一个更美好的社会;一个建立在信任基础上并乐于接受创新的社会,一个同时增进技术公司及其服务的社会福祉的社会。以下是关于如何推进这一目标的三项建议。
首先,要使科技公司的利益与建立公平公正社会的愿望相一致,我们必须利用供求关系这一基本原则。乔治-弗洛伊德谋杀案发生后,21 世纪的 "取消文化 "席卷而来,要求重视黑人和棕色人种的人权,并威胁说如果不满足这些要求,将对他们进行严厉的经济惩罚。大公司意识到,对社会正义和无效的公共政策不闻不问是多么危险。人们对其自由被剥夺的觉醒与不公正的经济代价相一致,导致企业迅速关注通过问责制、响应式权威和包容性等视角进行治理。虽然现在还为时尚早,但人们已经意识到,这些变革将成为企业战略以及未来社会活动的永久核心。因此,当务之急是,人们能够认识到自己的人权,比如隐私权,在数字空间受到了前所未有的威胁,并以类似于在现实世界中对 "偷窥 "和跟踪等侵犯隐私行为的愤怒程度来应对。
其次,数字技术的使用者必须对自己的偏见如何导致他们所抱怨的不平等现象负责。我们的偏见反映在我们的搜索、我们使用的术语以及我们的点击上。这些选择正在训练算法来感知我们的价值,并在日常使用技术的过程中,以不利于我们自身利益的方式延续我们的偏见。
第三,为了进一步推动其他两点,数字扫盲必须成为正规教育系统的优先事项,并成为终身学习的一部分。人们必须有能力享受人工智能技术带来的好处,同时能够发现并抵制算法偏见和操纵等危害。数字扫盲也必须被视为包容性人工智能治理的支柱。否则,让不了解情况的弱势人群参与治理只是象征性的,与他们根本不参与治理相比,没有更大的价值。
Pia-Milan Green 是Carnegie Council"人工智能与平等倡议 "的研究员。