现在,我们都明白使用互联网需要权衡利弊:我们让公司收集我们的数据,作为回报,他们则提供更个性化的用户体验。但如果我告诉你,这种权衡的长期弧度超出了你的想象呢?
我们在网上所做的一切都会产生数据,平台公司会仔细收集这些数据并进行分类,以创建数字档案。然后,他们的人工智能(AI)系统会将我们的数字档案与其他用户的数字档案关联起来,以确定我们在网上看到的内容:我们的搜索查询如何被解释,我们的社交媒体馈送中包含哪些帖子,我们会看到哪些广告,等等。
这种基于个人心理分析的微目标定位利用了 2002 年诺贝尔经济学奖得主丹尼尔-卡尼曼(Daniel Kahneman)所说的 "快速 "思维,即我们在不加思索的情况下快速做出的决定,比如是否点击一个链接、观看另一个视频、继续滚动我们的时间轴,或者放下手机。人工智能对我们的了解越多,就越能熟练地操纵我们的情绪和决策。
这种力量最明显的应用是广告,它是大多数在线商业模式的基础。个性化广告的理由是,它通过向我们展示最相关的购买选项,帮助我们避免决策疲劳。然而,这只有在我们想要购买时才有帮助。通常情况下,广告反而会诱使我们违背自己的判断,购买一些我们并不需要或买不起的东西。
为了向我们提供更多广告,算法首先需要吸引我们的注意力。最近的 Netflix 电影 大黑客和 社交困境探讨了其中的含义。其中之一是,这些算法倾向于向我们展示人工智能认为我们会同意的政治内容,而不是让我们考虑和参与可能有益的其他观点。
这样做的结果是,让每个人都觉得其他人的想法大多与自己相同,从而造成社会分裂。更隐蔽的是,经常保持我们的注意力还意味着向我们展示我们倾向于同意的观点的更极端版本,从而进一步分化人们。
2016 年,"剑桥分析"(Cambridge Analytica)公司的丑闻著名地展示了 Facebook 个人资料是如何被用来操纵人们的政治倾向的,方法是根据他们的个人弱点对他们进行微定位,提供错误信息。这种能力并未消失:最近,Facebook 的举报人弗朗西斯-豪根(Frances Haugen)声称,该公司仍在 "有意放大政治动乱、错误信息和仇恨",《麻省理工科技评论》的郝凯伦(Karen Hao)最近揭露了大型平台公司和科技巨头如何向所谓 "点击诱饵网页 "的运营者支付巨额资金,从而使这些裂痕变得更加严重。郝写道,在 "脸书是互联网代名词的国家,低级内容压倒了其他信息来源"。
作为一个在广告业工作了足够长一段时间的人,我亲眼目睹了数字化转型的影响,其发展方向是显而易见的。我们正在创造一个 "点击诱饵 "式的未来,在这个未来中,越来越强大的人工智能系统会操纵我们做出一些设计欲望的决定,而这些决定往往与我们的真实需求背道而驰--这些决定涉及如何花费我们的金钱和时间,以及对他人的感受和想法。
如果这还不够乌托邦,那么想想其他人工智能系统应用正在越来越多地使用我们的数据来对我们的生活做出关键决定,比如我们是否会被叫去参加工作面试、获得医疗服务或批准贷款。其中许多应用程序使用的是 "黑盒 "算法,无法解释或证明其决定的合理性,而且很可能对种族或性别等特征存在偏见。
2018 年的一个有名的例子是,亚马逊的一种人力资源算法被发现在面试中推荐了较少的女性。该算法并没有被编程为偏好男性求职者;它从训练数据中学会了偏好具有恰好预测为男性的特征的求职者。
这些算法通常仍然只考虑我们提供给它们的信息--例如,用于人力资源的算法会查看求职者的简历,而用于贷款决策的算法会查看申请表和申请人的信用记录。但是,如果未来平台公司和第三方行为者能获取我们更多的数字资料,那又会怎样呢?在谈论未来的元宇宙时,我们如何确保它不仅仅是一个精心策划的点击宇宙?
例如,试想一下,您研究了心脏病的症状。之后,你搜索健康保险。人工智能系统从你最近的搜索中推断出你可能有心脏病,因此给你报了更高的保费。或者想象一下,你购物甚至搜索叶酸药片,然后申请工作。算法从你的网购记录中得出结论,你可能已经怀孕或正在考虑怀孕,因此建议不要找你面试。
目前,我们认为,我们与一个实体--谷歌、银行、保险公司--共享的个人数据不一定会被其他所有实体共享。但我们不能天真地认为:我们在互联网上共享的所有信息都有可能被任何第三方获取,如果不制定相关法规,这种情况将越来越有可能发生。这些第三方不仅包括其他公司,还包括黑客和政府,他们可能会以我们无法预见的方式利用这些信息来对付我们。
用个人数据换取更好的在线体验看似简单明了。但人工智能驱动的营销正在制造微妙和多方面的漏洞,作为个人和社会,我们都没有做好应对这些漏洞的准备。
Volha Litvinets 曾是Carnegie Council"人工智能与平等计划 "的研究员。她还是索邦大学(法国巴黎)的博士候选人,研究领域为数字营销领域的人工智能伦理。在攻读博士学位之前,Litvinets 已获得哲学和政治哲学与伦理学两个硕士学位。