映射人工智能与平等,第 1 部分:把握技术创新的希望与危险

2022 年 1 月 20 日

在绘制人工智能与平等的图谱时,我们可以对人工智能进行大致的分类,这些分类可以突出显示人工智能如何影响人与人之间的关系,以及人与我们共同的环境之间的关系。本系列博文旨在为进一步思考和反思提供素材。

我们人类是否有足够的智慧来驾驭技术创新带来的希望和危险?我们能否确保我们所采用的技术不仅服务于我们当中的特权阶层,而且能够改善每个人的生活?从个性化医疗到提高生产力,再到新颖的教育和休闲形式,新兴技术提供了美妙而深远的可能性。新的应用,尤其是基于人工智能(AI)的应用,无处不在,其应用速度之快,对各行各业、政府、机构以及我们生活所在的社会技术结构来说,既是颠覆性的,也是积极的变革。

人工智能应用正在被引入各个领域,它加速和放大了其他技术的发展,并与新兴工具和技术协同互动,既能带来真正的益处,有时也会造成危害或难以预测。人工智能使工程师能够通过快速迭代处理和算法推理,发现和分析海量数据中的相关性。这使软件能够从输入数据的特征中 "学习",并在输出时执行类似人类的任务。虽然机器学习已经取得了一些令人瞩目的任务型成果,如在 GO 游戏中击败世界冠军,但与儿童发现和成长的丰富模式相比,目前可用的人工学习技术还是相形见绌。不过,即使是有限的机器学习形式,也能对个人和人类产生或好或坏的影响。

Carnegie Council 国际事务伦理中心发起了人工智能与平等倡议(AIEI),研究人工智能影响平等的多种方式。多种形式的平等和不平等为评估人工智能更广泛的社会后果提供了一个启示性视角。这些反过来也将影响国际事务和地缘战略的优先事项。

人工智能 "和 "平等 "都是术语,其含义可以从非常广泛的用法到更具体的应用而变化。就Carnegie Council 计划而言,我们从广义上看待人工智能,但在这一广义用法中,又有机器学习和自然语言智能等不同形式的人工智能。平等还包括经济平等、政治平等和机会平等等不同形式。


Anja Kaspersen 是Carnegie Council of Ethics in International Affairs 的高级研究员。她曾任日内瓦联合国裁军事务厅主任和裁军谈判会议副秘书长。此前,她曾担任红十字国际委员会(ICRC)战略参与和新技术负责人。

温德尔-瓦拉赫是耶鲁大学跨学科生物伦理学中心的顾问、伦理学家和学者。他还是林肯应用伦理学中心(Lincoln Center for Applied Ethics)的学者、伦理学与新兴技术研究所(Institute for Ethics & Emerging Technology)的研究员以及黑斯廷斯中心(The Hastings Center)的高级顾问。

您可能还喜欢

危险大师》一书封面。CREDIT: Sentient Publications.

2024 年 4 月 18 日 - 文章

危险的主人欢迎来到新兴技术世界

在这篇为《危险的主人》一书平装本所写的序言中,温德尔-瓦拉赫讨论了人工智能和新兴技术的突破和伦理问题。

2024 年 3 月 22 日 - 播客

人工智能管理的两个核心问题,与 Elizabeth Seger 合著

在本期 "人工智能与平等 "播客中,卡内基-上广研究员温德尔-瓦拉赫(Wendell Wallach)和 Demos 的伊丽莎白-西格(Elizabeth Seger)讨论了如何让生成式人工智能变得安全和民主。

2024 年 2 月 23 日 - 文章

当我们谈论 "人工智能民主化 "时,我们指的是什么?

在多方呼吁 "人工智能民主化 "的背景下,Demos 的 CASM 数字政策研究中心主任 Elizabeth Seger 讨论了这个词的四种含义。