定义和介绍
人工智能决策是指人工智能(AI)系统提供指导或输入以帮助人类做出选择的过程。在其中一些过程中,人工智能扮演的是辅助角色,在得出结论之前,人类会对输出结果进行审查和分析。但随着人工智能系统的发展,它们在决策过程中的作用可能会变得更加重要,从而带来新的伦理问题。
人工智能决策在许多领域和应用中都得到了应用,其中包括
- 医疗保健:人工智能通过分析化验结果和患者病史,协助医疗专业人员诊断疾病。
- 金融:人工智能算法可评估信用度并用于欺诈检测。
- 政治:人工智能代理影响着正式和非正式的审议过程,如公民大会和数字空间中的思想传播。
- 销售:客户数据平台中的人工智能工具可根据买家意向自动进行潜在客户挖掘。
- 警务:利用人工智能的数据融合系统,警方可以就谁可能犯了罪,谁可能没犯罪,提出复杂的假设。
请浏览以下资源,了解更多与人工智能决策相关的伦理挑战。

为了效率而冒险升级:冲突中人工智能决策的伦理影响
斯坦福大学的马克斯-兰帕斯(Max Lamparth)分析了人工智能决策在战略军事背景下的潜力,并分享了两个研究项目对大型语言模型升级趋势的见解。
有关人工智能决策的更多资源
2024 年 11 月 13 日 - 文章
道德灰色地带:政治审议中的人工智能代理
2024 年 9 月 12 日 - 文章
从原则到行动:为军事人工智能治理指明道路
布里安娜-罗森博士写道,随着人工智能重塑战争的伦理层面,利益相关者必须共同努力,提高这项新兴技术的透明度并加强管理。
2022 年 5 月 9 日 - 播客
与科林-艾伦合作《打造道德机器有进展吗?
安雅-卡斯珀森(Anja Kaspersen)和温德尔-瓦拉赫(Wendell Wallach)采访了匹兹堡大学的科林-艾伦(Colin Allen)教授,评估我们在构建能够做出道德决策的人工智能系统方面取得了哪些进展。
您在工作中使用过 ChatGPT 等大型语言模型吗?

当价值观发生冲突或优先次序不同时做出决定
埃默里大学的保罗-罗特-沃尔普(Paul Root Wolpe)与卡内基-上广研究员温德尔-瓦拉赫(Wendell Wallach)就伦理决策以及对影响尚不确定的新技术进行监管所面临的挑战进行了对话。
讨论问题
- 人类是否应该总是有能力推翻人工智能在任何情况下做出的决定?
- 在什么样的条件下可以赋予人工智能更多的自主权,让其在没有人类监督的情况下做出决定?
- 是否应该要求人工智能系统解释其决定?为什么?
- 当人工智能系统参与决策并最终导致糟糕的结果时,开发人员、用户或人工智能本身应如何分配责任?
- 使用人工智能系统进行决策应遵循哪些道德准则?这些准则如何根据环境变化而变化?
- 如何提高人工智能决策的公平性?
- 是否应对人工智能决策系统的开发进行监管?