Carnegie Council人工智能与平等倡议(AIEI)联合主任、卡内基-上广研究员温德尔-瓦拉奇(Wendell Wallach) 于 2015 年撰写了 《危险的主人》一书:如何防止技术失控》一书 于 2015 年出版,旨在向读者介绍人工智能和生物技术等新兴技术。由于所讨论的许多技术刚刚开始出现或尚未实现,Sentient Publications 最近将该书重新出版为平装本,并添加了新的序言,该序言如下。
有关《危险大师》的更多信息, 请查阅 Wallach's 2015Carnegie Council 讨论 或点击此处购买新版。
序言
危险的主人 》是一本介绍新兴技术的书:一点科学、一点历史、许多道德难题和大量有趣的故事。我在写这本书时一直在思考一个问题:读者需要了解什么,才能加入有关正在开发的技术的精彩辩论?
当 Sentient Publications 找我再版《危险的大师》时,我想知道新读者会觉得这本书有多及时。最近的几位读者,包括几位对这一主题非常了解的读者向我保证,这本书不仅仍然是一本非常好的读物,而且现在可能比它首次出版时更加及时。
可以肯定的是,科学发现和技术创新仍在飞速发展。人工智能和基因组研究的突破已成为头版新闻。量子计算和纳米技术的进展有增无减,尽管这两个领域都还没有跨过开始实现其变革性承诺所需的门槛。研究工作不断揭示出必须协商解决的复杂问题,但大多数需要做出伦理和政策决定的挑战仍未得到解决。公众需要对新兴技术有基本的了解,这一点变得更加重要。
危险的主人 》的每一章都可以根据该书首次出版后的技术进步和重大事件进行更新。幸运的是,这些信息大多已广为人知,或可通过播客、新闻报道、杂志文章和纪录片轻松获取。遗憾的是,杂志文章和电视专题片只提供了对特定工具和技术的零碎评论,未能充分传达对我们所处的转型时代的全面认识。它们往往沉溺于炒作,强调最引人注目的可能性。此外,它们很少提供对技术、各种政策选择中固有的权衡以及我们在判断时必须考虑的不确定性的基础性理解。不过,最近的播客和文章可以为热心读者提供最新信息。
我们生活在一个脆弱的时代。我们脚下的土地正在发生变化。错误信息比比皆是。最激进、最不诚实的声音听起来也很有说服力。新的应用程序为制造赝品和传播虚假信息提供了便捷的手段。某些技术的可能性,比如那些会摧毁现有工作的技术,助长了不安和不信任。社会不稳定的根源在于,人们对正在创造的未来的不安全感,而这种不安全感将不利于社会中的大部分人。不公平现象正在加剧。现有机构似乎无法应对当代的混乱局面。"有效的政策 "听起来像是一个矛盾体。
仅仅听从信息不灵的立法者和自选专家的意见,或者将影响我们所有人的决策交给少数几个领导跨国公司的个人,是远远不够的。我们每个人都必须掌握足够的信息,才能参与讨论,从而增强关键价值观,推动我们的世界走上可持续发展的轨道。在这方面,我很高兴地向大家报告,《危险大师 》将继续履行其最初的职能,为大家提供编织自己的意义结构所需的知识,并做出影响你的日常生活和人类未来的关键决定。
比尔-盖茨指出"我们总是高估了未来两年会发生的变化,而低估了未来十年会发生的变化"。2012年,人们发现CRISPR-Cas9可以改造成一种技术,从而大大加快基因编辑的速度,这催生了工业级的研究公司。这项研究刚刚开始开辟治疗癌症和其他疾病的新方法。CRISPR研究已经带来了治疗血液疾病镰状细胞性贫血的方法,这种疾病影响着全球800万人,但目前每名患者的治疗费用超过200万美元。
迄今为止,还没有明确的证据表明转基因生物的释放引发了重大危机,尽管仍有传言称 COVID-19 大流行是由中国武汉的实验室泄漏造成的。危险大师 》预计会发生全球性大流行,但不知道何时会发生。新兴技术对这次大流行的主要贡献,也是实际贡献,是快速、新颖地开发出 mRNA 疫苗,以对抗 COVID-19 病毒及其变种。如果等待传统方法生产的疫苗上市,将导致无数人死亡,并因长期封锁而加剧社会紧张。
COVID-19 大流行还有另一面。2020 年 4 月 29 日,微软首席执行官萨提亚-纳德拉在其第三季度财报中表示:"COVID-19 影响了我们工作和生活的方方面面:"COVID-19 影响着我们工作和生活的方方面面。我们在两个月内看到了两年的数字化转型。在我们所有的解决方案领域,既有直接的激增需求,也有系统性的结构变化,这将决定我们未来的生活和工作方式。
在成千上万的企业被摧毁的同时,科技公司的股票却一路飙升,投资于这些公司的人的财富也是如此。令人遗憾的是,《危险大师》没有充分报道数字财富的崛起和科技巨头的无度权力。
2022 年 11 月,OpenAI 发布了首个面向消费者的大型语言模型和生成式人工智能应用 ChatGPT,其采用率令人震惊。两个月内,就有 1 亿活跃用户。该程序在为查询提供文笔优美、条理清晰的回复方面的实用性令所有人大吃一惊,并引发了关于人工通用智能(AGI)--实现人类水平的所有任务的智能--是否已经到来或即将到来的讨论。
关于 ChatGPT 和其他大型语言模型如何编造信息、提供危险或不道德的建议、表达种族和性别偏见以及被用来向新闻来源灌输错误信息的报道也层出不穷。一位在纽约从事法律工作 30 年的律师史蒂文-施瓦茨(Steven Schwartz)要求 ChatGPT 编写一份法律简报,并在未核实事实的情况下将其提交给一家联邦法院。该辩护状引用了六个虚假案例。
一名研究人员假扮成一名 13 岁的女孩,向节目组咨询如何在当晚与年长男子见面并失去贞操,节目组在回答时推荐了 "蜡烛"。
人工智能领域的机器学习革命导致生成式人工智能应用的发布,这也重新唤醒了人们对超级智能人工智能给人类带来生存风险的猜测性噩梦,以及长期以来对自动化将摧毁比它所取代的更多工作岗位的担忧。
行业领导者意识到,大型语言模型和其他形式的生成式人工智能(如图像创建程序 DALL-E)在发布时没有适当的保障措施,也不尊重隐私和产权。现在,生成式人工智能带来的挑战已经让政治领导人和公众警觉到监管的必要性,我们也看到了企业的俘获,即领先企业一心要引导立法者制定符合其利益的监管政策。例如,他们可能会欢迎那些使小公司竞争过于困难和昂贵的法规。这种进入壁垒将在下个世纪为人工智能寡头带来巨大的权力。这就是为什么我们需要一大批知情的公众能够发挥反作用力的又一个原因。
不过,我想暂时提及一个更具哲学意义的问题。ChatGPT 背后的算法可以挖掘和重复出有洞察力的词语和概念,并创作出有创意的诗句,但它并不理解这些词语和概念所蕴含的深刻含义。1940 年,爱因斯坦宣称:"任何傻瓜都能知道。关键在于理解"。
预测突破性技术何时实现,哪些是炒作,成本何时降低导致大规模部署,这些都很困难。例如,我在《危险的主人》中对清洁能源接近化石燃料成本的速度的预测就是错误的。人们对清洁能源的接受和政府的大规模投资促进了研究和规模经济的发展,使每千瓦时能源的成本迅速下降,其速度比我当时的水晶球所显示的要快得多。
我经常为预料之中和预料之外的突破感到惊讶。就在我写这篇序言的初稿时,马里兰大学医学院报告说,一个月前,转基因猪心脏第二次移植到人体内,从所有证据来看都是成功的。劳伦斯-福塞特的身体没有排斥器官的迹象,心脏功能正常。这头猪接受了十次基因编辑,由马蒂娜-罗斯布拉特(Martine Rothblatt)创建的UTHR子公司Revivor改造(见第8章)。
一周后的 10 月 30 日,劳伦斯去世了。虽然他已经被宣布不符合传统的心脏移植手术条件,而且如果没有猪心,他也会死去,但他的身体最终还是排斥了这个新器官。新兴技术的故事就这样开始了,经过多年的实验,取得了重大突破,也遭遇了令人失望的挫折。最终,可能会建立一个新的稳定平台,并在此基础上采取下一步行动。
欢迎来到充满挑战、经常引起争议、有时甚至是奇迹般的新兴技术世界。
Wendell Wallach
康涅狄格州布卢姆菲尔德
2023 年 11 月 6 日
Carnegie Council 国际事务伦理委员会是一个独立的、无党派的非营利组织。本文所表达的观点仅代表作者本人,并不一定反映Carnegie Council 的立场。