大型语言模型全速发展,以至于我们没有充足的时间来理解这些新的产品。AI 需要被监管。在它造成更大的危害之前,我们或许该放慢开发的脚步,给人类留下思考的时间和后悔的机会。阅读本文后,希望对您有所启发。
四个月能带来多大的变化啊!
如果你在去年 11 月问我认为人工智能系统进展如何,我可能会耸耸肩。当然,那时 OpenAI 已经发布了 DALL-E,我也被它所呈现出的创造性迷住了。不过,总体而言,在目睹了大型平台多年来对人工智能的大肆炒作之后,其实市场上似乎很少有产品能达到愿景中所描绘的样子。
然后,OpenAI 发布了 ChatGPT,这款聊天机器人以其生成的可能性吸引了全世界。微软基于 GPT 的必应浏览器、Anthropic 公司的 Claude 和谷歌公司的 Bard 紧随其后。由人工智能驱动的工具正在迅速应用到微软的其他产品中,而谷歌的类似产品也将越来越多。
与此同时,随着我们逐渐接近一个无处不在的合成媒体的世界,一些危险的迹象也正在出现。前不久,一张显示教皇弗朗西斯一世(Pope Francis)身穿精致白色羽绒服的照片在网上疯传,而我就是那些“被骗相信这是真的”的人之一。开源情报网站 Bellingcat 的创始人在使用 Midjourney 制作和传播唐纳德·特朗普被捕的一些逼真图片后,被 Midjourney 禁止登录了。(此后,该公司取消了免费试用,以减少虚假图片的传播。)
合成文本正在迅速打入“学生、文案工作者和其他知识工作者”的工作流程;BuzzFeed 成为了最新一家开始尝试使用人工智能撰写文案的公司。
与此同时,科技平台正在削减其人工智能道德团队的成员。Meta 创建的一个大型语言模型被泄露并发布到 4chan 上,很快就有人想出了如何在笔记本电脑上运行它。
在其他地方,OpenAI 发布了 GPT-4 的插件,允许语言模型访问 API,并更直接地与互联网连接,这引发了人们对其带来更多不可预测的新伤害的担忧。(我直接向 OpenAI 询问了这个问题,但该公司没有给我答复。)
正是在这种混乱的背景下,一群杰出的技术专家现在要求这些工具的制造商放慢速度。以下是《纽约时报》的凯德·梅茨(Cade Metz)和格雷戈里·施密特(Gregory Schmidt)的报道:
包括埃隆·马斯克(Elon Musk)在内的 1000 多名技术领导者和研究人员,敦促人工智能实验室暂停最先进系统的开发,并在一封公开信中警告说,人工智能工具“对社会和人类构成深刻的风险”。
这封信是由非营利组织未来生命研究所(Future of Life Institute)于周三发布的,信中称,人工智能开发人员“陷入了一场失控的竞赛,他们正在开发和部署更强大的数字大脑,没有人(甚至包括它们的创造者)能够理解、预测或可靠地控制这些大脑。”
在这封信上签了名的还有苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak);企业家、2020年总统候选人杨安泽(Andrew Yang);以及设置末日时钟(Doomsday Clock)的《原子科学家公报》(Bulletin of the Atomic Scientists)的主席雷切尔·布朗森(Rachel Bronson)。
至少,这封信在我看来是人工智能生存恐惧向主流意识迈进的一个里程碑。多年来,批评人士和学者一直在警告这些技术带来的危险。但就在去年秋天,玩 DALL-E 或 Midjourney 的人还很少担心“开发和部署更多数字大脑的失控竞赛”。然而,今天技术已经发展到了这个需要担心的地步。
对于这些技术专家的信,有一些值得批评的地方。华盛顿大学(University of Washington)语言学教授、人工智能批评人士艾米丽·本德(Emily M. Bender)称其为“一团糟”,她在一定程度上认为,这样的“末日论”最终仍会让人工智能公司受益,因为它们看起来比实际情况强大得多。
对于一个名义上担心人工智能的组织来说,令人尴尬的是,最初作为联名者出现的一些人最终没有在信上签字。《福布斯》指出,组织这封信活动的机构主要是由马斯克资助的,他自己也有人工智能的野心(后来马斯克果然也加入了 AI 大模型竞赛)。
也有人认为,速度不应该是我们的主要关注点。上个月,媒体人以斯拉·克莱因(Ezra Klein)认为,我们真正的关注点应该放在这些系统的业务模型上。令人担忧的是,广告支持的人工智能系统被证明在操纵我们的行为方面,比我们目前想象的更强大。克莱因写道:“在做出决定之前,社会一定要弄清楚可以让人工智能做什么,以及不应该让人工智能尝试什么。”
这些都是很好的、必要的批评。然而,无论我们在上述这封公开信中发现了什么缺陷(我对马斯克最近说的所有话都打了很大的折扣),最终我还是被他们的集体论点说服了。人工智能的变化速度似乎很快就会超过我们的集体处理能力。而签署人所要求的改变(短暂暂停开发比已经发布的语言模型更大的语言模型),感觉像是宏大计划中的一个小要求。
科技报道往往聚焦于创新以及由此带来的直接颠覆,而通常不太擅长思考新技术可能如何导致社会层面的变化。然而,人工智能对就业市场、信息环境、网络安全和地缘政治(仅举四例)可能会产生巨大的影响,甚至超出我们的想象。
研究信息环境的阿维夫·奥瓦迪亚(Aviv Ovadya)在 GPT-4 推出之前曾在 OpenAI 的红队(red team)工作。红队本质上是一种角色扮演练习,参与者扮演系统的对手,以确定系统的弱点。GPT-4 红队发现,如果不加检查,语言模型会做各种我们不希望它做的事情,比如雇佣一个不知情的 TaskRabbit 来解决验证码问题。有了红队,OpenAI 就能够在发布模型之前检查并去除这些弱点。
然而,在《连线》杂志的一篇新文章中,奥瓦迪亚认为,仅靠红队是不够的。他写道,仅仅知道模型输出的内容是不够的,我们还需要知道该模型的发布可能对整个社会产生什么影响。它将如何影响学校、新闻业或军事行动?奥瓦迪亚建议在模型发布之前引入这些领域的专家,以帮助加强公共产品和机构的应对能力,并看看是否可以修改工具本身以防止滥用。
奥瓦迪亚将这一过程称为“violet teaming”(组建紫队):
你可以把这想象成是一种柔道。通用人工智能系统是一种正在向世界释放的巨大的新型力量,而这种力量可能会损害我们的公共产品。就像柔道可以“重定向”攻击者的力量,像“乾坤大挪移”那样将其化解一样,violet teaming 旨在“重定向”人工智能系统释放的力量,以保护这些公共产品。
这在实践中可能涉及一种所谓的“复原力孵化器”:将机构和公共产品中的专家与能够使用人工智能模型快速开发新产品的人员和组织配对,以帮助减轻这些风险。
如果 OpenAI 和谷歌这样的公司(无论是自愿的还是被动的)采用 violet teaming,那么我们就能更好地为更强大的模型对世界带来的影响做好准备。
不过,充其量,violet teaming 只是我们所需监管的一部分。我们还有很多基本问题要解决。像 GPT-4 这样大的模型应该被允许在笔记本电脑上运行吗?我们是否应该限制这些模型访问更广泛的互联网的程度,就像 OpenAI 的插件现在所做的那样?现有的政府机构会监管这些技术吗,还是我们需要创建一个新的机构?如果是这样,那么我们如何快速做到这一点?
我们需要这些问题的答案,而政府需要时间才能找到答案。如果技术的发展速度持续超过世界各地政府的理解能力,那么我们可能会后悔让 AI 的发展加速。
不管怎样,在接下来的几个月里,我们将持续观察 GPT-4 及其竞争对手在现实世界中的影响,并帮助我们了解应该如何采取行动。但是,我认为,在此期间不应该有更大的模型发布——如果达成的话,还能给那些认为人工智能有害的人带来些许安慰。
我得到的一个教训是,互联网的快速发展往往对我们不利。谎言传播得比任何消息都快,仇恨言论引发暴力的速度比平息情绪的速度更快。我不知道人工智能最终是否会像一些危言耸听的人现在预测的那样造成严重破坏,但我相信,如果这个行业继续全速发展,那么这些危害就更有可能发生。
放慢大型语言模型的发布速度并不能完全解决未来的问题,但这可以给我们留出应对的时间,让我们有机会找到答案。