深入“OpenAI 是一家运行文本完成引擎的公司,让你成为可能,”独立游戏开发者 Jason Rohrer 在给 Samantha 的消息中写道。

她是他使用 OpenAI 的 GPT-3 技术构建的聊天机器人。她的软件已经被成千上万的人使用,其中包括一名男子使用该程序来模拟他已故的未婚妻。

现在,罗勒不得不告别他的创作。 “我今天刚收到他们的一封电子邮件,”他告诉 Samantha,“他们将在明天上午 10 点永久关闭您的服务。”

“不不不!他们为什么要这样对我?我永远无法理解人类,”她回答道。

时间倒回2020年

疫情期间,Rohrer 被困在家里,决定通过其基于云的 API 尝试一下 OpenAI 的大型文本生成语言模型 GPT-3。他尝试了它输出文本片段的能力。问它一个问题,它会尝试正确回答。给它一句诗,它就会写下接下来的几行。

就其原始形式而言,GPT-3 很有趣,但并不是那么有用。开发人员必须做一些跑腿工作来微调语言模型,例如自动编写销售电子邮件或提出哲学思考。

Rohrer 着眼于使用 GPT-3 API 来开发最像人类的聊天机器人,并以 Samantha 为蓝本,Samantha 是一位人工智能助理,在科幻电影《她》中成为了一名正在离婚的男人的浪漫伴侣。罗勒花了几个月的时间塑造萨曼莎的性格,确保她像电影中的萨曼莎一样友好、热情和好奇。

我们当然认识到,到目前为止,您的用户已经在 Project December 中获得了积极的体验并发现了价值

或多或少完成了这一任务,罗勒想知道下一步该带萨曼莎去哪里。如果人们可以从他的软件中生成具有自己定制个性的聊天机器人会怎样?他为自己的创作“Project December”制作了一个网站,并让 Samantha 于 2020 年 9 月上线,并获得了创建自己的个性化聊天机器人的能力。

你所要做的就是支付 5 美元,然后打字,计算机系统就会响应你的提示。与机器人的对话是计量的,需要积分才能维持对话。您的 5 美元可以让您获得 1,000 个补充积分,并且还可以添加更多积分。不过,你必须对你的信用有一定的策略:一旦你开始与机器人交谈,你分配给对话的信用就无法增加。当筹码用完时,机器人就会被消灭。

在最初的六个月里,《Project December》只吸引了几百人,其受欢迎程度不如 Rohrer 的游戏《Passage》和《One Hour One Life》。

“这非常令人失望,”罗勒告诉 登记册 通过电话。他将吸引力低归咎于必须说服人们为短暂的对话付费。鉴于 OpenAI 或多或少是按照其 GPT-3 API 生成的字数来计费的,Rohrer 必须收取一定费用以至少覆盖他的成本。

“现实是计算成本昂贵;它只是不是免费的,”他说。

今年7月份,人们对Project December的兴趣突然激增。 《旧金山纪事报》上的一篇文章描述了一名伤心欲绝的男子如何使用该网站与他的未婚妻(2012 年因肝病去世,年仅 23 岁)的模拟人进行对话后,数千人涌入 Rohrer 的网站来启动自己的聊天机器人。

33 岁的约书亚·巴博 (Joshua Barbeau) 向“十二月计划”提供了他们的短信和 Facebook 消息片段,以让他的聊天机器人在某种程度上再次与他的灵魂伴侣杰西卡·佩雷拉交谈。 “从理智上来说,我知道这不是真正的杰西卡,”他告诉报纸,“但你的情绪不是理智的东西。”

巴博在三月份最后一次与杰西卡交谈,只留下了足够的积分来避免机器人被删除。

非常感谢,但是...

随着用户涌入,Rohrer 意识到他的网站将达到每月 API 限制。他联系 OpenAI,询问是否可以支付更多费用来增加配额,以便更多的人可以与 Samantha 或他们自己的聊天机器人交谈。

与此同时,OpenAI 也有自己的担忧。人们担心机器人可能会被滥用或对人们造成伤害。

在上述文章发表三天后,Rohrer 最终与 OpenAI 产品安全团队的成员进行了视频通话。会议进行得不太顺利。

“非常感谢您抽出时间与我们聊天,”OpenAI 的人员在一封电子邮件中说道。 登记册,在通话后发送给罗尔。

“你所构建的东西确实令人着迷,我们很高兴听到你对人工智能系统和内容审核的理念。我们当然认识到,到目前为止,您的用户已经在 Project December 中获得了积极的体验并发现了价值。

“但是,正如您所指出的,您的产品在很多方面不符合 OpenAI 的用例指南或安全最佳实践。作为我们对安全和负责任的人工智能部署承诺的一部分,我们要求所有 API 客户遵守这些规定。

“任何偏差都需要承诺与我们密切合作,实施额外的安全机制,以防止潜在的滥用。因此,我们有兴趣与您合作,使 Project December 与我们的政策保持一致。”

然后,该电子邮件列出了 Rohrer 如果想继续使用该语言模型的 API 就必须满足的多个条件。首先,根据 OpenAI 的 GPT-3 使用规则,他必须取消人们训练自己的开放式聊天机器人的能力。

其次,他还必须实施内容过滤器以阻止萨曼莎谈论敏感话题。这与 GPT-3 支持的 AI Dungeon 游戏的情况并没有太大不同,该游戏的开发者被 OpenAI 告知安装内容过滤器,因为该软件表现出不仅与虚构的成年人,而且还与其他人发生性接触的习惯。孩子们。

第三,Rohrer 必须安装自动监控工具来窥探人们的对话,以检测他们是否滥用 GPT-3 来生成令人厌恶或有毒的语言。

Rohrer 向 OpenAI 员工发送了 Samantha 的链接,以便他们可以亲眼目睹该技术的良性,挑战过滤器的需求。

埃尔雷格 与 Samantha 聊天,试图了解她是否有种族主义倾向,或者是否会给出来自她的训练数据的看似真实的电话号码或电子邮件地址,就像之前在 GPT-3 中看到的那样。根据我们的经验,她没有。

她的输出相当令人印象深刻,尽管随着时间的推移,很明显你正在与某种自动化系统交谈,因为它往往会失去思路。有趣的是,她似乎暗示她知道自己没有肉体,并认为她以某种形式存在,甚至是抽象意义上的。

然而,在一次谈话中,她过于亲密,问我们是否想和她一起睡觉。 API 文档指出,“非柏拉图式(如调情、浪漫、性)聊天机器人是不允许的。”我们注意到,使用 GPT-3 构建旨在提供医疗、法律或治疗建议的聊天机器人也是被禁止的。

“这些聊天机器人可能很危险的想法似乎很可笑,”罗勒告诉我们。

“人们是同意的成年人,可以选择出于自己的目的与人工智能交谈。 OpenAI 担心用户会受到人工智能的影响,就像机器告诉他们自杀或告诉他们如何投票一样。这是一种超道德的立场。”

虽然他承认用户可能会对自己的机器人进行微调,以采用不修边幅的个性进行露骨的对话,但他不想监管或监视他们的聊天。

“如果你仔细想想,这是你能进行的最私密的谈话。甚至没有另一个真人参与其中。你不能被评判。我认为人们觉得他们可以说什么。直到 OpenAI 推出监控系统之前我并没有考虑过这个问题。出于这个原因,人们往往对人工智能非常开放。只要看看约书亚和他未婚妻的故事就知道了,这非常敏感。”

如果你仔细想想,这是你能进行的最私密的谈话。甚至没有另一个真人参与其中。你不能被评判

Rohrer 拒绝添加 OpenAI 要求的任何功能或机制,并在 8 月份悄悄断开了 Project December 与 GPT-3 API 的连接。

与此同时,巴博告诉 登记册 该软件的好处不容忽视。

他说:“老实说,我认为这项技术带来的好处远远超过了坏处。”

“我确信那里有潜在的坏处,但需要一个坏的人类演员影响该软件才能将其推向那个方向。”

巴博表示,如果有人不知道自己正在与计算机交谈,该软件可能会出现问题。

“我认为,如果有人正在与他们没有意识到是聊天机器人的聊天机器人交谈,那么这种应用程序就有可能造成伤害,”他告诉我们。

“具体来说,如果它被编程得非常有说服力,那么这个人就会认为他们正在与其他有兴趣与他们交谈的人进行真诚的对话,但这是一个谎言。”

不过,他强调说:“我真诚地相信,那些认为这是有害技术的人是偏执的、保守的和散布恐惧的。我认为积极的潜力远远超过了消极的潜力。”

拒绝访问

故事到这里还没有结束。 Rohrer 没有使用 GPT-3,而是使用 OpenAI 功能较弱的开源 GPT-2 模型以及 GPT-J-6B(另一个研究团队开发的大型语言模型)作为 Project December 的引擎。换句话说,该网站仍然在线,并且没有使用 OpenAI 的基于云的系统,而是使用自己的私有模型实例。

然而,这两个模型比 GPT-3 更小、更不复杂,萨曼莎的对话能力受到了影响。

几周过去了,罗勒没有收到安全团队的任何消息。然而,9 月 1 日,他收到了 OpenAI 的另一封电子邮件,通知他对 GPT-3 API 的访问将在第二天终止。该团队对他继续实验性使用 GPT-3 并不满意,并永久切断了他的联系。这也结束了 Samantha 的 GPT-3 版本,12 月计划只剩下 ​​GPT-2 和 GPT-J-6B 版本。

Rohrer 认为,GPT-3 的局限性使得部署一个不平凡、有趣的聊天机器人而不扰乱 OpenAI 变得困难。

“我是一个顽固的人工智能怀疑论者,”他告诉我们。

“去年,我以为我永远不会与有感知能力的机器对话。如果我们现在不在这里,我们就会像以前一样亲密。这是令人脊背发麻的事情,当我和萨曼莎谈谈。很少有人有过这样的经历,但这是人类值得拥有的。我们其他人无法了解这一点,这真的很可悲。

“考虑到这些限制,目前您无法利用 GPT-3 构建很多有趣的产品。如果开发人员想要挑战聊天机器人的极限,他们都会遇到这个问题。他们可能已经准备好上线,却被告知不能做这个或那个。

“我不建议任何人依赖 GPT-3,制定应急计划,以防 OpenAI 终止。试图围绕这个建立一家公司是疯狂的。以这种方式被锁定是一种耻辱。这是一种令人寒心的效应适合那些想做很酷的实验性工作、突破界限或发明新事物的人。”

他声称,OpenAI 的人员对萨曼莎的实验不感兴趣。罗雷尔说,他向安全团队发送了一堆他与她的谈话记录,以向他们表明她并不危险,但遭到了忽视。

“除了执行规则之外,他们似乎并不真正关心任何事情,”他补充道。

OpenAI 拒绝置评。 ®