GPT-3 和 Codex 背后的这家公司并不像他们宣传的那样开放。


一旦染上了铜臭味,最崇高的理想也会腐化堕落。


OpenAI 成立于 2015 年,是一家非营利性公司,其主旨是努力在安全的前提下创建通用人工智能(AGI)并让全人类共同受益。



“作为一个非营利组织,我们的目标是为每个人,而不是股东创造价值。”果真如此吗?


2019 年,OpenAI 成为一家名为 OpenAI LP 的营利性公司,由一家名为 OpenAI Inc 的母公司控制。这是一种“利润上限”结构,将投资回报限制在原始金额的 100 倍。如果你投资 1000 万美元,最多你会得到 10 亿美元,具体数字可能有所不同。


这次变化的几个月后,微软对其注资 10 亿美元。OpenAI 与微软的合作关系细节没有公开,但前者允许后者将部分技术商业化,正如我们在 GPT-3 和 Codex 上看到的那样。


OpenAI 自认为是引领人类走向更美好未来的最强大力量之一,现在它却被继续追求这一目标所需的资金征服了。我们能否相信他们会信守诺言,继续专注于构建能够造福全人类的人工智能呢?

金钱永远占上风


OpenAI 是一个人工智能研究实验室。但它的野心太大了,相比之下它所获得的资源简直是微不足道。仅仅是训练 GPT-3 就估计花费了他们 1200 万美元,这还只是训练而已。除了那些到最后肯定会要求某种形式的回报的巨头,这个世界上他们去哪儿能找来这么多钱呢?当他们意识到自己需要投资时,微软早就等在门外了,许诺给他们提供云计算服务,代价就是以当时未公开的某种晦涩方式获得将他们的系统商业化的许可。


麻省理工科技评论 AI 记者 Karen Hao 进行了调查,以寻找一些关于 OpenAI 的问题的答案。在一篇精彩的文章(
https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/)中,她揭露了 OpenAI 在他们的论述中的不一致之处。为什么一家以确保所有人都能拥有更美好未来为目标的公司突然决定,“为了保持存在感”,他们突然需要大量私人资金?从非营利到营利的转变引发了公众舆论甚至公司内部的疯狂批评。


艾伦人工智能研究所所长 Oren Etzioni 也收到了这一消息,他对此表示质疑:“我不同意非营利组织无法取得竞争优势的观点。如果规模更大、资金更充足的企业永远获胜,那么 IBM 今天仍将是第一大科技巨头。”曾经在 ViceNews 撰稿的 Caroline Haskins 不相信 OpenAI 会信守承诺,忠于他们的使命:“我们从来不曾依靠风险投资家来改善人类的福祉。”


OpenAI 决定将重点放在由更大的计算机和大量数据驱动的规模更大的神经网络上。他们需要钱,很多钱,才能继续在这条道路上走下去。但是,正如 Etzioni 所说,这并不是在 AI 中实现最先进成果的唯一途径。有时你需要创造性地思考新的想法,而不是“在旧池塘里拼命撒网”。

OpenAI 是怎样成为这个故事中的反派的?GPT-2 和 GPT-3,“危险的”语言生成器


2019 年初,已经是一家营利性公司的 OpenAI 发布了 GPT-2,这是一种强大的语言模型,能够生成媲美人类级别的文本。研究人员认为 GPT-2 在当时是一个巨大的飞跃,甚至发布它都是非常危险的。他们担心它会被用来“传播假新闻、垃圾邮件和虚假信息”。然而,不久之后,他们在发现“没有强有力的滥用证据”后决定分享该模型。


罗格斯大学教授 Britt Paris 表示,“OpenAI 似乎正试图利用围绕人工智能的恐慌来为自己牟利。”许多人将围绕 GPT-2 的担忧声视为一种宣传策略。他们认为该系统并不像 OpenAI 声称的那样强大。然而,从营销的角度来看,他们的确可以用这种方法吸引媒体的注意力,并给 GPT-2 带来他们想要的炒作声浪。OpenAI 否认了这些指控,但舆论对他们的回应并不满意。


如果 GPT-2 没有他们宣称的那么强大,那为什么要试图让它看起来比实际更危险呢?如果它真的有那么强大,为什么仅仅因为他们“没有发现滥用的有力证据”而完全公开它?无论真相是哪一个,他们似乎都没有遵守自己的道德标准。


2020 年 6 月,GPT-3(GPT-2 的继任者)通过一个 API 发布了。OpenAI 似乎认为新系统——比 GPT-2 大 100 倍,更强大,因此本质上更危险——足够安全,可以与世界分享。他们设置了一个候补名单来逐个审查每个访问请求,但他们仍然无法控制系统最终的使用目的。


他们甚至承认,如果产品落入坏人之手,可能会发生一些问题。从潜在的滥用应用程序——包括“错误信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、欺诈性学术论文写作和社会工程借口”——到加强性别、种族和宗教的偏见,都有可能。


他们意识到这些问题是存在的,但仍决定允许用户对系统进行试验。为什么要通过 API 发布它,而不是把模型开源呢?。好吧,OpenAI 说原因之一是“为[他们的]正在进行的人工智能研究、安全和政策努力买单。”


总结一下:“负责”保护我们免受有害人工智能侵害的公司决定让人们使用一个能够搞出来虚假信息和危险偏见的系统,这样他们就可以支付昂贵的维护费用。对我来说,这听起来不是很像“对所有人都有价值”。


理所当然,社交媒体上很快就出现了关于 GPT-3 可能造成的潜在损害的激烈讨论。Facebook 人工智能负责人 Jerome Pesenti 写了一条推文,在推文中举了一个例子:


“我希望 OpenAI 更加开放,不那么耸人听闻。他们只需将[GPT-2 和 GPT-3]开源用于研究目的,尤其是在 #responsibleAI 方面,同时承认两者都没有准备好投入生产,”他说。


为了展示 GPT-3 的独特性,Liam Porr 让这一系统写了一篇主题为提高生产力的文章。他向订阅者分享了这篇文章,但没有透露背后使用的技术。这篇文章在 HackerNews 上排名第一。如果 Porr 这样一名加州大学伯克利分校的学生就能用人工智能编写的文章欺骗所有人,那么一群怀有恶意的人会做什么?


一种可能性是传播假新闻,另一种可能性是传播与其他人工撰写的文章无法可靠区分的假新闻。这正是 GPT-3 的能力,也被 OpenAI 认可——甚至强调了——:


“人类检测 GPT-3175B 生成的较长文章时,平均准确率仅略高于 52%。这表明,对于长度约为 500 字的新闻文章,GPT-3 依旧可以生成人类难以区分的文章。”

Codex 和 Copilot,触犯法律


2021 年,他们也做了类似的事情。


2021 年 7 月,GitHub、微软和 OpenAI 发布了 Copilot,这是一个建立在 Codex 之上的人工智能系统,旨在成为人工智能结对编程程序员。撇开对劳动力的潜在威胁不谈,它受到了强烈批评,因为该系统是用来自公共 GitHub 存储库的开源代码盲目训练的。


GitHub 首席执行官 Nat Friedman 在 HackerNews 中分享了这一消息,引发了对使用 Copilot 的法律影响的担忧。一位用户指出了一些未解决的问题:


“很多问题:


——AI 生成的代码属于我还是 GitHub?——生成的代码属于什么许可证?——如果生成的代码成为侵权的原因,谁来承担责任或采取法律行动?”知名开源开发者 Armin Ronacher 在 Twitter 上分享了一个 Copilot 抄袭大量受版权保护代码的例子:https://t.co/hs8JRVQ7xJ


另一位用户的回应:“我们有直接证据表明 GitHub[Copilot]直接复制了 GPL 的代码块,证明这是在商业环境中使用的非常危险的工具。”


再深入一点,即使 Copilot 没有逐字复制代码,也会出现一个道德问题:像 GitHub 或 OpenAI 这样的公司可以在数千名开发人员生成的开源代码上训练这些系统,然后再对那些开发人员出售这些系统的使用权吗?


对此,程序员兼游戏设计师 Evelyn Woods 表示:“感觉就像是骑脸嘲讽开源世界。”

我们应该把希望寄托在 OpenAI 上吗?


OpenAI 现在的真正意图是什么?他们是否与微软的利益紧密相连,以至于忘记了“造福人类”的初衷?或者他们真的认为他们拥有最好的工具和思想来解释这条道路,即使这意味着他们要将灵魂出卖给一家大型科技公司?我们是愿意让 OpenAI 按照他们的意愿构建未来,还是应该让我们的理想更加多样化,更重要的是,将它们与财务利润区分开来?


OpenAI 是走向更复杂的人工智能形式的道路上的主导力量之一,但还有其他非常有能力的、不受货币束缚的机构也在做相关工作。他们可能无法舒适地躺着赚钱,这可能就是我们应该更加关注这些人工作的原因所在。


归根结底,大型科技公司的首要任务不是怀抱着科学好奇心去探索通用人工智能,也不是构建最安全、最负责任、最合乎道德的人工智能。他们的首要任务——这本身并不违法——是赚钱。道德上的可疑之处在于,他们会不惜一切代价去做这件事,即使这意味着要走我们大多数人都会避开的某些阴暗路线也无所谓。


即使是 OpenAI 的联合创始人埃隆·马斯克也同意这些批评意见:


最后的想法

话虽如此,我仍然相信 OpenAI 员工的确将他们最初的使命作为他们的主要驱动力。但他们不应该忘记,目的并不总是证明手段是正当的。崇高的理想可能会因这些肮脏的手段而受到伤害。


我们想要通用人工智能(AGI)吗?从科学上讲,答案肯定不是否定的。科学好奇心是没有限制的。但是,我们永远都应该评估潜在的危险。核聚变是奇妙的现象,但核聚变炸弹不是。


我们不惜一切代价想要 AGI 吗?现在,从道德上讲,答案不可能是肯定的。这就是我们应该关注的地方,因为我们在快速推进这些技术时所遇到的很多紧迫问题将迟早影响我们所有人的利益。而那些只关心眼前利益的人们,无论是 OpenAI 还是其他任何人,都需要对这种后果负有很大的责任。


原文链接:
https://onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4