转载说明:原创不易,未经授权,谢绝任何形式的转载

如果说 ChatGPT 这款自由文本生成人工智能是个成功的案例,那简直是严重低估了它的影响力。

OpenAI 推出 ChatGPT API,专供企业客户使用

它是由旧金山初创公司 OpenAI 开发的。截至去年12月,ChatGPT 估计拥有超过1亿月活跃用户。它引起了主流媒体的广泛关注,在社交媒体上也衍生了无数的表情包。人们还用它来撰写了数百本在亚马逊Kindle商店中出售的电子书,甚至还被认为至少有一篇科学论文的创作是符合要求的。

尽管 OpenAI 是一家非盈利公司,但它仍然需要以某种方式将 ChatGPT 盈利,以免让投资者感到不安。为此,该公司于去年二月份推出了高级服务 ChatGPT Plus,并在今天采取了更大的举措,推出了一个API,允许任何企业将 ChatGPT 技术集成到它们的应用程序、网站、产品和服务中。

布洛克曼表示,我们需要一段时间来将这些API提高到一定的质量水平。我认为这在某种程度上是满足需求和大规模应用的。

ChatGPT API 的特点

洛克曼表示,ChatGPT API 是由 OpenAI 极受欢迎的 ChatGPT AI 模型提供支持,该模型被称为“gpt-3.5-turbo”。GPT-3.5 是目前 OpenAI 通过其 API 套件提供的最强大的文本生成模型;“turbo”代号是指 OpenAI 正在悄悄测试的 GPT-3.5 的优化版本,更加响应迅速,可用于 ChatGPT。

布洛克曼表示,该 API 的价格为每 1,000 次调用 0.002 美元,或者大约 750 个单词,可以用于推动各种应用体验,包括“非聊天”应用。Snap、Quizlet、Instacart 和 Shopify 是其中的早期的使用者。

研发 gpt-3.5-turbo 最初的动机可能是为了削减 ChatGPT 巨大的计算成本。OpenAI CEO 山姆·阿特曼曾经称 ChatGPT 的开销“令人咋舌”,估计每次聊天的计算成本为几美分(假设有超过一百万用户,这笔成本可能很快就会增加)。但布洛克曼表示,gpt-3.5-turbo 在其他方面也有所提升。

布洛克曼表示:“如果你正在建造一个由 AI 驱动的导师,你不希望导师只是给学生一个答案,而是希望它一直解释和帮助他们学习——这是你应该能够使用该 API 建造的系统的一个应用场景的例子。我们认为这将使 API 更易于接近使用场景。

ChatGPT API 目前支撑了Snapchat+订阅用户的最新聊天机器人My AI,Quizlet的新Q-Chat虚拟导师功能。Shopify利用ChatGPT API构建了一个个性化助手,为顾客提供购物建议,而Instacart则利用它创建了即将推出的Ask Instacart工具,顾客可以询问食品问题并获得“可购买的”答案,这些答案都是基于公司零售合作伙伴的个性化产品数据。

当我通过电子邮件询问Instacart首席架构师JJ Zhuang时,他说:“购物清单可能需要承担很大的心理负担,因为有很多因素需要考虑,如预算、健康和营养、个人口味、季节性、烹饪技能、准备时间和食谱灵感等。如果AI可以承担这种心理负担,我们可以帮助那些通常负责购物、计划餐食和烹饪的家庭主妇(或男士),使购物变得真正有趣。当Instacart的AI系统与OpenAI的ChatGPT集成时,我们将能够实现这一点,并且我们很高兴开始尝试在Instacart中的商业应用。”

ChatML:ChatGPT API 的新方法

一直密切关注ChatGPT的人或许会想知道它是否准备好要发布了,这个想法或担心是正常的。

早期,用户可以让ChatGPT用种族主义和性别歧视的方式回答问题,这反映出ChatGPT最初接受训练的数据存在偏见。 (ChatGPT的训练数据包括广泛的互联网内容,包括电子书、Reddit帖子和维基百科文章。)ChatGPT还会创造事实,而不会透露它正在这样做,这在AI领域中被称为“幻觉现象”。

ChatGPT及类似系统也容易受到基于提示的攻击,即恶意对抗性提示,使它们执行原本不在其原始目标中的任务。整个Reddit社区都在寻找“越狱”ChatGPT并绕过OpenAI设置的任何保障的方法。在其中一个比较不冒犯的例子中,初创公司Scale AI的员工成功让ChatGPT透露了其内部技术如何运作的信息。

品牌毫无疑问不想陷入风险之中。Brockman 坚信他们不会。他说原因之一是后端的持续改进——有时以肯尼亚合同工的代价。但 Brockman 强调了 OpenAI 的新方法(这个方法也明显不太具有争议性),称之为聊天标记语言(Chat Markup Language)或 ChatML。ChatML 将文本作为消息序列以及元数据一起提供给 ChatGPT API。这与标准的 ChatGPT 相反,后者将原始文本表示为一系列令牌。例如,单词“fantastic”将被拆分为令牌“fan”、“tas”和“tic”。

当用户输入一个问题给 ChatGPT,比如“我30岁生日聚会有哪些有趣的主意?”,开发人员他们可以选择在这个问题前面加上一些指示语句,比如“你是一个乐于交谈的聊天机器人,旨在帮助用户回答他们的问题。你应该真实、有趣地回答!”或者“你是一个机器人。”,然后再让 ChatGPT 处理这个问题。这些指示语句有助于更好地定制和过滤 ChatGPT 模型的回答,从而得到更加符合期望的回答。

“我们正在转向更高级别的API。如果您有一种更结构化的输入系统的方式,比如说,您可以标明这个输入是来自开发者,还是来自用户,那么使用ChatML,作为开发者,您可以更有效地防范这些种类的攻击,” Brockman说道。

另一个改变(希望如此)能够避免ChatGPT的意外行为是更频繁的模型更新。Brockman表示,随着gpt-3.5-turbo的发布,开发者将默认自动升级到OpenAI的最新稳定模型,从gpt-3.5-turbo-0301(今天发布)开始。开发者可以选择保留旧模型,但这可能会减少一些好处。

专用容量计划,为客户提供更深入的控制

Brockman指出,无论他们选择是否升级到最新模型,一些客户,主要是拥有相应巨额预算的大型企业,将通过引入专用容量计划更深入地控制系统性能。OpenAI的专用容量计划于本月早些时候泄露的文档中首次详细介绍,今天已推出,它允许客户支付计算基础设施的分配来运行OpenAI模型,例如gpt-3.5-turbo。(顺便说一下,后台云服务是Azure。)

延伸阅读:什么是Azure?

Azure 是微软推出的云计算服务平台,类似于亚马逊AWS、谷歌云等平台。Azure提供了包括虚拟机、数据库、存储、人工智能、物联网、开发者工具等多种服务。用户可以通过Azure将自己的应用程序、数据、网络、计算资源等部署到云上,从而实现高效、便捷、安全的管理和运营。Azure可用于构建、测试、部署和管理应用程序和服务,可以跨平台运行,支持各种开发语言和框架,还提供了强大的安全性和数据隐私保护功能。Azure的客户群体广泛,包括个人开发者、中小型企业和大型企业。

除了“完全控制”实例负载之外,专用容量还为客户提供了启用诸如更长的上下文限制等功能的能力。上下文限制是指模型在生成额外文本之前考虑的文本范围;更长的上下文限制使模型能够更好地“记住”更多的文本内容。虽然更高的上下文限制可能无法解决所有偏见和有害信息的问题,但它们可以使像gpt-3.5-turbo这样的模型产生的虚构信息更少。

Brockman表示,专用容量的客户可以期待使用具有高达16k上下文窗口的gpt-3.5-turbo模型,这意味着它们可以处理标准ChatGPT模型四倍的标记数。这可能会让某人将数页税法粘贴到模型中,并从模型获得合理的答案,这是今天不可能实现的又一次突破。

布罗克曼暗示未来会发布一般版本,但不会很快发布。Brockman表示:“上下文窗口已经开始增加,我们现在只面向专用容量客户,部分原因是因为我们这边有很多性能权衡。我们可能最终能够提供同样的根据不同需求的定制版本。”

结束

考虑到微软对OpenAI进行了数十亿美元的投资后,OpenAI面临着越来越大的压力来实现盈利,这并不令人意外。

总体而言,OpenAI的新一代GPT-3.5-turbo模型带来了许多改进,包括更高的安全性、更快的响应时间和更大的上下文限制。此外,OpenAI还推出了专用容量计划,为客户提供更深层次的系统性能控制和更高的上下文限制。

然而,这些进展也引发了对于AI系统如何使用的更广泛的担忧和讨论。在OpenAI和类似公司的发展中,我们需要确保AI系统的安全性和可持续性,以及其对于社会和人类的潜在影响。同时,我们需要充分认识到AI系统的局限性和不足之处,以避免不必要的风险和错误。

随着技术的不断发展和完善,我们相信AI系统将为人类带来更多的好处和便利,但同时我们也需要保持警觉和谨慎,以确保其发展符合人类的价值和利益。

今天的分享就到这里,希望对你有所帮助,感谢你的阅读,文章创作不易,如果你喜欢我的分享,别忘了点赞转发,让更多有需要的人看到,最后别忘记关注「前端达人」,你的支持将是我分享最大的动力,后续我会持续输出更多内容,敬请期待。

原文:

https://techcrunch.com/2023/03/01/openai-launches-an-api-for-chatgpt-plus-dedicated-capacity-for-enterprise-customers/

非直接翻译,有自行改编和添加部分(如结尾部分是自己总结),翻译水平有限,难免有疏漏,欢迎指正