OpenAI 刚刚发布了其最新的人工智能模型 GPT-4,该模型在各种专业和学术基准测试中展现了人类水平的表现。
GPT-4 是一个大型多模式模型,可以接受图像和文本输入并生成文本输出。
在本文中,我们将探讨 GPT-4 的功能、限制以及使用它所涉及的风险。
到最后,您将更好地了解 GPT-4 的潜在影响以及它能做什么和不能做什么。
能力
GPT-4 的功能在可靠性、创造性和对细微指令的处理方面比之前的模型 GPT-3.5 有所改进。
OpenAI 在各种基准测试中测试了模型,包括为人类设计的模拟考试,发现 GPT-4 优于现有的大型语言模型。
它在英语以外的语言中也表现良好,包括拉脱维亚语、威尔士语和斯瓦希里语等资源匮乏的语言。
视觉输入
GPT-4 可以接受文本和图像作为输入,使其能够根据包含文本和图像的输入生成文本输出。
虽然该模型的视觉输入功能仍处于研究预览阶段,但它已显示出与纯文本输入类似的功能。
可操纵性
OpenAI 一直致力于其关于定义 AI 行为的帖子中概述的计划的各个方面,包括可操纵性。
开发人员现在可以通过描述“系统”消息中的方向来规定他们的 AI 的风格和任务。
API 用户可以在一定范围内自定义他们的用户体验,从而实现显着的个性化。
限制
GPT-4 并不完美,具有与早期 GPT 模型相似的局限性。
它仍然可以“幻觉”事实并产生推理错误,因此在使用语言模型输出时应谨慎,尤其是在高风险上下文中。
GPT-4 不知道 2021 年 9 月之后发生的事件,这可能会导致它出现简单的推理错误并将虚假陈述视为真实。
它也可能无法像人类一样挑战问题,例如在其代码中引入安全问题。
GPT-4 可以做出自信但不正确的预测,并且并不总是仔细检查其工作。
有趣的是,基础模型擅长预测其答案的准确性,但这种能力在训练后会降低。
风险与缓解措施
虽然 GPT-4 的功能很重要,但它带来了新的风险,例如生成有害建议、错误代码或不准确的信息。
OpenAI 一直致力于降低这些风险,与 50 多位专家合作对模型进行对抗性测试并收集更多数据以提高 GPT-4 拒绝危险请求的能力。
因此,OpenAI 对 GPT-4 进行了许多改进,使其比 GPT-3.5 更安全。
与以前的版本相比,GPT-4 提供不当内容的可能性降低了 82%,并且它更好地遵循了有关医疗建议和自残等敏感话题的政策。
虽然 OpenAI 使模型更能抵抗不良行为,但生成违反使用规则的内容仍然是可能的。
OpenAI 表示,GPT-4 可能对社会有益或有害,因此它正在与其他研究人员合作以了解潜在影响。
训练过程
与以前的 GPT 模型一样,GPT-4 基础模型经过训练,可以使用公开可用的数据和 OpenAI 许可的数据来预测文档中的下一个单词。
使用强化学习和人工反馈 (RLHF) 微调模型的行为,使其与护栏内的用户意图保持一致。
可预测的扩展
GPT-4 项目的一个重要重点是构建可预测扩展的深度学习堆栈。
OpenAI 开发了具有跨多个尺度的可预测行为的基础架构和优化,可以准确预测 GPT-4 在训练期间的最终损失。
可用性
Microsoft 确认新的 Bing 搜索体验现在可以在 GPT-4 上运行。
虽然它有使用限制,但您也可以通过订阅 ChatGPT Plus 访问 GPT-4。
OpenAI 可能会根据需求和系统性能调整使用上限。该公司正在考虑添加另一个订阅层以允许更多 GPT-4 使用。
要访问 GPT-4 API,您必须注册候补名单。
结论
GPT-4 的创建标志着 OpenAI 努力扩大深度学习的一个重要里程碑。
虽然不完美,但它在各种学术和专业基准测试中表现出了人类水平的表现,使其成为一个强大的工具。
但是,在高风险上下文中使用语言模型输出时应谨慎。
OpenAI 一直致力于降低风险并构建可预测扩展的深度学习堆栈,这对于未来的 AI 系统至关重要。
特色图片:Muhammad S0hail/Shutterstock
来源:OpenAI
OpenAI 刚刚发布了其最新的人工智能模型 GPT-4,该模型在各种专业和学术基准测试中展现了人类水平的表现。