OpenAi发布ChatGPT安全使用方法
4月6日凌晨,Open AI在官网发布了《Our approach to AI safety》,以确保安全、可靠地为全球用户提供ChatGPT服务。目前,ChatGPT的安全问题受到了全球多数国家的高度关注。意大利则直接禁用ChatGPT,欧洲多数国家也开始纷纷重视ChatGPT是否侵犯数据隐私等。一时间生成式AI的数据安全成为热门话题。OpenAI致力于保持强大的AI。我们知道我们的人工智能工具为今天的人们提供了许多好处。我们世界各地的用户告诉我们,ChatGPT 有助于提高他们的生产力、增强他们的创造力并提供量身定制的学习体验。我们还认识到,与任何技术一样,这些工具也存在真正的风险,因此我们努力确保在各个层面将安全性内置到我们的系统中。安全且广泛有益构建越来越安全的 AI 系统
在发布任何新系统之前,我们会进行严格的测试,聘请外部专家提供反馈,通过人类反馈的强化学习等技术来改善模型的行为,并建立广泛的安全和监控系统。例如,在我们的最新模型 GPT-4 完成培训后,我们花了 6 个多月的时间在整个组织中工作,以使其更安全、更一致,然后再公开发布。我们认为,强大的人工智能系统应该经过严格的安全评估。需要监管以确保采用此类做法,我们积极与政府就此类监管可能采取的最佳形式进行接触。
从实际使用中学习以改善安全措施
我们努力在部署之前防止可预见的风险,但是,有一个.尽管进行了广泛的研究和测试,但我们无法预测所有 ,也无法预测人们会滥用它的所有方式。这就是为什么我们认为,随着时间的推移,从现实世界的使用中学习是创建和发布越来越安全的人工智能系统的关键组成部分。限制我们在实验室中可以学到的东西人们使用我们技术的有益方式我们谨慎并逐步向稳步扩大的人群发布新的人工智能系统,并采取实质性的保护措施,并根据我们学到的经验教训进行持续改进。我们通过自己的服务和 API 提供我们最强大的模型,以便开发人员可以将这项技术直接构建到他们的应用程序中。这使我们能够监控滥用并采取行动,并不断构建缓解措施,以响应人们滥用我们系统的真实方式 - 而不仅仅是关于滥用可能是什么样子的理论。现实世界的使用也促使我们制定越来越细致的政策,反对对人们构成真正风险的行为,同时仍然允许我们的技术的许多有益用途。至关重要的是,我们认为社会必须有时间来更新和适应能力越来越强的人工智能,并且每个受这项技术影响的人都应该对人工智能如何进一步发展有很大的发言权。迭代部署帮助我们让各种利益相关者更有效地参与有关采用人工智能技术的对话,而不是没有使用这些工具的第一手经验。保护儿童
我们安全工作的一个关键重点是保护儿童。我们要求用户必须年满 18 周岁,或经父母批准年满 13 周岁,才能使用我们的 AI 工具,并正在研究验证选项。我们不允许我们的技术用于生成仇恨、骚扰、暴力或成人内容等类别。与 GPT-4.82 相比,我们的最新型号 GPT-3 响应不允许内容请求的可能性降低了 5%,并且我们建立了一个强大的系统来监控滥用行为。GPT-4 现在可供 ChatGPT Plus 订阅者使用,我们希望随着时间的推移将其提供给更多人。我们付出了巨大的努力,以尽量减少我们的模型生成伤害儿童的内容的可能性。例如,当用户尝试将儿童性虐待材料上传到我们的图片工具时,我们会阻止并向国家失踪和受虐儿童中心报告。除了我们默认的安全护栏外,我们还与非营利性可汗学院等开发人员合作,该学院已经建立了一个既可以作为学生的虚拟导师又可以作为教师的课堂助理的功能,为他们的用例量身定制安全缓解措施。我们还在开发允许开发人员为模型输出设置更严格标准的功能,以更好地支持需要此类功能的开发人员和用户。人工智能助手尊重隐私
我们的大型语言模型在广泛的文本语料库上进行训练,其中包括公开可用的内容、许可内容和人工审阅者生成的内容。我们不会将数据用于销售我们的服务、广告或建立人员档案,而是使用数据来使我们的模型对人们更有帮助。例如,ChatGPT 通过进一步培训人们与它的对话来改进。虽然我们的一些训练数据包括公共互联网上提供的个人信息,但我们希望我们的模型了解世界,而不是个人。因此,我们努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并响应个人从我们的系统中删除其个人信息的请求。这些步骤最大限度地减少了我们的模型生成包含个人个人信息的响应的可能性。今天的大型语言模型根据他们以前看到的模式预测下一系列单词,包括用户提供的文本输入。在某些情况下,下一个最有可能的词可能实际上并不准确。提高事实准确性是OpenAI和许多其他AI开发人员的重要关注点,我们正在取得进展。通过利用用户对标记为不正确的 ChatGPT 输出作为主要数据源的反馈,我们提高了 GPT-4 的事实准确性。产生比 GPT-3.5 更真实的内容。GPT-4 的可能性增加 40%当用户注册使用该工具时,我们努力尽可能透明,ChatGPT 可能并不总是准确的。然而,我们认识到,要进一步减少幻觉的可能性,并教育公众了解这些人工智能工具的当前局限性,还有很多工作要做。