自GPT-4上线之后,各国对于AI带来的安全问题愈发重视,纷纷进行调查或出台政策。或为缓解外界担忧,4月6日,ChatGPT的开发公司OpenAI在其官网发布《Our approach to AI safety》(《我们保障AI安全的方法》)一文,表示未来将通过多种方式确保AI的安全使用。

该文涵盖了保障AI安全的六个举措,包括构建日益安全的系统、根据实践经验改善AI、保护儿童、尊重隐私、提高事实准确性及持续地研究与参与。

文章在“保护儿童”一项中提到,OpenAI的用户必须“年满18周岁”或者“年满13周岁且在父母同意的情况下”才能使用公司的AI工具,具体的验证方式正在研究中。

OpenAI不允许其技术被用于生成仇恨、骚扰、暴力或成人内容,相比GPT-3.5,GPT-4响应禁止内容请求的可能性降低了82%。同时,OpenAI将做出最大努力,减少有害儿童内容的生成:如当用户试图将儿童性虐待材料上传到图像工具时,OpenAI会阻止并向美国国家失踪与受虐儿童援助中心报告。

隐私方面,OpenAI承诺将不会使用数据来销售服务、投放广告或建立用户数据库,并致力于在可行情况下从训练数据集中删除个人信息,微调模型以拒绝对私人信息的请求,响应用户从OpenAI系统中删除个人信息的请求。

在“提高事实准确性”方面,OpenAI表示,通过用户的错误报告反馈,GPT-4的事实内容准确性较GPT-3.5提高40%。OpenAI将尽可能做到透明,让公众知道ChatGPT给出的答案不是百分百准确的,了解AI工具的局限性。

自ChatGPT发布以来,在全世界范围内引发了一场人工智能狂热,全球科技巨头争相布局。而仅仅四个月后,功能更强大的GPT-4就宣布问世,其迭代速度之快令人咋舌,对技术安全问题的担忧也随之出现。

事实上,ChatGPT带来的数据泄露问题已经开始显现。此前有用户反映,自己的聊天历史栏中出现了别人的聊天历史;据媒体报道,三星半导体业务部门在引入ChatGPT后的20天内出现3起机密文件外泄事故。

3月31日,意大利成为第一个“封杀”ChatGPT的国家,该国将全面禁止使用ChatGPT并开始立案调查。意大利方面指出,ChatGPT没有就收集处理用户信息进行告知,没有任何年龄核实系统,可能导致未成年人接触到非法信息。

随后,德国联邦数据保护专员发言人也表示,暂时禁止在德国使用ChatGPT原则上是可能的。加拿大隐私专员办公室官网也宣布开始调查有关“OpenAI未经同意收集、使用和披露个人信息”的指控。

除了信息泄露、非法信息等问题,AI发展是否会对人类发展构成威胁的争论也已开始。

3月29日,特斯拉CEO马斯克、苹果联合创始人史蒂夫·沃兹尼亚克在内的上千名各界知名人士签署联名信,呼吁全球所有机构暂停训练比GPT-4更强大的AI至少六个月。他们认为近几个月AI的数字思维开发得越来越强大,竞争逐渐失序,但管理和规划仍然缺位,包括创造者在内,没有人可以理解、预测或控制它们。

公开信建议称,AI实验室和独立学者应针对高级AI的设计和开发共同制定实施一套共享安全协议,确保AI的安全性。与此同时,AI开发人员必须与决策者合作,大力推进强有力的AI治理系统的发展。

不过亦有人工智能领域专家指责联名信把AI的威胁夸大了,“将想象中的‘世界末日’情景强加于人工智能”。360创始人周鸿祎也声称,“GPT将引领一场新的工业革命,带来生产力的大幅提升,现在担心风险为时尚早。”