OpenAI——GPT-4和其他生成人工智能模型的制造商——一直公开呼吁加强人工智能监管,但私下却寻求减少监管。
一份发送给欧盟立法者的游说文件,题为“OpenAI 关于欧盟人工智能法案的白皮书”,该文件表明 OpenAI 的大型基础模型不应被视为高风险。
该白皮书的日期可以追溯到 2022 年 9 月,获得者: 时间,提出了几项修正案,据报道已纳入一周前批准的欧盟人工智能法案草案文本中。在最终批准之前,监管语言将是进一步谈判和可能更改的主题,最终批准可能会在六个月内发生。
OpenAI 似乎最关心的是欧盟法律中有关人工智能何时被归类为高风险的部分。
游说文件指出:“附件 III 1.8.a 中的新语言可能会无意中要求我们将 GPT-3 和 DALL-E 视为本质上高风险的系统,因为它们理论上能够生成该条款范围内的内容”。
它认为,与其添加这些限制性条款,法律的另一部分(第 52 条)足以确保人工智能提供商采取合理措施来减少虚假信息和深度造假,而无需应用“高风险”分类。
根据规则草案,如果人工智能系统出现以下情况,则被视为“不可接受的风险”: 部署有害的操纵性“潜意识技术”;利用特定的弱势群体(身体或精神残疾);由公共当局或代表公共当局用于社会评分目的;并在公共可访问空间中为执法部门提供实时远程生物识别系统,特殊情况除外。
拟议的人工智能法案第三章(第 6 条)涵盖了可能对人们的安全或基本权利产生不利影响的“高风险”人工智能系统。
此类系统须遵守透明度和合规性要求,包括以下系统: 生物识别和人类分类系统;关键基础设施的管理和运营;教育和职业培训;就业、工人管理和自营职业的机会;获得基本的私人和公共服务和福利;执法;移民、庇护和边境管制管理;以及司法和民主程序。
本质上,游说文件认为“高风险”称号应该适用于人工智能模型的较少使用。这一信息与 OpenAI 官员和其他人要求政府监督的呼吁不同——规模较小的竞争对手担心这会不公平。
实际上,OpenAI 等公司希望政府监管,但希望引导监管,以便他们的机器学习技术不会落入会吸引更严格规则和更多繁文缛节的类别。在公开场合,他们呼吁为所有人制定更多规则和保障措施,而在私下里,他们主张采取更宽松的做法。
OpenAI 首席执行官 Sam Altman 以及联合创始人 Greg Brockman 和 Ilya Sutskever 今年早些时候发表了一篇博文,警告超级人工智能可能在十年内实现。
同一天,Altman 警告称,如果欧盟的人工智能规则过于严格,OpenAI 可能会离开欧盟。两天后,他否认有任何离开欧盟的计划。
政策倡导组织 AI Now Institute 对 OpenAI 论文的发表做出了回应,呼吁对行业游说进行更严格的审查。
该组织写道:“随着企业游说淡化规则,我们需要仔细审查行业在监管人工智能方面的姿态。”他补充说,通用人工智能具有固有的风险,并且已经造成了损害。
大型行业参与者的监管捕获是许多行业的一个众所周知的问题。 OpenAI 前所未有的游说表明它也在试图制定自己的规则。它所声称的对监管的兴趣引发了更多的问题,而不是该公司是否在挤压规模较小的竞争对手,以及内容创作者是否应该因训练其模型所需的大量无偿收集在线内容而获得补偿。
看到开发商公开敦促立法者通过打击机器学习系统的立法,只是为了在这些规则的细则中包含精心设计的条款,让 OpenAI 能够不受约束地运营,这并不奇怪。
OpenAI 拒绝置评。 ®