OpenAI 遭遇了第一起针对 ChatGPT 生成的虚假信息的诽谤诉讼。
佐治亚州的一位电台主持人马克·沃尔特斯 (Mark Walters) 在 ChatGPT 表示沃尔特斯被指控诈骗和挪用非营利组织的资金后,正在起诉该公司。该系统根据第三方(一位名叫 Fred Riehl 的记者)的请求生成了信息。 Walters 的案件于 6 月 5 日在佐治亚州格温内特县高等法院提起,他正在向 OpenAI 寻求未具体说明的金钱赔偿。
鉴于人们普遍抱怨 ChatGPT 和其他聊天机器人生成的虚假信息,此案值得注意。这些系统没有可靠的方法来区分事实和虚构,当被要求提供信息时——特别是当被要求确认提问者提出的某些内容是真实的时——它们经常发明日期、事实和数字。
“我听说了这个新网站,我错误地认为它是一个超级搜索引擎。”
通常,这些捏造的行为只不过是误导用户或浪费他们的时间。但此类错误造成伤害的案例已经开始出现。其中包括一名教授在 ChatGPT 声称他的学生使用人工智能撰写论文后威胁要让他的课程不及格,以及一名律师在使用 ChatGPT 研究虚假法律案件后面临可能的制裁。该律师最近告诉法官:“我听说了这个新网站,我错误地认为它是一个超级搜索引擎。”
OpenAI 在 ChatGPT 的主页上包含了一个小的免责声明,警告该系统“可能偶尔会生成不正确的信息”,但该公司也将 ChatGPT 作为可靠数据的来源,在广告文案中将该系统描述为“获取答案”和“学习”的一种方式。新鲜玩意。” OpenAI 自己的首席执行官 Sam Altman 曾多次表示,他更喜欢从 ChatGPT 中学习新信息,而不是从书本中。
不过,目前尚不清楚是否有法律优先权让一家公司对生成虚假或诽谤性信息的人工智能系统负责,也不清楚这个特殊案件是否具有实质性优点。
传统上,在美国,第 230 条保护互联网公司免于对第三方生成并托管在其平台上的信息承担法律责任。目前尚不清楚这些保护措施是否适用于人工智能系统,因为人工智能系统不仅链接到数据源,而且重新生成信息(这一过程也会导致创建虚假数据)。
有关的
沃尔特斯在佐治亚州提起的诽谤诉讼可能会考验这一框架。该案件称,记者 Fred Riehl 要求 ChatGPT 通过链接到在线 PDF 来总结一个真实的联邦法院案件。 ChatGPT 的回应是对案件进行了虚假摘要,该摘要详细且令人信服,但在多个方面都是错误的。 ChatGPT 的摘要包含一些事实上正确的信息,但也包含针对沃尔特斯的虚假指控。据称,沃尔特斯据信从一家名为第二修正案基金会的枪支权利非营利组织挪用了“超过 500 万美元”的资金。沃尔特斯从未因此受到指控。
Riehl 从未公布 ChatGPT 生成的虚假信息,而是与另一方核实了详细信息。从案件备案中尚不清楚沃尔特斯是如何发现这一错误信息的。
值得注意的是,尽管遵守了 Riehl 总结 PDF 的要求,但 ChatGPT 实际上无法在不使用额外插件的情况下访问此类外部数据。该系统无法提醒 Riehl 这一事实,这就是其误导用户的一个例子。 (虽然,当 边缘 今天在同一任务上测试了系统,它做出了清晰而翔实的回应,说道:“很抱歉,作为一个基于人工智能文本的模型,我无法访问或打开特定的 PDF 文件或其他外部文档”)
法学教授尤金·沃洛赫 (Eugene Volokh) 撰写了有关人工智能系统法律责任的文章,他在一篇博客文章中指出,尽管他认为“这种[针对人工智能公司]的诽谤指控原则上在法律上是可行的”,但这一特殊诉讼“应该很难被起诉”。维持。” Volokh 指出,Walters 没有通知 OpenAI 这些虚假陈述,让他们有机会删除它们,而且 ChatGPT 的输出并没有造成任何实际损害。 “无论如何,看看这里最终会发生什么将会很有趣,”沃洛克说。
我们已联系 OpenAI 征求意见,如果收到回复,我们将更新此报道。