ChatGPT 在很多领域都可以提供帮助,但法院可能不是一个很好的选择。好吧,并不是每个人都这么认为,因为一些美国律师由于依赖人工智能模型而获得了很好的结果。这是一个非常有趣的案例,它凸显了人工智能的缺陷以及在信任人工智能搜索结果之前需要进行适当的研究。
所涉罚款价值 5,000 美元,将分摊至涉案各方。该案的律师史蒂文·施瓦茨(Steven Schwartz)将此事归咎于他的当事人和其他各方。他通过让 ChatGPT 获得他将在法庭上针对被告的重要观点来做到这一点,是的,存在严重错误。
与人工智能模型 ChatGPT 不同,法院能够做出调查结果,并发现 Steven Schwartz 的人工智能生成的引用是错误的。这一发现意味着史蒂文·施瓦茨 (Steven Schwartz) 出庭时以虚假引文向法庭陈述案件,因此应处以罚款。但律师到底是如何在案件中使用 ChatGPT 的,到底出了什么问题?
因从 ChatGPT 获取法庭案件事实而被罚款 5,000 美元
史蒂文·施瓦茨 (Steven Schwartz) 是该案的律师,该案涉及他的客户和哥伦比亚航空公司 (Avianca)。由于某种原因,史蒂文的客户正在起诉航空公司,需要一位律师来支持他的客户。为了更好地应对此案例,Steven 让 ChatGPT 针对类似案例做了一些功课。
这是一个坏主意,如果他审查了 ChatGPT 搜索结果,他本可以避免这个主意。众所周知,当人工智能模型无法找到合理的反应时,它们往往会凭空形成信息。纽约律师史蒂文并没有意识到人工智能模型的“操纵性”本质,现在他正在经历惨痛的教训。
ChatGPT 向史蒂文提供了与他即将在法庭上面临的案件类似的虚假法庭案件。他不知道该信息是错误的,因此将其告上法庭作为先例。好吧,法院做了功课,发现“马丁内斯诉达美航空和米勒诉联合航空”案件并不存在。
法院很快就弄清楚了这一点,并对史蒂文·施瓦茨 (Steven Schwartz) 及其涉案同伙处以 5000 美元的罚款。当然,法院在法律上承认人工智能的存在,但需要对其提供的信息进行确认。是的,人工智能在许多行业中发挥着至关重要的作用,但需要谨慎对待它的使用。