ChatGPT 的回复是否抄袭?

不 – ChatGPT 不会从其他来源获取信息,然后简单地将其逐句拼凑在一起。这是对生成式预训练 Transformer 工作原理的误解。

ChatGPT(或更准确地说是 GPT 语言模型)是在庞大的文档、网站材料和其他文本数据集上进行训练的。

它使用算法来查找数据集中的语言序列和模式。然后可以根据语言模型从这些数据集中的序列中学到的语言知识来生成段落、句子和单词。

这就是为什么如果你在两个不同的设备上同时向 ChatGPT 询问相同的问题,它的答案通常非常相似——但仍然会存在差异,有时,它会提供完全不同的答案。

巴德的回应是否抄袭?

ChatGPT 最大的竞争对手,谷歌的 Bard 自推出以来,与更受欢迎的同行相比,在抄袭内容方面遇到的问题要多得多。技术网站 Tom's Hardware 发现巴德抄袭了其一篇文章,然后在其一名员工指出此事后道歉。

最近,即 2023 年 5 月,PlagiarismCheck 告诉雅虎新闻,他们与 Bard 生成了 35 段文本,发现其中 25 段通过简单地解释互联网上已发布的现有内容而抄袭了 5% 以上。

Bard 和 ChatGPT 之间的一个很大的区别或许可以解释这一点,那就是 Bard 可以在互联网上搜索答案,这就是为什么它往往能更好地处理与 2021 年之后事件相关的问题,而 ChatGPT 则在这方面遇到了困难。然而,这似乎也意味着它以不那么原始的方式从来源中提取数据,并更频繁地引用其来源。

这些示例可能只是小插曲,但如果您使用 Bard 进行重要工作,了解其中的风险是有好处的。

其他人工智能工具是否存在抄袭行为?

不幸的是,是的——一些公司已经因为使用抄袭内容的人工智能工具而让自己陷入尴尬境地。例如,世界上最大的科技网站之一 CNET 被发现使用人工智能工具来生成文章,而且对此完全不透明。 CNET 发表的使用人工智能的文章中约有一半被发现包含一些不正确的信息。

更糟糕的是,对 CNET 的 AI 剽窃行为发起调查的 Futurism 表示,“该机器人的不当行为包括逐字复制、适度编辑和重大改写,所有这些都没有正确注明原文”。

无法生成独特原创内容(无论是艺术还是文本)的人工智能工具有可能抄袭互联网上已发布的内容。准确理解你的人工智能工具所使用的语言模型是如何工作的,并对它生成的内容进行严格监督,这一点很重要,否则你最终可能会陷入与 CNET 相同的境地。

您应该将 ChatGPT 用于论文还是工作?

使用 ChatGPT 进行论文

事实上,ChatGPT 并不是简单地从其他来源获取答案并将句子混搭在一起,这意味着可以执行各种不同的任务,而无需担心版权问题。

但其内部机制也意味着它经常产生幻觉并犯错误。它远非完美——尽管让 ChatGPT 为大学或学院撰写论文很诱人,但我们建议不要这样做。

当然,每个教育机构的具体提交指南都会略有不同,但很可能在您所在的大学或学校已经被视为“作弊”或抄袭。另外,无论准确性如何,教育机构都在使用人工智能内容检测器,随着时间的推移,这种检测器将会得到改进。

在工作中使用 ChatGPT

当然,很多——事实证明它在许多行业都很有用,可以帮助各种角色的工人在日常任务中节省宝贵的时间。

但是,如果您在工作中使用 ChatGPT,我们建议您向您的经理或主管坦白,尤其是当您将其用于重要活动(例如为外部利益相关者编写报告)时。

我们还强烈建议您对使用 ChatGPT、Bard 或任何其他 AI 工具生成的所有工作进行大量编辑和仔细审查。将敏感的个人或公司信息放入任何聊天机器人中都是不明智的,因为关于这些聊天记录的存储位置或 OpenAI 的安全基础设施的公开信息并不多。

使用其他人工智能工具进行论文或工作

当然,Bard 和 ChatGPT 并不是唯一的人工智能聊天机器人。然而,我们会犹豫是否要为任何没有强大语言模型支持的小型人工智能工具提供支持。它们的资源不会那么丰富,而且如果您尝试在工作中使用它们,您也不太可能发现它们有用。

然而,同样的规则仍然适用 - 向您的经理开放并获得使用它们的批准,不要输入任何敏感的公司数据,并始终查看您得到的答案。