看看任何学生的学术诚信政策,你都会发现相似的信息:提交反映你自己想法的作品,否则将面临纪律处罚。一年前,这几乎是地球上最常识性的规则。而今天,这已经成了天真的想法。
教授和管理人员认为学生在书面作业中使用生成性人工智能(Generative AI)的方式(例如 ChatGPT)与我们实际使用它的方式之间存在显著的脱节。
我们一般认为,如果一篇文章是在 ChatGPT 这样的生成性人工智能工具的帮助下写的,就会有某种证据 — 它会有独特的「声音」或「痕迹」,例如不会提出非常复杂的论点,或者人工智能检测程序会检测出或发现这样的作业 ... 这些都是危险的误解。
在现实中,使用人工智能来完成大部分思考,同时仍然提交看起来像你自己的作品是非常容易的。一旦这一点变得清晰或易于操作,那当学校想要继续训练学生进行批判性思考时,就需要进行大规模的结构性变革。
老师们普遍担心的是,人工智能在代替我们写论文,但事实并非如此。你可以给 ChatGPT 一个提示,要求它完成一个作品,但你可能会得到一篇非常笼统的文章,中学水平的句子结构,以及你想要的一半的词汇或描述。
更有效、也越来越受欢迎的策略是让人工智能一步一步地引导你完成写作过程。你告诉算法你的主题是什么,并要求一个中心主张,然后让它给你一个大纲来论证这个主张。根据主题的不同,你甚至可以让它一个接一个地写下大纲要求的每一段,然后自己重写和润色,让它们更流畅,更符合你的个人风格。
举个例子,我告诉ChatGPT,「我要写一篇6页的《伊利亚特》细读。给我一些非常具体的论文陈述选项。」这里有一个建议:「伊利亚特中的神不仅仅是为了自娱自乐而干涉人类事务的反复无常的存在,也反映了凡人面临的道德困境和冲突。」与此同时,它还列出了其他九个想法,其中任何一个我都愿意扩展或争论。
这样的思考过程实际上已经为我完成了大部分的构思。以前的学生都知道,写论文的主要挑战之一就是思考主题,并提出一个强有力的、有争议的主张。而现在在 AI 的加持下,打个响指,大脑活动几乎为零,于是我就有了一个想法。
我让 ChatGPT 为我概述论文,它做得很详细,提供了一个五段结构和如何写每一段的说明。
例如,对于「正文第一段:作为道德仲裁者的神」,ChatGPT 写道:「在《伊利亚特》中引入神作为道德仲裁者的概念。提供神如何作为人类行为的法官,根据个人的行为惩罚或奖励他们的例子。分析神的判断如何反映古希腊社会的道德准则和价值观。使用课文中的特定段落来支持你的分析。」现在剩下工作的就是我按照这些指示去做,也许在我认为计算机的推理有缺陷或乏善可陈的地方稍微修改一下结构或表述的方式。
这里最重要的一点是,要抓住「使用 ChatGPT 辅助构思和思考这一过程」的学生是几乎不可能做到的,对学生来说,ChatGPT 这类工具出现后,写作不再是一种思考练习。
解决这样问题的关键不在于缺乏人工智能辨识捕捉技术 - 即使我们可以明确判断任何给定的单词是否是由 ChatGPT 或其他 AI 工具所产生,我们仍然无法防止作弊。纸上的想法可以由计算机生成,而文章可以是学生自己的。没有人或机器能读懂这样一篇论文,找到人工智能的痕迹。
面对这样的问题,有两个可能的解决思路。
一是我们应该拥抱人工智能在写作过程中开始扮演的角色。「那么现在什么文章更容易写呢?AI 永远在这里;学生不妨学会使用它。」当然,学会整理一篇有凝聚力的书面作品是很重要的,所以在目标为教授这种技能的作业中主动采用人工智能是非常有意义的。事实上,不这样做会适得其反:如果一个工具是有用的并且可以广泛获得,学生应该学会如何使用它。
但是如果这是我们唯一的收获,那就忽略了文章作为练习批判性思维的方法的价值。当我们希望学生学习如何思考时,一旦人工智能介入,作业就变得基本上毫无用处。
因此,与其完全接受人工智能作为写作助手,合理的结论是,需要在鼓励使用人工智能的作业和使用人工智能不可能有所帮助的作业之间进行划分。
学校应该让学生为未来做好准备,人工智能素养在我们的未来教育体系里肯定很重要。但是 AI 不是一切。如果教育系统要继续教学生如何思考,他们需要放弃将带回家的论文作为一种手段,转而进行不受人工智能影响的作业,如口试、课堂写作或一些更适合人工智能世界的新风格的学校作业。
就目前的情况来看,我们的系统没有实现这两个目标。我们没有完全依靠人工智能并教授如何最好地使用它,我们也没有完全禁止它以防止它干扰批判性思维的练习。我们正处于一个尴尬的中间地带,没有人知道该做什么,很少有教育管理者明白出了什么问题。
随着生成性人工智能工具的普及,在任何给定的时间,当你抬头环顾教室,也许发现越来越多的人在 AI 的帮助下做作业。
而我们,不再被迫思考。
至于人们担心 AI 人工智能可能「终于」开始让我们的教育机构和体系变得过时。在我看来,这已经发生了。