本文
ChatGPT名字的核心是“GPT”这三个英文缩写字母,翻译过来的意思是“生成式预训练转化器”,即采用大量数据训练出一个巨大的神经元网络转化器,生成与人类交互的内容。因为其最核心的智能技术是“生成”,所以这种技术就被称为“生成式人工智能”或者“人工智能生成内容”。这个技术根据模型转换器的不同,可以被用于生成各种各样不同的内容。如果生成的内容是与人类之间的对话,比如回答问题、写一个报告或文档等,这就是我们现在看到的ChatGPT,也就是可以进行“会话的GPT”了。
从计算机科学的角度来看,ChatGPT的技术路线起源于自然语言处理,目的是要让计算机理解人类使用的语言。为了能够应对复杂的情况,其往往采用超大型的语言模型,依靠不断增加模型参数来提升性能,通过越来越多的人类现有语言文本数据样本进行学习训练。而且,为了使ChatGPT会话更符合社会道德准则和生活实际,开发者还给它增加了“基于真人反馈的增强学习”过程,以及大量的标注过的准确数据,使得它组织起来的答案更能为人们所普遍接受。
相比于以往的人工智能程序,ChatGPT能做很多事情。ChatGPT的训练阅读了大量逻辑严谨、写作规范的各学科学术文献,这是任何一个人毕其一生都难以达到的。因此它非常适合于针对具体研究主题,根据所提问题进行分解、归纳或总结,并在此基础上列出所要的研究提纲或模板。此外,ChatGPT还可以充当“万能+”。语言是人类交互的工具,也是人类知识的载体,还可以是人类智能的体现。将人类常识引入到智能决策中,过去是个很大难题,但现在就变得有可能了。再比如,人机交互过去只能局限在感知智能层面,而现在通过ChatGPT就可以达到内容理解层面。所以,让ChatGPT充当其他系统的“基座”,与其他系统配合就可以得到更好的智能系统,比如它与兵棋推演系统的结合,与分布式会议系统的结合,都可能带来惊喜。
上述所说只是ChatGPT功能的一部分,并不是全部。ChatGPT目前虽然只是生成流畅的会话,但在背后支撑它的大模型技术和内容生成技术,却代表了人工智能技术发展的一个重要里程碑。大模型技术的出现,一改过去我们仅关注专业领域智能技术突破的做法,通过引入巨量参数对基础知识关系进行复杂表达,从量变到质变,最终使我们朝解决通用智能问题又迈进了一大步。
恩格斯说过:“一旦技术上的进步可以用于军事目的并且已经用于军事目的,它们便立刻几乎强制地,而且往往是违反指挥官的意志而引起作战方式上的改变甚至变革。”毫无疑问,以ChatGPT为代表的人工智能前沿技术必然会应用于军事领域。近年来,外军不断发展人工智能等颠覆性技术,力求形成技术代差优势。早在2017年,美军就提出了“算法战”概念。随后,美军设立“算法战跨职能小组”,启动“码文工程”项目,并吸收谷歌、亚马逊、微软等商业巨头参与,积极推动人工智能、大数据、机器学习等先进技术快速融入美军作战体系,试图打一场“让对手看不懂的战争”。
就直接运用ChatGPT而言,其对军事领域的作用和影响不容忽视。在未来的信息化智能化战争中,作战人员在战场上具有强大的情报收集能力和近乎实时的信息感知能力,ChatGPT可以用于数据分析与决策支持、自然语言处理等基础工作,海量的战场信息经其处理,将会给指挥员的决策能力带来质的飞跃。在此基础上,可能会导致部分传统业务岗位发生改变,从而引发军队编制体制变革。如果再将其进行专业训练后与其他系统配合,可以用于训练想定编写、作战方案生成、作战计划安排、行动规划拟制、演习结果讲评等较为复杂的工作,这将会带来许多指挥决策机构业务调整,甚至将重塑指挥决策流程。如果今后其继续迭代升级,还有可能参与完成战争计划分析、危机处置方案评估等更高阶的工作。此外,在认知域作战中,ChatGPT技术还有可能被用于生产假新闻、假邮件,甚至模仿人的语言风格实施信息诱骗,或被用于网络攻击之中。
在笔者看来,就ChatGPT的核心技术即大模型技术而言,其对军事领域的影响既不可低估,也不宜高估。大模型技术作为“基座”,很可能会引发智能技术批量突变,使许多当前徘徊不前的智能技术获得突破。尤其是结合以“阿尔法狗”为代表的深度学习技术后,还可能导致指挥决策控制系统升级换代,从而大幅度提升体系作战能力。然而,军事智能领域的固有难题比如战争的“强对抗”“高实时”“过复杂”“不确定”等特性,当前的技术手段在解决途径上仍存在“缺样本”“没数据”“不开放”“难共享”等问题。2016年,“阿尔法狗”在围棋的人机大战中战胜人类选手,很多人认为解决作战指挥智能决策问题已指日可待,但之后相关议题却踯躅不前。今天,ChatGPT的出现又让很多人心生期待,但按照技术的演进趋势来看结局仍然不得而知。与其他领域相比,解决战争问题的思路与方式十分特殊,技术可以借用,但更强调思维方式的创新。
究其根本,人工智能想要追赶上的是人类的智慧。但人类大脑的复杂性是无止境的,它始终在不断进化和发展之中。理解复杂的结果不会使其变得更简单,而是只会变得更复杂,因而也就不可能用简单方法加以实现。大模型之路是否正确,现在还无法完全判定,其给人工智能技术带来巨大技术进步的同时,也提出了很多需要关注的难题。有媒体评论,ChatGPT是“既引人入胜,又让人毛骨悚然”。什么东西不能交给大模型处理?在哪些地方“人”是不可或缺的?ChatGPT的使用如何纳入诚信、政策问题研究?什么才是“准确的知识”?如何加强AI的开放原则?它对法律有何影响?等等。这些问题都值得我们深入思考。
主管|国防大学政治工作部
主办|国防大学政治工作部宣传处
编𠃊辑:王皓
邮𠃊箱:gfdxwx@163.com