“在人工智能时代,人文社科领域的学者并不是一个被动的参与者,而是要在参与性塑造的基础上,构建人工智能社会科学的未来。”在2018年出版的《人工智能:驯服塞维坦》一书中,华东政法大学政治学研究院院长、人工智能与大数据指数研究院院长高奇琦教授曾表示,科技对人类具有复杂性的影响,人文社科学者不该缺席关乎人类命运和人类发展的关于人工智能的大讨论。

近段时期,互联网上席卷起一阵“ChatGPT潮”,聚焦ChatGPT的进展、风险与应对,高奇琦教授带领团队发布了一份最新研究报告,希望让人们从更加专业的角度去理解和透视当下正在发生的ChatGPT火爆现象,同时对一些问题作出尝试性的回答。作为一名关注人工智能领域多年的人文社科学者,他对ChatGPT“热潮”有哪些“冷思考”?面对科技带来的复杂影响,人类社会又该如何应对?解放日报·上观新闻记者就此采访了高奇琦教授。

做“引领者”而不是“跟跑者”

解放日报·上观新闻:ChatGPT与过去的AI机器人相比有何区别?

高奇琦:这次ChatGPT之所以引起这么大的轰动,是因为它代表了一种强人工智能突破的可能性。原来的人工智能基本上是弱人工智能,或者说是专用人工智能。比如家里常用的“小爱同学”,只能回答一些相对简单的问题,稍微复杂的问题它就回答不了。2016年击败围棋世界冠军李世石的AlphaGo很厉害,但它也是一个专用人工智能,除了围棋以外无法胜任其他事情。而ChatGPT是一种通用人工智能,或者说是强人工智能。用户只要向它发出比较具体的提示语,告诉机器希望它干什么,它就可以做翻译、写程序、整理数据甚至进行文化创作,还可以煞有介事地“编瞎话”,给人一种“无所不能”的感觉。

因此,ChatGPT跟原来的AI机器人最大的区别,在于它的通用性,其背后所依托的通用大模型技术是关键。通用大模型通常具有海量的参数和复杂的架构,可以通过预训练或其他方式在大型数据集上进行学习,经过微调后高效地处理计算机视觉、自然语言处理等复杂任务。目前,通用大模型的研发已经成为各国新一轮技术竞争的核心领域。

解放日报·上观新闻:ChatGPT这样的科技创新,为什么没有首先出现在中国?

高奇琦:其实,能提出这个问题,从一个侧面表明中国已经有了非常强的原始创新意愿,这是一个非常大的进步。但同时也要意识到,我们的基础还是差一些,比方说人才素质、顶尖科学家的数量等,与美国相比还有差距。

通用大模型是一个系统工程,算法、数据和算力这三个因素至关重要。目前,我们的差距主要集中在数据和算力。数据方面,英文互联网上的数据质量相对比较高,也更易于清洗。ChatGPT之所以问题回答得好,很重要的原因就在于英文互联网上有大量比较准确的知识类信息,可以用于模型训练。中文互联网产生的数据也很多,但质量还有差距,加之国内的数据大量储存于移动端APP中,数据比较难抓取,而互联网巨头之间的数据又是相互封闭的,数据孤岛化的情况也比较严重。算力是另一个巨大的挑战,ChatGPT需要至少3万张英伟达A100卡的算力,这是巨大的一笔投入。

解放日报·上观新闻:中国如何缩小差距、迎头赶上?

高奇琦:数据方面,要提高数据质量,打通数据孤岛,推动数据的共享和互联互通。算力方面,通过政府投资、协调形成更大的算力基础设施,比如统筹优化算力资源、建立公共算力池等,把基础设施和硬件条件完善起来。同时,更有效地鼓励头部企业率先发力、迎头赶上。

技术追赶当然很紧迫,从中国的基础来看,也并非是“不可能的任务”。但问题在于,我们进步的同时,他们也在进步,当我们追上他们某一阶段的技术,对方又跑到前面去了。因此,我们光追赶可能还不行,必须有更深远的眼光、更超前的布局,要去判断接下来三五年技术突破的趋势,努力去做“引领者”而不是“跟跑者”。

平衡好科技创新和风险应对之间的张力

解放日报·上观新闻:ChatGPT的横空出世,给人类社会发展带来哪些机遇?

高奇琦:ChatGPT更像是一种技术基座,下一步可能会应用到更广泛的细分领域,比如金融、法律、医疗,甚至元宇宙、虚拟世界、数字人、类人机器人的研发,等等。ChatGPT作为一种通用人工智能,甚至可以参与到科学研究过程中。大量的科学研究需要模拟环境,这就涉及大量复杂的运算,过去我们可能主要通过人工计算,而ChatGPT能够在计算机仿真模拟中发挥重要作用。举个例子,过去科学家要用各种方法去模拟蛋白质结构,现在运用人工智能把大量蛋白质结构搞清楚了,人工智能合成生物蛋白能够广泛运用到生物制药等各个领域。

解放日报·上观新闻:我们该对ChatGPT保持警惕吗?

高奇琦:技术的使用一定是双刃剑。首先要警惕对ChatGPT的过度依赖。举个例子,你长期用它来写代码,长此以往,你就会丧失代码能力,甚至判断不出ChatGPT写的代码是不是正确的。因此,过度依赖ChatGPT生成的答案,放弃独立的思考、判断、创作和研究,人会被技术异化,沉浸在ChatGPT营造的一种信息幻觉中,误以为自己掌握了真理,智识水平和思维能力都会受到很大的损害。

另一方面,在和人类的对话中,ChatGPT的“胡说八道”会生成大量垃圾信息。这些信息被ChatGPT包装过后,看起来像是科学的知识,实际上却是似是而非的。这对于人类知识体系而言是一种污染,很多原来被认为是确定性的问题可能会遭到这些垃圾信息的干扰。

解放日报·上观新闻:ChatGPT带来的就业危机是人们讨论的焦点,这样的担忧是否有必要?

高奇琦:这个问题,我在之前写作的书中也反复讨论过。现在看来,人工智能对人类的工作肯定是有替代性的。当然,我们不必过度担忧,人类社会其实有一种自我调整的机制,考虑到社会稳定等各种因素,它会有一些所谓冗余的设置,这种设置并不是纯粹为了效率,而是出于对社会保障、社会稳定的考虑。

但有一点是改变不了的,你这个岗位如果机器也能做,那么机器会把你的价格压低。从这个角度来讲,未来人工智能的发展会迫使人们更多地去从事创造性的工作。正是基于这个判断,我建议能读书的人要多读书,即便你有工作,还是要不断地保持学习和进步。当然,人类社会还会不断地出现新兴职业,我认为未来服务性职业会越来越多,一些提供定制化服务的私人教师、私人医生、私人律师等会越来越受欢迎。

解放日报·上观新闻:面对以ChatGPT为代表的人工智能技术的快速发展,如何更好地趋利避害,在规范使用的同时发挥其最大价值?

高奇琦:第一,还是要鼓励技术的发展,因为这是一个世界性的竞争,也是社会发展的规律,它是不可阻挡的大趋势。

第二,要通盘考虑技术可能带来的风险,做好积极的应对,通过一些有效的制度减少其负面影响。

第三,要谨慎监管。因为技术这个东西它也很脆弱,科技创新和风险应对,这两个问题在实际操作中会有张力。考虑风险而过分束手束脚,科技创新的活力会被削弱;盲目追求技术狂飙突进,又会存在很大风险。谨慎监管,平衡好科技创新和风险应对两者的关系,在增强科技创新实力的同时,把技术产生的负面影响、破坏效应降到最低,我想这是我们应对技术的一个基本态度。


(栏目邮箱:shhgcsxh@163.com)