施春宏,北京语言大学教授,《语言教学与研究》主编,研究领域涉及汉语语言学、理论语言学和应用语言学,近年着力从事构式语法和语体语法的理论与应用探索,以及汉语作为第二语言的习得和教学研究。人工智能必然会在某种程度上影响未来的学术论文写作和发表,但从目前来看,对我们专业性学术期刊影响不大,不是太可怕,因为这要看人工智能到底是怎么写作的,它写出来的东西是怎样的产品。也就是说,看它输出的内容是否有学术性,是否合乎学术写作规范。
杂志如何判断文章的质量?我们从编杂志的角度判断一篇文章好不好,实际上有三个基本要求。第一个要求是要有知识创新。学术论文的根本特点是为知识积累和发展提供前人没有发现的东西。创新度的高低是判断论文学术性的根本依据。第二个要求是要有论证过程。论文的基本论证方式有两种:一种是证实,另一种是证伪。证实比较好办,举出与论点一致的例子来支持自己;而证伪则比较难,要给自己的理论画一个边界,并指出超出这个边界的东西从理论上看应该都是错误的,或者是当下的理论所不论及的。
相对而言,证实比较容易,如果有的课程或者有的专业偏向于用证实法来论证,那么受人工智能的影响可能更大。如果将来ChatGPT能够自己通过大数据运算而发现一个数学定理、物理规律,而且能够证明,那么它就完全满足了这两项要求了。第三个要求是要符合基本的学术规范。这点看上去似乎比较简单,而实际上ChatGPT实现起来还真不容易,至少目前就ChatGPT的输出方式和结果来看,还难以达到理想状态。对比较注重学术规范的期刊来讲,作者在引用别人的观点时,要明确地标识来源,让编辑和读者能够有效溯源。
但是目前ChatGPT给出的答案,都没有明确清晰地对所引用的观点来源做出说明,就凭这一点,也能够说明它不符合学术规范。还有就是学术表达的规范问题,作者自身的表达方式实际上是具有唯一性的。但ChatGPT那里,更多的是整合别人已有的表达。另外,ChatGPT从“正能量”设定出发,在伦理方面做得很好,不提供负面的回答,这种规范跟学术规范也是不一样的。
本文收录于《ChatGPT来了——语言科学如何看待ChatGPT》(杨旭 / 罗仁地主编;上海教育出版社,2024年)那么ChatGPT“写”出的东西有没有用?要不要反对?实际上还是有用的,某些情况下甚至非常有用、好用。因为它用来训练和生成的数据库特别大,用到的参数非常多,能给使用者思考问题提供帮助。
很多新的工具能拓展我们认知的边界,能够帮助我们做一些前期的分类加工工作,甚至跟外界的互联互动都有可能建立起来。所以我觉得ChatGPT是一个非常有用而强大的工具。但是从学术创造的角度来讲,它又是一个非常受限的工具,我们刚才讲的几点它都很难实现。其实,目前ChatGPT的应用场景也不在此。ChatGPT能写出什么样的论文?我们学术研究中的很多问题,不是那种有一个明确答案的问题。这个问题可以换一个角度看,就是ChatGPT能为论文提供哪些帮助,它到底是助手还是合作者,甚至是唯一作者?
它可能更多的还是一个助手,所以没什么可担心的。它生成的文本是依赖于它接受训练的数据以及它背后的数据库的。这不是说它没有任何“创造性”,文字内容整合本身也是一定的“创造”;但这种所谓的“创造”主要还是一种组合式、库藏式的链接。总体而言,它是一个“知道分子”,不是一个知识分子。知识分子是要创造的,而ChatGPT只是基于我们当下的知识。
如果它将来和中国知网之类的学术资源库合作,而且用学术研究和写作的方式来训练的话,那么对学术论文的写作和发表的冲击可能就更大了。那个时候要判断ChatGPT生成的产品是不是学术论文,就看杂志编辑和审稿专家的眼光和水平了。越是容易放水的杂志,辨别力可能就越低。拿综述性文章来说,将来如果ChatGPT跟规模巨大的学术资源库绑定以后,它必然给我们写综述提供很大方便,甚至可能比一般学生写综述的水平还要高。现在某些领域就已经有帮助我们写提要的工具了。
语言学学科历史维度的资料很多,现在做综述主要还是靠自己一篇一篇地读,然后归纳整理。ChatGPT肯定还在迭代,现在是3.5代,说不定现在是为了推出GPT-4代做一个预演,未来可能还有5代、6代出来,它的水平可能就越来越高,那么它在综述方面肯定会写得更好。目前ChatGPT有两个功能:搬运和整合。凡是侧重于这方面的综述,例如你要讲怎么成为一个高尚的人,怎样做一个旅游攻略,它一二三四五,分析得特别好,已经达到常人的水平。
实际上,ChatGPT目前输出的“知识”多带有综述性、分类性,越是确定的知识框架和内容,它做起来越方便。有一个方面它一定写得不好,就是批评性的内容,尤其是针对具体观点的批评,针对当前正在发生的特殊现象的批评。ChatGPT背后的程序给了伦理道德上的规定,因此在内容批评性创新上就有很大欠缺。文科论文,特别是我们语言学论文,多是先讲学界研究现状,并从中发现某些研究不足,再陈述自己的看法,采取事实论证、逻辑论证或者是证伪论证等等。批评是学术成长的重要动力。
批评性文字难,让我想起了托尔斯泰的一句话:“幸福的家庭都是相似的,不幸的家庭各有各的不幸。”我们写论文做的就是后半段——不幸的家庭各有各的不幸。批评的难度还在于从特殊性当中发现普遍性意义。总的来说,从我们学术论文的角度,我觉得ChatGPT对写某些类型的综述可能帮助大一些。这倒进一步给我启发,对我们如何带研究生会有帮助:我们要在哪些方面训练和培养研究生?它能做得好的,让研究生自己去学,省了不少事;它做得不好的,要着意培养。
如此一来,对研究生将来的学术研究和发展应该是有帮助的。如何应对ChatGPT对学术发表产生的冲击?从学术期刊的角度可能就是8个字:与狼共舞,规范使用。狼来了你也回避不掉,在你的院墙外叫了;要是你的窗子又破了的话,它就往里蹿了。所以只能是与狼共舞,考虑怎么样把基本功练好。ChatGPT写出来的都是“平庸”文本,机械生成的文本,这里的“平庸”要打引号,是中性的。它这种“平庸”文本是基于共享的知识整合出来的。我们在这个基础上怎样创造一个非平庸的文本?实际上很多研究在消灭“平庸”的同时也在制造“平庸”,是因为“平庸”,所以我们“平庸”了,我们很多研究都是这种路径。
国内的学术杂志会不会像国外某些杂志那样,出台一些针对人工智能写作论文的限制性措施呢?暂时恐怕不会,因为没有必要。如果将来有必要,那就是它真的跟知网之类的学术资源库合作了。目前,国外杂志对ChatGPT的使用限制,基本上体现在是否允许ChatGPT署名的问题上。我想,难道用ChatGPT这种工具写出来的文章也能发表在像《自然》《科学》这样的杂志上吗?国内两家杂志已经发表了类似限制人工智能写作使用的声明,但目前来看这个意义还不够明朗,所以还是要回到根本,看ChatGPT到底写的是什么样的“论文”。
将来难以预测,我们只能说当下:如果是以创新为主导追求的期刊的话,那么目前我们看不出来它有多大的威胁。像我们这样的语言研究,连训练的语料库都没有,它目前还会对我们有威胁吗?我们换一个角度,从正面来看是不是更好一点?任何新技术肯定会带来一些负面的东西,但是一定会推动着更多的东西向前走,而且对我们的学术研究一定是个好事。今后最好能实现它协助人去创新,然后一道前行。如果它真的从人造意识到了有自我意识,那个时代才真是一个特殊的时代。
它一旦真的有了共情能力,有了自我想象的空间,有了“无中生有”的创造,有了反事实的判断,有了证伪的思考方法,有了独立的伦理问题,那么学术杂志的编辑部,就不是现在这个样子了,可能我们就在给它打工了。就目前我的理解而言,撇开伦理问题,ChatGPT等人工智能技术和产品并不可怕,只是我们在杞人忧天,因为从进化的角度看,人类对异常的东西容易产生惧怕的心理。经历了,回头一看,都是往事,都是充满不确定的美好回忆。