大模型时代法学期刊的“近忧”与“远虑”
当深度求索(DeepSeek)成为今年春节期间最热门的话题,当琳琅满目的大模型辅助科研的教程霸屏各大平台,当各高校纷纷开设大模型应用相关讲座甚至课程时,法学期刊编辑不仅要面对数量不断攀升的来稿,而且越来越担心手头处理的稿件甚至已刊发的稿件实乃人工智能(以下简称AI)所作,这将彻底颠覆法学知识生产的学术伦理和道德规范,也使法学期刊面临着前所未有的挑战。
事实上,自ChatGPT问世以来,国内外期刊或出版社、高校科研机构就已关注这个问题,并作了一定回应。一个极端的例子是,由于来稿量巨增,无法判断作者究竟是人类还是AI,国外一家科幻小说期刊甚至一度关闭了公开投稿通道。可能科幻小说恰是大模型擅长的领域,但即使是需要谨慎求证的科学研究领域,各期刊也纷纷表态不接受大量借助AI完成的论文,最多允许AI辅助文字润色、引言和结论部分撰写,但论文待证命题、实验设计、实验数据、核心观点、主体架构、主要内容等科学研究的关键核心部分,不允许AI涉足。同时,许多期刊还要求作者必须向其披露使用AI的情况,包括AI辅助论文写作的具体方面、所使用AI的型号和版本、提示词的设计等。许多期刊还强调人类审稿对确保知识生产规范性和可靠性的重要意义,严禁审稿人使用AI审稿并撰写审稿意见。中国法学期刊虽然也意识到回应这个问题的必要性和紧迫性,但据笔者所知,目前,尚未有专门针对AI辅助论文写作的编辑政策发布。
AI辅助写作带给期刊编辑的挑战
为避免选用刊发实际上为AI“捉刀”的稿件,目前可以采取的一个“笨”办法是对稿件注释援引的文献作全面的、无遗漏的核查。其基本原理在于目前人工智能领域尚未攻克的一项技术难题——AI幻觉。与人类可以对不知道或者不存在的事情说“不”不同,AI尚未建立起知识边界,能够“睁眼说瞎话”,可以杜撰并不存在的参考文献或者案例。比如,如果研究课题属税法领域,AI可能会提及知名税法学者在这个问题上的看法,若是用户追问观点的出处,AI可能提供其发表在某法学期刊上的文献,但事实上这一文献并不真实存在。通过一一核对稿件注释,可以在一定程度上发现这种杜撰情况,并以此推测稿件是否存在AI写作的隐患。当然,如果仅在形式上核对文献的真实性仍是不够的。因为AI幻觉并非什么秘密,反而已被科普到人尽皆知,所以投稿者完全可以通过事后核对文献的真实性来避免使用AI写作的情况暴露。对编辑来说,不仅要在形式上核对文献的真实性,而且要了解和把握所引用文献的内容和思想,从而实质性地判断文献能否支持论文的观点或判断。这项工作在质和量上的难度可想而知。
当然,从业经验丰富的编辑,凭借与作者的“长期博弈”,可以通过作者的研究领域、知识积累、论证逻辑、语言风格等方面,对稿件作辅助判断。但是,这一方法也面临两个方面的挑战:一方面,不熟悉的新作者尤其是学术新秀,编辑可以“凭借”的既往经验往往不足;另一方面,由于各期刊均实行双向匿名审稿制,如果审稿人能够通过文章内容猜测出作者,反而需要尽量回避审稿。一般情况下,理想的审稿人应是陌生人,而作为陌生人,其又无法借助既往学术交流经验判断稿件是否可能存在AI写作的情况。此外,更进一步而言,随着人工智能的发展及智能设备的不断普及和技术迭代,日后每位科研人员都可能用人工智能作为科研助手。这使得个性化的人工智能科研助手提供的辅助写作也可能带有科研人员写作的风格和特色。从这个角度看,这一辨识途径也仅能在当下AI辅助写作的起步阶段发挥暂时性的作用。
在人机协作中始终掌握学术研究的主导权
以传统的人力来应对大模型赋能下高效产出的海量学术论文,力有不逮是必然的。既然势不可当,何不乐见其成?但令人忧心的是,大模型赋能下的论文,虽有完整的逻辑、条理的叙事、专业的辞藻,但也难掩其思想的贫瘠和价值的缺位。究其根本,是问题意识之不彰,缺乏对社会法治建设进程中重点痛点难点的洞察力和发掘。从实践来看,大部分青年学者的选题能力略显逊色,但在发掘新资料、掌握新技术手段和工具方面较擅长。在这种情况下,AI辅助写作产生的是一种“马太效应”,写作的精巧度和细致度不断提升,而选题方面的不足则可能被不断放大。作为一门社会科学,法学的发展和进步绝对不是仅靠逻辑推演就能实现的,而是极大地依赖于研究者对于社会现实情况和需求的体悟与共情。充分回应新时代法治建设进程中的重点难点痛点问题,才能真正构建起中国自主的法学学科体系、学术体系、话语体系。
虽有杞人忧天之嫌,但AI辅助写作甚至“捉刀”可能会降低学者自身的研究能力,这种损害对于人类而言并非幸事。以AI辅助写作中应用较为广泛的文献综述来说,虽然在阅读效率上极具优势,但其对于学者问题意识的养成可能有破坏性。文献综述与提出问题是一个硬币的两面,不可分离。研究者正是在大量阅读文献的过程中,通过不断比较与分析不同的文献,用既有文献中的问题、观点及论证不断验证自己头脑中的疑惑与不解是否真实并仍然存在,来不断提炼、廓清自己的问题意识,最终提出所拟解决的、目前尚未得到解决的真问题。反过来,文献综述也不应仅停留于既有研究成果的罗列与简要呈现,而是应该既“综”又“述”,以研究者自己的立场、观点和方法来评判既有研究的得失,在此过程中证明研究者拟讨论的问题是既有研究所忽视或尚未解决的真问题。可以说,不“亲自”读文献,不“亲自”做文献综述,就不可能提出真正有价值的问题。这也是不少学术期刊反对师生合作论文的深层理由。毋庸讳言,老师提出问题、学生针对性地收集材料加以论证的论文“生产”并不罕见。但是,老师不读文献,如何提出问题?学生阅读文献,却可能提不出真问题。这使得有的师生合作论文不仅研究成果质量堪忧,学生也错失了自己提出问题的宝贵机会,对学术发展和人才培养均不利。
当然,AI辅助科研已极大地推动了人类科学的进步。例如,基于人工智能技术的蛋白质三维结构预测软件AlphaFold在预测蛋白质结构方面达到了前所未有的精准度。但也应该看到,这些研究课题的意义和重要性是已经得到科学界公认的,不仅如此,实验设计、实验数据分析等关键环节,仍是由人类来把控的,其科研成果的可靠性、可能存在的偏差或局限,仍需由人类来验证。这是因为,到目前为止,AI虽然具有超强的符号运算能力,但是对于符号所承载的意义,或无知,或其所知与人类的理解完全不同。虽然AI的发展如火如荼,但AI对于人类所生存的真实世界的感受仍十分有限,或者说即使有所感受也仍与人类完全不同,从而无法站在人类的立场,设身处地提出人类所关切的问题,尤其是人类社会本身所存在的问题。相反,AI发展到大模型时代,人类尚能引以为傲的,正是提出问题的能力。这种能力需要从“枯燥”的“读万卷书”中不断捕捉灵感,从“艰苦”的“行万里路”中不断体会、感悟。
大模型除了在文献综述方面效率非凡之外,在目录生成、大纲编写、要点安排等方面也能提供辅助。大模型驱动的智能代理具有突出的复杂任务处理能力,能像人类一样,将复杂的任务分解成若干子任务,运用各种工具逐一解决,必要时,还可以将子任务进一步分解为更次级的子任务,层层分解,最终解决复杂任务。这种处理复杂问题的能力,正是论文写作大纲训练旨在获取的能力。证明一个理论命题,需要考虑将这个命题拆分为几个子命题,每个子命题又可以进一步拆分为若干下位命题,如此层层拆分,直至论据层面,才构成对理论命题的完整论证。能够把一个基本命题层层拆分直至论据层面,能够将待解问题的难度逐步降低直至各个击破,需要以论文大纲训练为基础。问题是,如果研究者自身未进行充分的大纲训练、不具备分解复杂任务的能力,又如何能够对大模型生成的大纲提出更多详细的提示或要求,以使之展现研究者自己的研究个性呢?日后若无大模型的辅助,研究者自己会不会在科研道路上寸步难行?这值得思考。
大模型不仅以其“深度学习”能力降低人类思考的“深度”,还以其“长上下文”能力反噬人类的语言能力。当大模型使诉诸文字唾手可得时,人类使用语言进行严谨、连贯思考的机会可能无形中被“剥夺”。当人类运用语言的机会“矮化”为与大模型交互的“提示词”,且各种论文辅助写作“提示词”手册纷至沓来时,不要说中国古代文学中的“炼”字,可能人类的较长文本连贯表达能力也会倒退。因此,为学、治学与知识生产之间不能直接画等号,不能将人类对新知的探索、渴望与追求简单等同于以结果为导向的知识生产,因为这不仅仅是目标导向的手段择取与效率提升问题。但即便仅从知识生产角度观察,知识生产效率的极大提高,反过来也必然会导致知识确认和校验成本的急遽上升,以应对良莠不齐、鱼龙混杂的知识生产“失范”“失真”现状。从这个角度,当不可抵挡的人机协作知识生产方式到来时,恰恰也要求研究者始终保守学术研究的初心,多一分定力,少一分焦虑,以拥抱新技术的胸襟,以善用新工具的智慧,在人机协作中始终掌握学术研究的主导权,不断提高自身的研究能力,推出更优质的研究成果。
主动学习和掌握新技术工具为编辑业务所用
期刊出版作为学术活动产物进入人类知识领域的一个正式通道,可以发挥校验成果价值、提供发表载体及促进知识传播的重要作用。期刊编辑应始终牢记自己的使命担当,承担好知识生产组织者、知识价值传递者、知识成果校验者的责任,通过选题策划更有情怀地组织、引导知识创新活动,通过审稿编校更加严谨地择取、校验知识创新成果,最终贡献出符合社会需要和价值诉求的创新性研究成果。
法学期刊应进一步提高自身的选题策划能力,致力于发掘我国法治建设进程中理论与实践方面的真问题、大问题,将跟踪学术前沿动态、撰写选题策划报告等作为编辑日常工作的重要内容和抓手,不断提高编辑眼界、扩大编辑视野,用“训练”大模型的思路打造一支适应大模型时代新知识生产方式的、业务能力过硬的编辑队伍。
不能将选题策划这一期刊编辑中最为重要的工作交由AI来执行。虽然可以设计一种辅助审稿的智能系统,其可以通过调取各学术期刊数据库中作者、选题等的既有引证情况,预判稿件将来的引用率,并以此作为稿件取舍的主要依据,但是大模型主导的选题策划仅以数据分析为指挥棒,易导致选题的高度集中,而“小众”“冷门”选题则会被数据分析所淘汰,甚至基础理论研究会因引用数据表现欠佳,而越来越不受研究者青睐。以数据分析为导向,也不利于青年学者的成长,可能引发出版资源分配失衡。事实上,以引用率为主要指标的现有学术期刊评价体系,已导致以法律史、国际法为代表的“小众”学科论文“发表难”,也导致青年学者普遍焦虑,在学科建设、人才培养和学术导向方面都产生了一定负面影响。简而言之,选题策划具有强烈的学术导向功能,直接关涉学科发展和学术资源分配,不能简单地交由智能系统执行,而应由人类把握最终的方向和决策权。
期刊应进一步扮演好知识生产秩序构建者的角色,通过制定学术伦理规范、期刊编辑政策等,引导和鼓励研究者创造更优质的知识成果;在知识筛选与认证环节检验知识活动成果,避免价值缺位、思想贫瘠的成果进入知识体系,产生不良社会影响。
一方面,期刊应建立多元化的成果评价体系。人机协作下的知识生产效率显著提升,期刊应将评价重点放在是否遵循学术规范、是否符合社会实际情况、能否回应社会发展需要、能否取得实质性突破等方面。可以从过程和结果两个维度,根据学术研究在独立性、科学性、创新性、知识产权明晰、权责明确等方面的要求,制定科学可行的评价指标体系,为成果筛选设立新标准,促使研究者充分发挥人的价值,追求更高层次的成果创新。实践中,已有期刊或出版社、高校科研机构等就人机协作知识生产的可行性与限度问题制定了学术规范或编辑出版政策。比如,对大模型在稿件写作中的应用,多限制在语言润色、文献检索、数据整理分析、思路开拓等辅助环节,同时要求作者保留使用大模型辅助研究的过程性证据并披露使用情况,以备接受创作过程合规性及成果质量审查,通过落实责任制度要求其对成果创作行为负责。未来,期刊可以组织学界开展人机协作中人机界限问题的探讨,明确规定AI的参与尺度,划定人的职责范围,鼓励和引导诚信、透明、可解释的人机协作研究新范式新方法。
另一方面,期刊还应构建起作者、编辑、同行专家、读者共同参与,贯穿知识生产、审查评议、传播利用阶段,融合自查、审查和监督多种手段的成果核验机制,从而有效实施对知识生产过程的追踪,对人机贡献的明晰,对成果质量的检验,确保知识生产过程符合规范标准,知识成果达到创新要求。
同时,期刊在引入AI生成内容专业检测系统防范风险时,也应对该智能检测系统本身可能存在的风险保持警醒。AI生成内容专业检测系统在效率方面与AI辅助写作同样具有优势,但在准确度、透明度、可解释性等诸方面亦与之一样存在劣势。因此,期刊编辑在审稿环节始终不能放弃人类的主导权;在要求知识生产者善用智能工具的同时,要保证人类在知识生产方面的最终主导权。
期刊应进一步提高编辑的交流与共情能力,使编辑成为稿件的第一读者、用心读者。从某种意义上说,学术研究乃“独上高楼”,往往知音难觅,而大模型或许正在成为研究者的学术伙伴。大模型帮助研究者分析既有观点,或作为对立面质疑研究者提出的新问题、新观点。这种随时随地讨论的可能性,或许正是大模型吸引研究者的核心优势之一。但是,研究者必须始终意识到,大模型表面上有理有据的“言说”,并非基于对言说内容的真正理解,而只是一种基于概率计算的选词填空游戏。大模型生成的“言说”,虽然无意中可能给人以启发,但是与真正体悟社会生活、感知人类诉求、拥有同理共情能力的人类仍有天壤之别。在这方面,期刊编辑大有可为。在大模型时代,期刊编辑要不断有意识地培养、挖掘、释放并努力提高自己沟通交流和同理共情的能力。
人类或许正站在一个新纪元的伊始,究竟该如何与一种能力全面超越自身的工具共处,这可能在未来很长一段时间里都会是一个问题。在科学技术快速发展的当下,期刊编辑能做的是不断追踪技术的最新发展,主动学习和掌握新的技术工具,不断提升自己的编辑业务能力,以适应更加复杂和高级的编辑工作需要。
(作者为中国社会科学院法学研究所编审、《法学研究》杂志副主编)