
本版文章标题:
法学教育大语言模型应用的规范治理研究
人工智能技术已经成为发展新质生产力的重要引擎,积极推动人工智能和教育的深度融合,促进教育变革创新,成为教育的必然趋势。党和国家历来高度重视技术创新对教育发展的影响。党中央一系列决策部署,引领我国教育信息化实现跨越式发展。2019年5月16日,习近平总书记在向国际人工智能与教育大会致贺信中指出:“中国高度重视人工智能对教育的深刻影响,积极推动人工智能和教育深度融合,促进教育变革创新,充分发挥人工智能优势,加快发展伴随每个人一生的教育、平等面向每个人的教育、适合每个人的教育、更加开放灵活的教育。”2022年3月,国家智慧教育公共服务平台正式上线,标志着国家教育数字化战略行动驶入“快车道”。2025年1月,中共中央、国务院印发《教育强国建设规划纲要(2024-2035年)》。这是我国首个以教育强国为主题的中长期战略规划,明确了新时代加快建设教育强国的指导思想、工作原则、战略目标和重大任务举措。2025年4月,教育部等九部门联合印发的《关于加快推进教育数字化的意见》指出,深入实施国家教育数字化战略,坚持应用导向、治理为基,秉承联结为先、内容为本、合作为要,聚焦集成化、智能化、国际化,扩大优质教育资源受益面,促进人工智能助力教育变革。2025年5月16日,在世界数字教育大会上,教育部发布了《中国智慧教育白皮书》,并启动“国家教育数字化战略行动2.0”,这一举措标志着我国教育数字化转型正式迈入全新阶段。
在深入推进国际教育数字化的战略背景下,法学教育如何合理应用大语言模型技术已成为较为紧迫的问题。新技术的应用能够提升法律教学的效率,提高知识的生成、传播、更新速度以及改变传统的交互方式。然而,由于法学教育自身的特殊性,可能面临多种困境。在法律侵权方面,用以法学教育模型训练的数据包含各类敏感信息,个人信息的保护与知识产权的争议存在于模型的开发与训练之中。在结果的生成中也能产生毒害信息,存在侵害个人权益的风险等。在法律思维培养方面,基于统计关系的大语言模型在数据的训练中大概率倾向于法律的主流观点,一定程度会促使教育主体产生对模型的依赖,降低甚至丧失法律人的反思与创新能力,难以真正培养法律人的批判性思维。在知识生成方面,目前模型生成法律知识的准确性与法律逻辑的可靠性仍然存在疑问,既有可能生成虚构的法条或不合常识的判例,又在法律推理的严谨性方面存在很多漏洞,难以发挥积极的教学作用。法学教育作为培养德才兼备的高素质法治工作队伍的重要环节,面对引入大语言模型这一新技术所带来的新问题、新挑战,需要构建回应性的治理框架,筑牢风险防控的底线,以期法学教育逐步迈向合理的智能化。
设定评估准入机制
法律教育的大语言模型需要面对复杂的法律规则,为避免其对学生产生误导,需要设立严格的评估准入机制,以确保法律教育模型的准确性与可控性。
需要开发测试数据集定量评估模型的性能。依据现有的评估基准,可以较为全面地评估大模型对法律知识的记忆、理解和应用能力。在法学教育模型的评估中,不仅需要考量大模型对法律知识的掌握能力,还需要加入评估教学技能的数据集,用以测试大模型能否将法律知识运用合适的教学手段进行输出。因此,技术人员需联合法学教师开发一个全面的法学教育数据集,以综合评价大语言模型是否适合法律教学。
成立评估委员会对模型进行测试。评估委员会由法学教师、律师、法官、技术专家、学生等人员组成。评估委员通过提问来观测模型的输出结果,依据不同的职业背景,综合评估大语言模型是否能够胜任法学教育工作。具体评估的指标主要包括法律概念的理解能力、法律推理能力、输出内容的质量、价值判断能力和模型的稳定性等。例如,评估委员可以指定一个具体案例,要求模型进行分析并输出指导内容,随后各评估委员根据自身的职业背景和技术水平,评估该模型能否达到预期的教育目的。
结合上述定量与定性评估的结果,为大语言模型参与法学教育制定准入标准。对于数据集测试,可以将概念生成、逻辑推理、时效性、稳定性等不同指标,分别赋权形成一个评分机制。只有在该评分机制中及格的模型,才能进入下一步以提请评估委员会审核。评估委员需要更加注重对模型生成中的价值判断、教育手段等难以通过数据量化的内容进行打分,在大模型具备相关知识的基础上,评估是否能够真正运用于教学工作,符合要求后才能将大模型应用到具体的法学教育场景。
使用场景分级管理
为培养学生独立的法律思维,避免过度依赖人工智能技术,应当根据法学教育的不同学习阶段与不同教学场景,对大语言模型介入法学教育的程度加以合理的限制。
根据不同的学习阶段,开放语言模型的不同功能。例如,对于低年级的本科生,大语言模型只对其开放法条、案件检索和概念解释等单纯提高学习效率的基础性功能,严格禁用生成案例分析、法律文书等替代学生进行法律判断的功能;对于高年级的本科生或是法律硕士、法学硕士,大模型可以提供类案推荐、文书模板生成等功能,帮助他们进行相关训练以逐步适应未来的法务工作,而对一些复杂逻辑的论证、敏感问题的讨论等需要进行深度分析的功能则被禁止;对于法学教师或是法学研究人员,大语言模型只是作为提高效率的参考工具,并不会对他们产生实质性的误导,因而模型功能可以全面开放。
根据法学教育的不同场景,明确大语言模型的使用程度。在课堂教学上,老师与学生可以依据语言模型的生成内容进行讲解或学习。老师对大模型的生成内容进行修正或补充;学生在学习模型生成标准内容的同时,要积极地与老师互动,进行细致的辨析,以培养法律思维。课后作业需要学生独立完成,禁止模型介入代替学生完成任务。对于学生完成的法律文本、课程论文等,依据一定算法来识别模型生成文本并检测其AIGC率(即人工智能生成内容比例),对于超出标准的作业需重新提交。此外,可以开展相关课程培养,发挥技术赋能的优势,提升人机协同的能力,提高法科学生的技术素养。
采取审慎监管应对风险
对于大语言模型进入法学教育领域法律风险的规制,需要在鼓励创新与保护权益之间进行平衡,既留有一定试错空间,也要审慎监管以维护公民个人的合法权益。
对于用以法学教育大语言模型训练的数据,采用分类、分级管理的机制。例如,已经公开的法律法规、法学论文等,可以自由使用语言模型的训练与输出,不受任何限制;对于包含个人隐私或著作权的数据,如判决文书、法学专著等,对前者采取匿名化处理,对后者在取得著作权人同意的基础上加以使用。同时,随着技术的不断发展,可以重新界定著作权合理使用的标准与范围,以达到包容审慎的目标。
明确法学教育大语言模型在开发与使用中的法律责任。由于模型的训练与落地会关涉多个主体,如开发者、部署者、服务提供者、使用者、监管者、教师、学生等,需要在探究大语言模型可解释的基础上,充分考量人工智能价值链上各个主体的行为、后果,在技术创新与权利救济的平衡中构建责任分配框架。此外,明确风险发生的紧急处置措施,规范数据泄露、模型失控等危急场景的处置流程,以更好地应对风险。
(夏纪森系常州大学史良法学院教授,王思涵系常州大学史良法学院研究生)
● 责任编辑:黄慧