人工智能导师与师生的关系、可能引发的法律风险与规制

  人工智能导师引发的法律风险,可以通过制定相关法规和标准、完善人工智能导师归责机制、建立全方位多主体的协同监管机制等方式予以规制。


  3月28日,教育部举办数字教育集成化、智能化、国际化专项行动暨“扩优提质年”启动仪式,启动人工智能赋能教育行动,推动人工智能技术的教育、应用和创新。人工智能技术在教育领域的运用打破了原有的师生关系,引起了教学秩序的变化。以“智能导师系统”为例,它是以人工智能技术模仿教师在教学工作中所有的教学活动,通过数据的收集和算法运行为学生提供独一无二的学习指导,帮助不同需求和不同差异的学生获取知识和技能的一种智能化的计算机辅助教学系统。这是教师花费大量时间都无法做到的精细化教学。人工智能导师的出现将对传统师生关系产生何种影响,会带来怎样的法律风险?我们该如何应对这些风险?这是法学、教育学等领域亟须重点关注的问题。


  人工智能导师对传统师生关系的影响

  教学关系的改变。学生个体差异与班级集体授课之间一直存在无法平衡的结构性矛盾,这可能导致部分学生的受教育权遭受不平等待遇。智能导师系统与学生产生交流互动,可以实时监测学生的学习进度和效果,并根据学生的表现提供精准反馈和评估。它通过分析学生的行为数据,可以为学生建立个性化教学方案,根据不同学生的个性和短板提供有针对性的学习内容和方法。人工智能导师的出现为教师减负的同时,可以真正实现因材施教的目标,从而弥补传统教学模式的不足。

  结构关系的改变。传统的“班级授课制”体现出固定性、流水线式的知识传授特征,存在以教师为中心、基于经验预设、师生互动不足、难以满足学生个性需求等问题。人工智能技术的融入促使传统教学形态发生变革。人工智能导师以图谱形式进行知识组织,有利于实现从线性知识向网状知识的转变,从传统的人对人教学模式向机器辅助人的教学模式转变,从“授—学”的师生关系向“授—问—学”或“问—学”的新型师生关系转变。这种关系更加注重学生的个性化需求和学习体验,有利于促进教师的深度教学和学生的深度学习,从而更有效地培养学生的创新性思维。

  主体关系的改变。传统教学模式中的主体关系主要包括师生关系和生生关系。随着人工智能导师的加入,教学主体关系中增加了新的关系——人机关系。这种关系又细化为两种协同模式:一是教师与机器的协同。人工智能导师可以代替教师完成重复、机械的工作,如知识讲解、作业批改等。教师不再是唯一的知识来源,而是更多地担任引导者和监督者的角色。二是学生与人工智能导师的协同。学生不再只是通过教师单向灌输获取知识,而是在与人工智能导师的引导和互动中逐步获取知识,完成对知识的整体性构建。


  人工智能导师可能引发的法律风险

  数据收集不当可能造成信息与隐私安全隐患。人工智能技术在为学生带来个性化学习体验、提高教学效率的同时,也可能引发学生个人隐私泄露和数据安全的担忧。基于算法的要求,人工智能导师需要收集对优化教育资源和提供个性化教学至关重要的学生个人信息、学习成绩和学习行为等敏感数据。但是,如果这些数据得不到妥善保护,则可能面临被滥用或泄露风险。学生个人信息和隐私安全隐患表现为:一是学生的个人信息可能被用于未经授权的营销或广告活动,甚至可能被不法分子用于身份盗窃或其他非法活动,侵犯学生和家长隐私权;二是人工智能算法如果存在漏洞或被恶意操控,学生的学习数据可能会被篡改、删除或用于不当用途。这意味着攻击者可能利用这些漏洞窃取或篡改学生的学习数据,包括个人信息、学习进度、成绩记录等。

  人工智能创作可能引起权属纠纷。对人工智能导师而言,它是对已有成果进行学习和模仿,然后根据相关知识进行一定程度的重组或再创作形成教学材料;该成果若被用于商业用途,则可能侵犯《中华人民共和国著作权法》第十条规定的作者作品的复制权和改编权,也可能构成该法第五十二条规定的侵权行为,需承担民事赔偿责任,构成犯罪的,需追究刑事责任。但根据目前立法还难以明确责任主体。对学生而言,有的人可能使用人工智能进行论文写作以完成学习任务。但是,目前用人工智能进行写作生成的文本权属问题,法律尚未明确,导师该如何认定学生通过人工智能完成的学习任务,这值得思考。

  监管不力可能引发教育不公平。在政策文件和社会各部门支持下,人工智能导师正逐步进入校园,开始扮演多种角色,协助师生完成教学任务。然而,需要注意的是,“因材施教”可能演变成“教育歧视”。人工智能导师在设计之初可能只关注一般群体的需求而忽视特殊群体的需求,如偏远山区学生使用时,是否会存在地域歧视;聋哑学生使用时是否会存在操作不便等问题。目前,人工智能导师实际上只能满足一般性学生群体的需求,而对特殊需求的学生缺乏足够的考虑。长此以往,这部分学生可能无法通过人工智能导师获得促进自身发展的支持而被边缘化。此外,人工智能导师受到算法运行程序、样本数据及歧视性模仿等因素的影响,可能形成固有的思维偏差,从而导致在实际运行过程中出现有预设性的行为或选择。在面对不同的学生时,人工智能导师可能会优先考虑推荐大多数人的选择,而忽视使用者本人提出的需求,这种带有预设性的算法将歧视隐藏化、抽象化,可能阻碍教育公平的实现。


  人工智能导师引发问题的法律规制路径

  制定相关法规和标准规制新型师生关系。人工智能导师的角色应被明确为教师和学生的辅助工具。对教师而言,它是协助教学工作的得力助手,是对学生学习进度和状态进行检测的精密仪器。对学生而言,它是拓宽视野的媒介,是其在学校以外的第二位老师。新型师生关系应以传统师生关系为基础,通过法律强化人类教师的主体地位,减少学生对人工智能导师的依赖。法律应成为确定人工智能导师技术标准的基准,确保技术和服务的安全性、可靠性。同时,明确人工智能导师在教育领域的应用范围、标准和服务质量要求,并对开发和使用人工智能导师的主体进行资质审查,以确保其具备相应的技术能力和道德水平。在依法治理的同时,应当以更注重人类的价值观和道德的伦理治理作为辅助手段,为人工智能发展提供道德指导,让其更能考虑人工智能对人类社会、文化、道德等方面的影响。

  完善人工智能导师的归责机制。尽管我国目前已制定了多项关于人工智能发展的规范,但在教育人工智能风险防治方面仍缺乏有效的风险监管和问责机制。对此,需要通过明确人工智能导师服务的风险责任主体及其权责进行规制。首先,人工智能导师开发者需要确保设计、开发和实施过程符合法律法规,不侵犯他人隐私权、知识产权等。在使用过程中,对其进行充分测试和验证,确保人工智能服务安全可靠,并及时对相关服务进行监测和更新维护,以应对技术漏洞和安全风险。对于存在技术缺陷造成的用户损失,开发者需承担相应的民事赔偿责任。其次,人工智能导师服务提供平台和运营商,应当履行严格的审查义务,对相关服务的合法性、安全性进行审查。当出现纠纷时,平台和运营商应及时介入和配合相关部门开展调查。最后,作为使用者的教师和学生应在合法、合理、合规的范围内使用人工智能导师服务。其使用过程中造成侵权行为的,应承担相应的民事赔偿责任,构成犯罪的,承担刑事责任。

  建立全方位、多主体的协同监管机制。在人工智能和教育相互融合的道路上,我们需要进行创新与变革,通过全方位、多主体的方式来监督、约束和规范人工智能导师的开发者、提供者、使用者的行为。首先,监管部门可以依据有关法律法规及本地区的实际,建立人工智能导师的风险预估机制框架,通过持续收集和分析人工智能导师在教育实践中的应用数据,来评估其效果和潜在风险,提高风险预警与化解能力。其次,教师和学生作为高频率的使用者,在使用中应增强个人数据安全权益保护意识。学校可以开设相关课程指导老师和学生规范化使用;对人工智能导师的使用时间进行规划、安排,如仅限学生、教师在校期间使用等。对人工智能导师开发者而言,开发相关人工智能服务时,应严格遵守我国现有的相关法律规范;收集相关数据之前,必须事先征得责任主体的明确同意,以此更好地维护当事人的隐私权、知情权等合法权益。

  (作者单位:山西大学法学院)