AI技术滥用的风险、治理面临的挑战与路径

  近日,中央网信办印发通知,在全国范围内部署开展为期3个月的“清朗·整治AI技术滥用”专项行动。本次专项行动分两个阶段开展。第一阶段强化AI技术源头治理,清理整治违规AI应用程序,加强AI生成合成技术和内容标识管理,推动网站平台提升检测鉴伪能力。第二阶段聚焦利用AI技术制作发布谣言、不实信息、色情低俗内容,假冒他人、从事网络水军活动等突出问题,集中清理相关违法不良信息,处置处罚违规账号、MCN机构和网站平台。

  近年来,AI技术以其强大的数据处理和智能决策能力,为各行各业带来了巨大变革,其在提高生产效率、优化服务质量,以及推动科研创新、助力社会治理等方面,日益展现出无可比拟的优势。但随着AI技术的应用渗透到社会生活的各个领域,其滥用风险也日益凸显,若得不到恰当规范,可能会对公民个人隐私权的保护、社会的公平和秩序、国家的治理和安全稳定等带来冲击。为规范AI技术的服务和应用,中央网信办在全国范围内部署开展“清朗·整治AI技术滥用”专项行动,引导相关行业健康有序发展,保障公民合法权益。


  AI技术滥用的风险

  AI技术的滥用风险包含个人隐私泄露、算法歧视及数据安全等。在个人隐私方面,人工智能系统分析的数据通常为大量个人信息,在个人数据收集和利用环节中,如果出现系统漏洞、操作人员疏忽或外部黑客攻击,就可能导致数据被未经授权的人员获取,从而泄露个人信息,甚至被用于诈骗或其他不法行为。在社会公平方面,AI系统算法设计和应用运行过程中,可能存在数据偏差、算法偏见和操作人员的故意操纵,进而使处于弱势地位的群体面临各种不公平待遇,阻碍社会公平与发展。如某公司曾开发一款用于自动简历筛选和初步面试评分的AI系统,该系统的训练数据主要来源于过去几年的招聘记录,而该公司过去的员工队伍中男性占比较高,这使得该AI系统在学习过程中强化了这种性别不平衡,导致对女性求职者的评分普遍偏低。此外,安全方面,除数据本身可能被攻击与篡改外,还可能使基于人工智能技术生成的信息与服务面临黑客攻击,这不仅会导致数据丢失甚至系统瘫痪,还可能对国家安全构成威胁。

  除此之外,随着人工智能技术的不断演进及应用场景拓展,既有的滥用风险可能会呈现出新的形态和特征,而全新的滥用风险和问题也将不断涌现。如AI技术在社交媒体等领域可能会形成信息的失实传播与误导,AI技术的深度伪造功能还可被直接用于制造虚假信息,这不仅会对社会舆论造成严重影响,还可能被用于欺诈等犯罪活动。同时,复杂的恶意算法程序,还可能以更隐蔽的方式进行市场操控,从而引发不公平竞争。


  治理AI技术滥用面临的挑战

  目前,AI技术滥用的风险呈现多样性与多变性,这使得其治理存在诸多挑战。

  技术标准和规范的科学性、通用性和可执行性仍存在一定难题。一是在法律规制方面,针对AI技术规制的法律法规还不完善,对算法滥用行为的判定和处罚目前缺乏明晰的定义和依据,这可能引发市场分割、逃避监管等现象,而跨国界的AI数据流动和技术应用则进一步带来了法律适用和管辖权等棘手问题。二是标准的刚性有待加强。部分企业和组织因为技术实力有限、过分追求利益最大化和成本控制,对技术标准执行不严谨、不严格。三是伴随着AI技术的迭代升级,相关标准往往滞后于其技术的升级,从而使新的滥用手段、方法层出不穷,容易造成治理被动。

  监管的准确性和有效性有待提高。一是监管机构对AI技术专业知识和技能的储备有限,使得难以准确识别和有效打击滥用行为。二是AI技术滥用行为往往具有跨地域、跨行业特点,现有监管体制在部门间和区域间的协同合作上尚存在一些障碍,无法充分提高其监管效能。此外,由于AI技术的复杂性和隐蔽性,滥用行为往往难以被及时发现并取证,即使被发现的滥用行为,也可能因为难以对其合理定性和量刑从而怠于治理。

  AI技术在关乎生命权、道德决策和社会责任的应用场景中缺少具有普遍性的伦理尺度。例如,自动驾驶的“电车难题”,即当发生不可避免的事故时,自动驾驶汽车究竟应该把保障车内驾驶员的生命放在首位,还是把保证路上行人的人身安全放在首位?实际的交通环境是不可预估的,在发生事故时留给自动驾驶系统作决策的时间很少,信息处理需要速度很快。由此可见,要解决“电车难题”不能只停留在理论层面,而是要从技术和制度层面不断创新。在教育领域,普及AI教育机器人虽然为个性化教学提供了新的可能,但也引发了关于教育公平性、人文关怀等问题的讨论。这些伦理道德问题不仅影响AI技术的社会接受度,也为其治理工作带来了诸多困扰。


  AI技术滥用风险的治理路径

  AI技术的滥用不仅是一个技术问题,还涉及法律、伦理、社会等多个层面,对其治理是一个复杂而系统的工程,要综合、全面考量。

  健全法律法规。首先,根据AI技术的特点和使用场景,制定具体法律法规,明确规定AI技术的使用范围、条件及禁忌,明确规定AI系统的安全性及技术指标,明确规定违法使用应承担的法律责任等。同时,对现行的法律法规进行及时修改、完善,确保相关法律法规能及时对新出现的AI技术滥用问题进行规制,以保障监管工作有法可依。其次,加强对执法人员的培训和教育,提高他们的专业素养和执法能力,做到有法必依。最后,加强国际间相关领域的交流合作,打造全球统一的AI技术治理规则体系,以应对各种风险挑战。

  加强对技术的监督与评估。一方面,建设规范的执法机制和监督机制,设立专门的监管机构,承担对AI技术的研发、应用和推广的整体性、过程性监督;另一方面,加强对人工智能系统的安全审查和测试,建立定期安全审查制度,对人工智能系统定期进行安全漏洞扫描和风险评估,及时发现问题、修复漏洞。在此基础上,进一步建立算法设计和数据质量评估机制,要求开发者提供人工智能算法及其数据使用情况的说明,并定期审查系统的运行数据,确保数据透明、准确、可解释,以避免出现算法歧视、算法偏见等问题。除此之外,还应加强对AI技术应用场景的监管和评估,密切关注AI技术在各个领域的具体运用情况,及时调整不合理的应用。

  推进伦理道德建设。推进伦理道德建设,既有利于促进AI技术健康发展,也是维护社会公平正义的内在要求。首先,强化伦理道德的教育和宣传,提升公众对AI技术伦理道德问题的认知。其次,形成伦理道德审查机制。在AI技术应用于实践之前,对其应用场景、算法设计等进行全覆盖的伦理道德审查、评估,对可能涉及的伦理道德问题进行深入的讨论分析,确保其符合社会价值、伦理道德。最后,强化行业自律和社会监督。行业协会应制定完善的行业规范,要求会员单位在研发和应用AI技术时严格遵守行业规范。同时,鼓励公众、媒体和其他利益相关者加大社会监督,一旦企业出现违反伦理道德的情况,要及时对其进行纠正。在这一过程中,企业应积极履行社会责任,在伦理道德上严于律己,建立良好的企业内控制度和企业道德规范,确保AI技术的研发和应用在伦理道德的约束范围内进行。

  (作者单位:西安电子科技大学马克思主义学院)