以法治之力护航“人工智能+”

  国务院印发的《关于深入实施“人工智能+”行动的意见》明确,以科技、产业、消费、民生、治理、全球合作等领域为重点,深入实施“人工智能+”行动,涌现一批新基础设施、新技术体系、新产业生态、新就业岗位等,并提出加快实施6大重点行动、强化8项基础支撑能力,旨在加强战略引导与统筹指导,全面推进人工智能科技创新、产业发展与赋能应用。

  人工智能是新一轮科技革命和产业变革的重要驱动力量,日益成为全球科技竞争的战略制高点。我国人工智能发展迈入与经济社会深度融合的新阶段,深入实施“人工智能+”行动,是面对全球智能化竞争新格局的主动破局之举,更是为中国式现代化筑牢智能根基的关键之举。

  同时,人工智能发展可能会带来前所未遇的风险挑战,需要加强人工智能治理。当前我国人工智能核心技术仍面临瓶颈制约,数据隐私与安全风险日益凸显,技术快速迭代催生了一系列亟待破解的伦理与法律难题。对此,我国已展开积极应对,制定了一系列法规制度,2023年发布的《生成式人工智能服务管理暂行办法》等为这一新兴技术领域提供了重要法律保障。

  党的二十届三中全会《决定》提出:“完善生成式人工智能发展和管理机制”“建立人工智能安全监管制度”。在法治轨道上加强人工智能治理,构建以人为本、智能向善的治理框架,已成为我国抢抓人工智能发展历史性机遇的必然选择。推进人工智能治理法治化,必须坚持总体国家安全观,在严守安全红线与底线、把握人工智能发展趋势和规律、充分认识和评估技术产业发展伴生的安全风险基础上,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,在事前、事中和事后全周期确保人工智能安全、可靠、可控。

  人工智能走向法治化,关键在管。要构建跨部门协同监管机制,明确各部门责任,推动信息共享与执法联动。搭建风险预警和动态评估平台,实时监测分析平台运行状态、数据流向等信息,加强对违规内容与行为的实时识别与研判。同时,建立数据使用的标准与规范,提升数据质量,定期审查数据的收集、存储、使用和共享情况,及时发现并纠正数据滥用、隐私泄露等问题,确保数据使用与技术发展始终处于可控范围,不断强化源头管理。

  不同行业因服务属性、受众群体及风险等级存在差异,需立足自身核心业务场景细化规则。如医疗领域需聚焦人工智能应用的安全性与伦理边界,明确技术应用的核心标准与责任划分。交通领域应围绕人工智能与基础设施的协同运行,完善准入规范与风险处置细则。通过行业差异化标准的构建,让人工智能应用在各领域均能实现有据可依、有章可循,既保障技术创新空间,又守住行业发展底线。

  此外,要守住人工智能向善发展底线,将“坚持以人为本、智能向善”理念深度嵌入技术研发、训练、应用全链条。在算法设计环节规避偏见,在数据训练阶段强化伦理过滤,在应用部署时设置风险阀门。一方面,建立人工智能项目伦理审查前置机制,对涉及公共利益的重大应用开展多学科伦理评估;另一方面,加强从业者伦理培训,确保技术发展始终与人类价值同频共振。

  法者,治之端也。以法治思维统筹“人工智能+”发展,既要及时回应技术变革带来的迫切需求,更要着眼长远构建制度优势。只有筑牢法治之基,校准伦理之尺,激活创新之能,确保人工智能在法治轨道上前行,才能为发展新质生产力提供持久动能,为中国式现代化书写智能时代的精彩篇章。