中国出版传媒股份有限公司主管 中国民主法制出版社有限公司主办
公众号
  • 订阅号

  • 服务号

  •          学习强国         手机版         电子期刊          登录
    登录 注册
    当前位置:首页 > 理论前沿
     理论前沿
     
    封面主题 | 人工智能快速发展下的网络安全法治建设
    文章字体:【 】 发布日期: 2025-04-15 来源:《法治时代》杂志

    数字时代的国家安全治理之四

    编者按

    党的二十届三中全会强调:“国家安全是中国式现代化行稳致远的重要基础。必须全面贯彻总体国家安全观,完善维护国家安全体制机制,实现高质量发展和高水平安全良性互动,切实保障国家长治久安。”当前,国际地缘冲突愈演愈烈、人工智能突破性发展不断重构网络安全边界、贸易战升级影响全球经济复苏等关乎国家安全和发展的问题交织叠加。面对国内外各种复杂形势,必须健全国家安全体系才能为中国式现代化提供安全保障,确保中国式现代化行稳致远。这对国家安全法治建设提出了新的要求。

    2025年是《中华人民共和国国家安全法》颁布实施10周年,本期封面主题围绕“数字时代的国家安全治理”,特邀请专家学者针对国家安全多个重点领域的法治建设与制度发展进行深度剖析:关注新时代国防与军队的法治建设;构建跨文化交流中本土文化安全的保护机制;思考人工智能高速发展带来的网络安全、数据安全、保密安全等新兴问题的法治应对。以系统思维推进国家安全法治体系现代化建设,促进国家安全意识深入人心,持续筑牢国家安全的人民防线,坚定走中国特色国家安全道路,积极构建国家安全自主知识体系,为国家安全法治建设提供理论支持,推动构建新安全格局保障新发展格局。

    网络安全是国家安全的重要组成部分。党的十八大以来,我国基本构建起网络安全政策法规体系的“四梁八柱”。随着《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》(以下简称《数据安全法》)及其配套的《网络数据安全管理条例》《未成年人网络保护条例》《关键信息基础设施安全保护条例》实施,网络运行安全、网络信息安全、网络数据安全的法网不断“织密”。随着人工智能技术迭代发展,网络安全态势面临新的挑战。在《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等部门规章及相关技术标准的基础上,应进一步加强制度构建,在法治轨道上实现人工智能发展的网络安全。

     

    一、人工智能新变局下的网络安全新态势

     

    人工智能时代,网络安全面临全面挑战。人工智能催生新旧网络安全威胁,产生新的信息传播风险,加剧数据泄露安全问题。

    (一)新旧网络安全威胁交织

    随着人工智能系统全面嵌入传统互联网环境,加剧传统网络安全威胁的同时,针对人工智能系统的新型网络威胁开始出现。在人工智能技术加持下,传统网络攻击呈现智能化、自动化、低成本化发展趋势。一是网络攻击智能化。传统网络威胁在人工智能技术加持下更具威胁性。例如,生成式人工智能使钓鱼邮件更加逼真,人工智能网络攻击工具能更全面、快速地识别系统漏洞和防御策略等。二是网络攻击自动化。传统网络攻击通常由人工操作,而人工智能驱动的网络攻击工具能够自动扫描网络漏洞,恶意软件也能够自适应被攻击网络环境,躲避网络安全监测,使网络攻击窗口不断扩大。三是网络攻击低成本化。传统网络攻击极其依赖专业化的人力资源,以及与攻击活动相匹配的资源投入,大规模网络攻击行动的成本可能存在倒挂现象,边际收益递减。但是网络攻击的智能化、自动化降低了资源投入,能以较低成本实现更高收益。

    人工智能系统的发展方向不同于传统互联网,二者在用户之间的交互方式、系统层面的操作步骤等方面都有所不同。人工智能系统发展的目标是根据用户指令,压缩系统层面的操作步骤,实现更高效的使用逻辑。因此,在压缩操作指令、减少人工操作的同时,应对网络安全事件的反应时间也会变得短暂。同时,新型网络威胁攻击形态发生变化,比如瞄准人工智能系统的开发特点,通过“误导”系统实现网络攻击目标。

    (二)信息传播安全风险叠加

    互联网媒体对传统媒体产生了巨大冲击,信息传播范式在互联网时代从传统媒体中心化的信息传播逻辑,转向去中心化。在互联网自媒体时代,信息传播具有主体多元化、传播渠道多样化特征。但当用户习惯于通过人工智能直接获取信息后,人工智能对信息、事件的判断将取代人类多元信息交叉比对工作,使信息传播逻辑再次回到中心化。

    这种再中心化的信息传播逻辑,可能叠加传统媒体和互联网媒体的劣势。一是加剧虚假信息传播危害。从信息识别角度而言,人工智能虚假信息的仿真度更高,更不易被用户察觉;从信息传播范围而言,虚假信息被人工智能集合后能够被传播到更广泛的人群;从信息传播深度而言,虚假信息也能被更精准地推送到目标用户。二是加剧信息偏见。人工智能可能迎合用户喜好,提供用户喜欢的信息,加剧用户的偏见和歧视。三是加剧信息茧房。基于人工智能技术集合的信息可能受限于模型设计或训练阶段的训练数据影响,在信息收集阶段存在信息收集范围不足,产生信息茧房问题。

    (三)数据泄露安全问题加剧

    人工智能时代,数据泄露安全威胁加剧。数据安全法律政策在研究、起草的过程中,主要是基于大数据应用的特征而设计的。例如《数据安全法》第14条第1款指出:“国家实施大数据战略,推进数据基础设施建设,鼓励和支持数据在各行业、各领域的创新应用。”人工智能技术与大数据技术在处理数据面临的风险方面有共通之处,都对数据的准确性、数据来源的合法性、个人信息的保护、公共权益的照顾有共同要求。但人工智能时代,数据安全风险有新的趋势。

    一是数据泄露的途径增多。大数据技术本质上是为解决海量结构化数据或非结构化数据的处理问题,重在对数据的直接处理,其数据安全风险通常在于内部或操作层面。人工智能处理数据的目的与大数据技术不同,重在对数据的间接处理,其数据安全风险既源于内部或操作层面,也来源于模型安全漏洞或模型技术的原生漏洞。例如,模型反演攻击可以通过逆向工程,窃取模型训练阶段使用的数据,可能使个人信息、重要数据泄露。

    二是数据风险的类型增加。传统数据风险通常聚焦数据泄露问题,但是人工智能数据风险还需特别关注数据污染问题。人工智能对训练数据有特殊要求,需要大量数据,以便于学习数据特征,从而提高模型的泛化能力。攻击者通过污染训练数据实现对人工智能的误导,进而引发人工智能偏见、歧视等问题;或者通过在开源训练数据集安插“后门”,植入特定触发条件,使模型在遇到条件时输出预设的恶意结果。

    三是数据安全的维度扩充。人工智能扩充了数据安全的维度,人工智能系统数据安全成为重点。人工智能系统数据是指各类系统参数,包括权重、偏置、神经网络中的激活函数参数等。模型参数本质上是数据。2025年1月,美国发布的人工智能出口管制规则中明确限制人工智能模型权重出口。模型参数是先进人工智能的技术核心。训练人工智能的成本通常比较高昂,但模型窃取攻击可以重建或复制原始模型的内部结构或参数,使攻击者以低成本获取高性能模型。

     

    二、网络安全法治体系面临新挑战

     

    人工智能技术是传统信息网络技术的延伸和发展,同时也产生了新的治理问题。在人工智能技术全面嵌入社会运行的趋势下,基于传统信息网络技术设计的网络安全法治体系面临新的挑战。

    (一)立法工作滞后凸显

    当前,我国网络安全法治体系在应对人工智能风险、打击人工智能违法犯罪、划分人工智能侵权责任等方面的滞后性明显。人工智能相关立法存在立法层级不高、立法“碎片化”的问题。

    一方面,我国尚未在法律和行政法规层面出台人工智能规范。部门规章立法层级不高,无法完成统筹协调工作。相较于人工智能立法而言,传统网络安全立法在解决人工智能法律问题方面针对性不足,在适用过程中需要对法条进行扩张性解释,但也容易出现法理难题。另一方面,我国当前人工智能立法遵循场景化立法思路,对预防特定人工智能风险方面具有积极意义,但存在立法碎片化问题,容易产生规范间的交叉和重叠。人工智能的底层技术通常具有一定共性,各场景下人工智能风险可能源于场景的特殊性,但大多属于技术上的共性问题。立法碎片化也容易产生概念、法律责任等方面的立法冲突。

    (二)司法裁判基准不明

    近年来,涉人工智能违法犯罪和侵权案件逐渐增多。各级人民法院已经作出系列涉人工智能案例判决并产生多例典型性指导案例。例如,北京互联网法院全国首例“AI文生图”著作权侵权案,明确了用户对使用人工智能工具生成的具备“智力成果”和“独创性”的作品享有著作权。2025年3月,全国“两会”最高人民法院工作报告指出,依法妥善审理涉人工智能纠纷案件,支持人工智能依法应用;惩治利用人工智能技术侵权行为,促进规范有序发展;严格依法保护创新,对恶意侵权情节严重的460起案件适用惩罚性赔偿,同比增长44.2%。可见,司法实践对涉人工智能案件裁判基准的需求持续增长。

    但是,由于人工智能立法滞后以及涉人工智能法律问题与传统法律问题存在一定区别,导致缺乏明确法律依据,这对司法机关公正裁判提出了更高要求。法院发布的典型案例能够为司法实践提供重要参考,但典型案件类型较为单一,实践中大量涉人工智能案件不能简单地参照典型案例。需研究司法实践中人工智能带来的新问题,适时出台规范性法律文件或实施细则,完善法律适用。当前,在立法和司法解释缺位的情况下,涉人工智能案件的司法裁判仍然面临挑战。

    (三)监管技术鸿沟扩大

    基于人工智能的违法犯罪与传统监管之间出现技术鸿沟,对监管产生极大挑战。在追踪违法犯罪线索方面,监管技术必须提高线索识别能力。人工智能违法犯罪工具的欺骗性更强,容易误导监管部门,进而造成监管风险。例如,在处理谣言案件时,监管机关对虚假信息判断错误,误删真实信息可能侵犯公民合法权益,引发舆情危机。

    在防御网络攻击方面,监管技术必须实现更高性价比的防御能力。网络攻防通常是不平衡关系,尤其是在成本投入方面,攻击方相较而言占有优势。网络防御方需要时刻保持防御投入,而网络攻击方仅需成功一次便可获得收益。随着人工智能技术对网络攻击的加持,在进一步降低攻击成本的同时,使攻击手段更为复杂。这就要求监管技术也必须同时提高防御能力,降低防御成本。

    在打击新型违法犯罪活动方面,监管技术必须加强“以技治技”能力。在涉人工智能新型违法犯罪案件中,犯罪分子借助人工智能实施违法犯罪行为加大了监管机关防范打击难度。例如,在电信网络诈骗犯罪中,已有犯罪分子利用人工智能换脸实施精准诈骗,并且正逐步由面部合成向全身、3D合成发展。对此,检测人工智能深度伪造内容时可能需要专业化技术支持,监管技术必须时刻跟踪新型违法犯罪动态,不断提高监管技术水平。

    (四)治理机制难以适应

    人工智能网络安全往往需要跨部门、跨领域治理,但协作治理机制仍不完善,各部门之间的职能分工存在交叉和重叠、数据共享和信息流通不畅、治理思路一致性欠缺。例如,自动驾驶涉及技术标准、交通规则、道路建设等多个方面,需要各监管机关加强统筹协调,更好地实现安全与发展的融合。人工智能治理对监管机关治理能力、治理资源提出更高要求,但我国不同经济发展水平的地区之间以及综合监管部门和行业监管部门之间,治理能力和治理资源存在较大差异。人工智能的安全影响面广,处置应对的响应速度要求高,需要更好地构建全国全域的治理机制。

     

    三、在法治轨道上实现人工智能发展网络安全

     

    网络安全法治建设应当依法科学推进,以适应人工智能发展需求。努力推进网络安全政策法规“立改废释”,建立健全人工智能安全标准体系,探索网络安全技术监管制度方案,创新网络安全协同治理机制手段。

    一是推进网络安全政策法规“立改废释”。完善网络安全法治体系,需要推动网络安全政策法规“立改废释”工作,满足人工智能发展需要。首先,起草制定综合性的人工智能法及相关配套规范体系。顶层系统谋划人工智能治理体系和监管架构,更好形成监管合力,丰富安全监管手段。围绕人工智能研发、服务提供的不同主体,针对数据收集、模型训练、内容生成等不同环节,细化网络安全要求。其次,完善网络安全法律规范衔接。网络安全法律规范应当适应人工智能的时代需求,关注人工智能发展新形势、新需求,完善现有规范与人工智能技术的有机衔接。最后,加强人工智能相关法律解释工作。针对人工智能技术特点,开展人工智能相关法律法规解释工作,动态调整人工智能相关法律解释体系,指导有关部门有序开展涉人工智能相关工作。

    二是建立健全人工智能安全标准体系。应对人工智能系统性安全风险,应当建立健全人工智能安全标准体系,引领人工智能产业全面规范化发展的新格局。以人工智能安全标准规范人工智能技术开发与应用,控制人工智能安全风险,推动人工智能技术在开源、开放的产业生态中自我优化。

    三是探索网络安全技术监管制度方案。“以技治技”是人工智能监管的必然选择。一方面,要提高人工智能技术监管投入,加强技术研发,提高监管水平。加快人工智能监管技术部署,推动人工智能监管技术更广泛应用。另一方面,要大力培养“人工智能+X”复合型人才。构建基础理论人才与“人工智能+X”复合型人才并重的培养体系,培育既熟悉人工智能和网络安全技术,又有法学素养和法治思维的复合型人才。

    四是创新网络安全协同治理机制。人工智能治理应坚持发展和安全并重原则。推动建立网络安全协同治理机制,有利于平衡人工智能安全与发展,建立人工智能系统性风险防范机制。推动中央和地方跨部门、跨区域协同治理,加强安全风险信息分享和治理资源共享。推动政企协同治理,一方面,着力破除企业发展人工智能过程中的束缚、障碍,另一方面,也要发挥企业防范人工智能风险“前沿阵地”的作用,从源头化解风险。

    综上,新形势下把握信息技术智能化快速发展带来的历史机遇,也要把控好人工智能网络安全的新威胁新风险,以法治思维和法治方式有效防控风险,切实避免颠覆性技术带来颠覆性危险。科学完善网络安全立法、司法、执法工作,探索建立新型监管机制,深化助推人工智能高质量发展和高水平安全的深度融合。

     

    (作者系中国社会科学院文化法制研究中心研究员周辉,公安部第三研究所研究实习员吴若恒,本文刊载于《法治时代》杂志2025年第4期)

     

    (责任编辑:王凯伦)

     

     


    推荐阅读
    友情链接:
    版权所有:法治时代杂志 京ICP备12049208号-6