购物车
我的足迹

申论范文:人工智能时代保密法治面临的风险挑战及应对策略(治理)

加入Vip免费下载 立即下载
申论范文:人工智能时代保密法治面临的风险 挑战及应对策略(治理) 近年来,国际国内形势发生深刻变化,科技发展日新月异, 尤其以 DeepSeek、ChatGPT 为代表的人工智能技术呈现迅猛发 展势头,已深入金融、医疗、交通、制造业等诸多领域,预示着 人类已经进入人工智能时代。人工智能技术不仅对经济社会繁荣 和人类文明演进产生深远影响,而且有可能在不久的将来重塑包 括保密工作在内的国家安全格局。当前形势下亟待采取有效措施, 完善保密法治,更好地维护国家安全和利益。 一、当前我国保密法治建设面临的风险挑战 大数据、人工智能等信息技术的应用不仅促进了经济增长, 提高了信息安全防护水平,也给国家保密事业带来前所未有的风 险挑战。 (一)密与非密的界限变得模糊 大数据改变了“数据垃圾无秘密”的传统认识,对基于既有 信息的传统定密方式提出挑战。如果将海量多元的非涉密数据通 过大数据技术进行关联分析,在碎片化的信息之间建立联系,就 可能挖掘出非涉密数据背后隐藏的重要价值。可以说,大数据模 糊了密与非密的界限,改变了情报搜集方式。如今,利用大数据 分析获取国家秘密和关键信息已成为开源情报工作的常态。例如, ChatGPT 不设限爬取、采集我国各大媒体、电商等平台的敏感数 据、用户行为轨迹等信息,深度训练分析我国社情民意的数据大 模型,严重危害我国国家安全。 (二)保密与公开的范围发生改变 在非传统安全领域,一些基础数据正逐步显示出重要性,一 旦共享、传播和公开不当,将对国家安全造成巨大危害。如金融、 生态、文化、粮食等领域,包含大量相关行业、部门、区域的敏 感数据信息,掌握这些信息并由此进行梳理、整合、分析,就可 以得到有关一国之根本的重要信息。因此,这部分信息需要纳入 保密范围。同时,信息公开、资源共享越来越成为时代发展的必 然要求,一些原属于管控范围内信息的保密属性逐渐弱化。 (三)失泄密风险急剧上升 一是保密信息难以识别和隔离。人工智能时代,信息传输超 国界、无边界,政府已不再是信息的唯一拥有者和权威发布者, 信息控制的主体多元化、分散化,信息发布、传播的渠道愈加多 样化。很多信息是在未经严格保密审查、未进行泄密隐患风险评 估或者未被意识到情报价值的情况下发布的。这些保密信息难以 识别和隔离,很可能发生泄露。 二是人工智能助推网络攻击窃密。人工智能在网络空间安全 领域的应用,使网络攻防对抗不断演化升级。像 ChatGPT 这样 的大语言模型拥有海量的编程相关知识,大幅降低了网络攻击的 技术门槛,即使没有技术基础的人也能编写恶意代码软件,实施 网络攻击。同时,网络攻击者还可以利用人工智能强化恶意软件, 编写适用于目标防御体系的特定攻击程序,其隐蔽性和破坏性大 大增强。2013 年曝光的美国“棱镜计划”显示,自 2007 年起美 国情报机构对全球互联网、通信网络和各种网络应用进行数据收 集,囊括社交网络数据、智能终端数据、传感网络数据等海量信 息,进而利用大数据、人工智能等技术监控用户的上网行为、社 交网络活动等,以此获取各种情报信息。2022 年 9 月,国家计 算机病毒应急处理中心发布的关于西北工业大学遭美国国家安 全局(NSA)网络攻击事件的调查报告显示:美国国家安全局下 属的“特定入侵行动办公室”(TAO)使用了 41 种不同的专属网 络攻击武器,持续对西北工业大学开展攻击窃密,窃取该校关键 网络设备配置、网管数据、运维数据等核心技术数据。 三是人工智能核心技术及软硬件设备高度依赖进口,存在预 设后门、恶意代码等安全隐患,可能被用于大规模监控和情报窃 取。例如,我国某科研单位进口设备被植入窃密芯片,导致国防 技术参数泄露。 四是人工智能引入办公系统存在数据泄露风险。目前,我国 许多机关单位工作人员使用人工智能大模型来撰写工作总结、会 议纪要等文稿,带来严重风险隐患。专业人员可以通过窃取人工 智能的训练数据,或者利用人工智能自身算法的缺陷和漏洞,进 行对抗样本、数据投毒、模型窃取等攻击,危害数据安全。与此 同时,政务人工智能应用开发通常依赖第三方服务提供商,需要 将数据与第三方共享,产生额外的数据泄露风险。现实中,单 位员工不当使用生成式人工智能,如上传涉密文档、优化代码 等,已引发多起泄密事件。2023 年 3 月 30 日,韩语版《经济学 人》报道,三星公司引入 ChatGPT 不到 20 天内,就接连发生 3 起数据泄露事件,其中 2 起因工程师使用 ChatGPT 进行代码修 复和优化,1 起因员工使用 ChatGPT 整理会议纪要。 五是人工智能技术的发展导致数据跨境流动变得更加频繁 和便捷,带来潜在安全隐患。《中华人民共和国保守国家秘密法》 (以下简称《保守国家秘密法》)部分条款不能调整数据跨境流 动,埋下安全隐患。此外,不同国家和地区有关数据保护和保密 的法律规定存在差异,增加了我国法律有关保密规定在跨境数据 处理中的执行难度。企业在利用人工智能处理全球业务时,可能 因为不了解当地法律而违反保密义务,引发法律纠纷。 (四)保密责任不明确 人工智能系统的开发和运营涉及数据提供者、算法开发者、 服务提供商等多个主体,人工智能技术模糊了保密责任主体。例 如,基于区块链技术的分布式账本中的涉密信息保护,责任主体 就不够清晰。 (五)监管难度增大 网络空间信息实时管控的难度大,很多敏感信息是随手拍摄、 记录并上传至网络的,非实名制、匿名制等为信息源头追溯工作 带来很大困难,事后追责机制难以奏效。 (六)保密法律滞后 目前,尚无一部规范人工智能开发应用的专门法律对人工智 能引发的保密问题作出规定。一些人工智能立法文件,如《生成 式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理 规定》《互联网信息服务深度合成管理规定》《人工智能生成合 成内容标识办法》《广东省推动人工智能与机器人产业创新发展 若干政策措施》等,保密要求一笔带过,或者根本未提出保密要 求。一些保密法律比较原则化,缺乏可操作性;一些保密立法位 阶较低,所起作用有限,无法应对复杂情况。此外,国内保密要 求与国际数据规则(如跨境司法协助)存在协调难题,易引发监 管漏洞。 二、加快完善保密法治 保密法治是开展保密工作的基本保障。为进一步完善我国保 密法治,更好应对人工智能带来的保密风险挑战,为人