申论范文:推动人工智能安全可靠可控发展
(治理)
习近平总书记指出:“要把握人工智能发展趋势和规律,加
紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构
建技术监测、风险预警、应急响应体系,确保人工智能安全、可
靠、可控。”国务院近日印发的《关于深入实施“人工智能+”行
动的意见》提出,“共同研判、积极应对人工智能应用风险,确
保人工智能发展安全、可靠、可控”。当前,人工智能正以前所
未有的深度与广度重塑着社会运行方式。同时,从大型语言模型
的“幻觉”输出到自动驾驶系统的决策偏差,从深度伪造技术对
社会信任的侵蚀到算法黑箱导致的不透明与偏见……人工智能
系统在性能飞跃的同时,其内生性安全与可靠性问题成为制约其
健康发展的不容忽视的因素。传统的事后补救、外挂防护式的治
理模式,如同在高速运行的列车外部进行修补,不仅效率低下,
也难以触及复杂系统内部深层结构性问题。因此,探索以系统治
理推动人工智能安全可靠可控发展,具有实践上的紧迫性。
从“外挂补丁”到“免疫系统”的范式更新
“外挂补丁”模式承袭传统网络安全思路,其特征表现为事
后补救、外部附加和局部修正,其在人工智能治理初期发挥了重
要作用。例如,当发现人工智能系统学会了偏见和歧视,我们试
图用“过滤网”去筛查它的回答;当发现它容易被“误导”或
“欺骗”,我们再为其额外增加一道防护程序;当人工智能系统
的决策过程像一个黑箱难以理解,我们再开发一个外部工具去试
图解读它。然而,这种模式存在固有局限性:其预警响应往往滞
后于风险显现,难以覆盖长链式、跨模态的新型风险;附加的安
全模块可能与原生系统存在适配冲突,影响模型性能的同时产生
新的脆弱点;规则化的应对方式无法适应快速迭代的攻击手法。
正如修补漏洞无法替代建设坚固的城堡,依赖外部打补丁难以形
成系统性的安全韧性。
确保人工智能系统安全可靠可控,需要从系统设计的底层逻
辑出发,将安全与可靠目标内化为技术架构、算法模型、数据流
程乃至开发范式的核心基因,使其具备类似生物免疫系统的自我
识别、动态适应和协同防御功能,随系统演化而自适应进化,进
而降低安全风险发生的概率与危害。这一范式涵盖三个核心维度:
架构安全、过程安全与价值安全。具言之,筑牢架构安全防线,
将安全属性嵌入模型底层,使其天生具备更强的抗干扰、抗欺骗
能力,不易被“病毒”入侵,并能更好保护数据隐私;构建过程
安全监控系统,在模型训练、部署、运行的全流程实施动态风险
监测与反馈调节;设置价值安全指引,将价值观、伦理准则与社
会规范内化为人工智能系统的行为指引,通过价值观对齐,使系
统不仅能正确执行任务,更能理解行动的伦理意涵与社会影响。
从“概率正确”到“可知可控”的信任构建
当前,大多数人工智能系统基于大数据和概率模型运行,通
过分析大量数据找出重复出现的模式,进而做出判断,这通常表
现为“概率正确”。这种方式虽然高效,但也存在明显的局限和
风险。一是结果的不确定性。模型可能会产生“幻觉”,即编造
看似真实实则虚假的信息。在医疗诊断、司法辅助等严肃场景中,
模型“幻觉”的代价是难以估量的。二是决策的不可溯性。当系
统做出某个决定时,使用者往往无法了解其具体推理过程,这既
影响了对结果的验证,也阻碍了错误发生后的纠正和改进。三是
风险的不可预见性。系统在常规环境下可能表现良好,但在面对
新情况或受到干扰时,可能出