申论范文:人工智能:如何握好这把“双刃
剑”(治理)
人工智能正深刻改变世界。但它如一把“双刃剑”,既带来
巨大机遇,也引发诸多挑战——在医疗、教育、交通等领域,人
工智能提升了效率,改善了生活质量;然而,它也可能冲击就业、
侵犯隐私、引发算法偏见等。如何握好这把“双刃剑”,让人工
智能真正成为推动人类进步的力量。
当下的选择决定未来的走向。本期我们邀请两位专家,共同
探讨如何避免风险,引导技术向善。
人工智能技术无疑是新一轮科技革命和产业变革的先导。其
中,强调价值对齐、能够自主定义并完成无限任务的通用人工智
能,更是新质生产力的典型代表,已经成为全球科技战略制高点。
但另一方面,由于大模型等人工智能技术具有“黑箱属性”,导
致其决策行为不能被完全透明解释,它的生成内容也不能被完全
预判控制,当这样的人工智能技术应用部署在国家社会经济生活
中的方方面面时,就可能会出现偏离人类预期甚至危害国家安全
和人类整体利益的巨大风险。
1、在国家层面,人工智能技术正在重构国家安全治理的格
局
我国已将人工智能安全纳入国家战略,并上升至总体国家安
全观的重要组成部分。这是因为,人工智能技术的迅猛发展正在
重构国家安全治理的格局,其中部分风险突破了传统技术伦理范
畴,形成系统性、多维度的威胁。
以当下热度最高的生成式大模型为例,我们可以关注到这三
类安全危机:
首先,是技术安全与自主创新的国际挑战。大模型的算力、
算法与数据,构成新型国家战略资源,其自主可控性直接关乎国
家主权安全。目前,全球算力中心依然集中于少数欧美科技巨头,
英伟达的人工智能芯片占据了超过 80%国际市场份额。而就在今
年 1 月底,美国国会首次提交了中美人工智能“脱钩”的法案,
一旦该法案通过,两国所有人工智能的合作渠道将被截断。
其次,意识形态与价值伦理的隐性危机。大模型没有价值认
知的功能,但开发者的价值观可以渗透到大模型对外输出的文本,
构成意识形态方面的安全威胁。比如,一些欧美研发的大模型,
其生成的视频、图像表达延续欧美影视文化倾向,以西方艺术审
美为主体,却无法识别和“理解”达喀尔建筑等非洲文化造型。
众多案例表明,欧美大模型所蕴含的西方中心主义价值观值得我
们提高警惕。此外,质量参差不齐的国内自媒体信息、不当抓取
的境外网页错误信息、由大模型生成的未经审核的合成数据,都
可能会“毒化”AI 大模型的训练过程,进而导致输出内容价值
观的偏差。繁杂的世界观、人生观、价值观数据弥漫在大模型神
经网络的“黑箱”中,导致我们很难分辨出大模型的某些反社会
回答(例如“毁灭人类”)究竟是出自语料库,还是根据模型的
行为范式学习推理而来。随着大模型广泛应用到各行各业,倘若
任由这种不可控的“黑箱”发展下去,我们将很难控制人工智能
的价值体系与人类相一致,会造成较大的社会伦理风险。
再次,制度监管滞后与信息不对称的结构性困境。尽管世界
各国已针对人工智能技术带来的安全风险纷纷出台相关法案,但
这些法律法规的制定完善一般需要漫长复杂的流程,往往滞后于
人工智能新产品的发布更新速度。各国人工智能的发展水平与应
用程度不同,政府、企业、高校科研机构、社会大众对动态更新
发展的人工智能技术的认知存在不小的信息差,导致国与国之间、
社会各行各业之间推出的人工智能治理措施出现大量无效重合
和高度冲突。这类信息不对称和统一标准的缺失,对外易制造国
际人工智能安全治理的合作争端,对内会使得人工智能监管出现
“真空地带”,造成制度叠加的冗余和推行成本的增长。
2、在社会和个人层面,滥用人工智能技术可能带来劳动秩
序重构、混淆视听、诱发心理依赖、认知和学习能力下降等问题
在社会和个人层面,除了侵犯个人隐私、引发版权纠纷等,
滥用人工智能还会造成不少问题:
社会重新分配,劳动秩序重构。“人工智能+”的落地应用可
能会引起“创造性破坏”,也就是普遍担忧的“人工智能代替人
类”——普通劳动者的就业机会被人工智能剥夺。国际货币基金
组织发布报告称,人工智能预计将对全球近 40%的工作岗位产生
影响。创造性和技术需求较低工作的从业者都将面临失业或转型
的危机,社会劳动分工的结构将经历一场“大洗牌”。
难辨真假的“网络垃