购物车
我的足迹

申论范文:人工智能:如何握好这把“双刃剑”(治理)

加入Vip免费下载 立即下载
申论范文:人工智能:如何握好这把“双刃 剑”(治理) 人工智能正深刻改变世界。但它如一把“双刃剑”,既带来 巨大机遇,也引发诸多挑战——在医疗、教育、交通等领域,人 工智能提升了效率,改善了生活质量;然而,它也可能冲击就业、 侵犯隐私、引发算法偏见等。如何握好这把“双刃剑”,让人工 智能真正成为推动人类进步的力量。 当下的选择决定未来的走向。本期我们邀请两位专家,共同 探讨如何避免风险,引导技术向善。 人工智能技术无疑是新一轮科技革命和产业变革的先导。其 中,强调价值对齐、能够自主定义并完成无限任务的通用人工智 能,更是新质生产力的典型代表,已经成为全球科技战略制高点。 但另一方面,由于大模型等人工智能技术具有“黑箱属性”,导 致其决策行为不能被完全透明解释,它的生成内容也不能被完全 预判控制,当这样的人工智能技术应用部署在国家社会经济生活 中的方方面面时,就可能会出现偏离人类预期甚至危害国家安全 和人类整体利益的巨大风险。 1、在国家层面,人工智能技术正在重构国家安全治理的格 局 我国已将人工智能安全纳入国家战略,并上升至总体国家安 全观的重要组成部分。这是因为,人工智能技术的迅猛发展正在 重构国家安全治理的格局,其中部分风险突破了传统技术伦理范 畴,形成系统性、多维度的威胁。 以当下热度最高的生成式大模型为例,我们可以关注到这三 类安全危机: 首先,是技术安全与自主创新的国际挑战。大模型的算力、 算法与数据,构成新型国家战略资源,其自主可控性直接关乎国 家主权安全。目前,全球算力中心依然集中于少数欧美科技巨头, 英伟达的人工智能芯片占据了超过 80%国际市场份额。而就在今 年 1 月底,美国国会首次提交了中美人工智能“脱钩”的法案, 一旦该法案通过,两国所有人工智能的合作渠道将被截断。 其次,意识形态与价值伦理的隐性危机。大模型没有价值认 知的功能,但开发者的价值观可以渗透到大模型对外输出的文本, 构成意识形态方面的安全威胁。比如,一些欧美研发的大模型, 其生成的视频、图像表达延续欧美影视文化倾向,以西方艺术审 美为主体,却无法识别和“理解”达喀尔建筑等非洲文化造型。 众多案例表明,欧美大模型所蕴含的西方中心主义价值观值得我 们提高警惕。此外,质量参差不齐的国内自媒体信息、不当抓取 的境外网页错误信息、由大模型生成的未经审核的合成数据,都 可能会“毒化”AI 大模型的训练过程,进而导致输出内容价值 观的偏差。繁杂的世界观、人生观、价值观数据弥漫在大模型神 经网络的“黑箱”中,导致我们很难分辨出大模型的某些反社会 回答(例如“毁灭人类”)究竟是出自语料库,还是根据模型的 行为范式学习推理而来。随着大模型广泛应用到各行各业,倘若 任由这种不可控的“黑箱”发展下去,我们将很难控制人工智能 的价值体系与人类相一致,会造成较大的社会伦理风险。 再次,制度监管滞后与信息不对称的结构性困境。尽管世界 各国已针对人工智能技术带来的安全风险纷纷出台相关法案,但 这些法律法规的制定完善一般需要漫长复杂的流程,往往滞后于 人工智能新产品的发布更新速度。各国人工智能的发展水平与应 用程度不同,政府、企业、高校科研机构、社会大众对动态更新 发展的人工智能技术的认知存在不小的信息差,导致国与国之间、 社会各行各业之间推出的人工智能治理措施出现大量无效重合 和高度冲突。这类信息不对称和统一标准的缺失,对外易制造国 际人工智能安全治理的合作争端,对内会使得人工智能监管出现 “真空地带”,造成制度叠加的冗余和推行成本的增长。 2、在社会和个人层面,滥用人工智能技术可能带来劳动秩 序重构、混淆视听、诱发心理依赖、认知和学习能力下降等问题 在社会和个人层面,除了侵犯个人隐私、引发版权纠纷等, 滥用人工智能还会造成不少问题: 社会重新分配,劳动秩序重构。“人工智能+”的落地应用可 能会引起“创造性破坏”,也就是普遍担忧的“人工智能代替人 类”——普通劳动者的就业机会被人工智能剥夺。国际货币基金 组织发布报告称,人工智能预计将对全球近 40%的工作岗位产生 影响。创造性和技术需求较低工作的从业者都将面临失业或转型 的危机,社会劳动分工的结构将经历一场“大洗牌”。 难辨真假的“网络垃