购物车
我的足迹

申论范文:构建大模型幻觉及其价值风险的预防治理体系(治理)

加入Vip免费下载 立即下载
申论范文:构建大模型幻觉及其价值风险的预 防治理体系(治理) 当前,大模型正以日新月异的速度变革人类社会,其以强大 的文字、图像与视频生成能力,带给人们学习工作的效率革命与 范式创新。越来越多人将大模型应用于日常实践活动,然而在此 过程中,部分用户由于缺乏必要的媒介素养和信息验证习惯,很 容易被表面严丝合缝的人工智能幻觉蒙蔽欺骗,无条件信任大模 型输出的所有答案,进而对生活、学习或工作产生不良影响,引 发决策误导、认知偏差等风险。在推动大模型广泛应用过程中, 必须警惕与治理大模型幻觉问题及其价值风险,加快构建集技术 优化、法律规制与伦理调适于一体的预防治理体系。 大模型幻觉的生成原因 在人工智能领域,幻觉特指大模型生成的内容看似语法正确、 逻辑严谨,但实际上存在着事实错误或无法验证事实的现象,具 有“一本正经胡说八道”、无法确认现实依据等特征。大模型的 幻觉包括事实性幻觉与忠实性幻觉两种类型,前者指的是与事实 不一致或存在事实捏造,后者指的是生成内容与用户指令不一致、 上下文不一致或逻辑不一致。 在本质上,大模型的幻觉问题是其技术架构、训练和生成模 式共同作用的产物,具有一般性、偶然性、随机性、难以避免或 克服等特征。在生成机制上,大模型幻觉的核心成因来自概率驱 动的技术架构、训练数据局限性以及人机互动生成逻辑的多重耦 合。 首先是技术架构的能力短板。目前大模型主要采取基于转换 器结构的 GPT 范式,这种技术架构确能大幅度提高自然语言处 理的精度与效率,但在预训练、监督微调、推理等环节都可能存 在能力短板,产生与事实、指令或上下文不一致的幻觉问题。例 如在预训练阶段,大模型通过自回归生成方式,基于历史标记的 概率分布逐词预测输出。这种机制天然缺乏对上下文语义一致性 的把控能力,容易优先选择概率更高但与事实、逻辑不一致的词 汇组合,输出形成“语法正确但内容失真”的幻觉。 其次是训练数据的天然缺陷。大模型基于互联网海量数据进 行深度学习,但由于互联网语料并未经过严格检验处理,或者由 于错误标注,不可避免存在事实错误或逻辑矛盾,大模型缺乏对 数据真实性的鉴别能力,容易抓取或根据错误数据生成回答。例 如,当要求 GPT4 大模型讲述“林黛玉倒拔垂杨柳”的故事时, 大模型并不能辨析其中的陷阱,而是未经事实验证直接从海量文 本数据中进行内容拼接,编造出一段荒谬情节。 最后是人机互动的刻板误伤。大模型采取的人类反馈强化学 习,容易导致大模型在刻意逢迎人类需求过程中出现信口开河、 事实伪造等问题。如加拿大航空聊天机器人在错误理解“特殊退 款”概念后,连续生成虚构的退款条件与时限,最终酿成法律纠 纷。大模型特有的技术架构和生成逻辑,导致幻觉具有自我强化 的危险性。 大模型幻觉的价值风险 大模型幻觉的随机出现和难以避免,还存在着削弱人机信任、 导向信息极化、冲击社会秩序甚至引发意识形态安全危机等价值 风险,亟待加强预防与治理。 大模型幻觉最直接的危害就是对用户决策的误导,特别是在 医疗、健康、金融等领域。大模型的权威性表达风格与流畅的叙 事逻辑,使得错误信息具有极强的迷惑性。如果用户过于依赖大 模型生成信息辅助决策,很有可能被误导进而产生严重后果。例 如,相信大模型提供的错误治疗方案,可能导致疾病无法控制甚 至进