[清华大学]DeepSeek与AI幻觉

:memo: 作者: | :date: 发布时间:Fri, 21 Feb 2025 00:00:00 GMT

[清华大学] DeepSeek与AI幻觉案例1

摘要

本文通过分析DeepSeek在金融行业的应用案例,揭示了AI幻觉现象及其潜在风险。特别是在医疗系统中,AI的幻觉问题对患者健康和医疗系统产生了严重负面影响。本文还探讨了AI幻觉的成因及潜在风险,提出了对未来AI模型开发的建议。


正文

DeepSeek在金融行业的应用案例

案例1:某头部银行

  • 利用DeepSeek构建因果归因网络,识别小微企业违约的隐性因素(如上下游账期错配)。
  • 针对性设计“供应链票据贴现+账期保险”组合产品,不良率下降4.2个百分点。

案例2:国信证券

  • 在“金太阳APP”中部署DeepSeek-R1-Distill-32B端侧模型。
  • 客户本地输入风险测评数据后,模型生成个性化投资组合建议。
  • 仅将匿名化策略权重同步至云端风控系统,数据泄露风险降低90%。

AI幻觉案例:Whisper系统

行业应用

  • OpenAI的自动语音识别(ASR)系统Whisper,应用于医疗系统中,将患者与医生的对话问诊过程音频转写为文字病例。
  • 超过30,000名临床医生和40个医疗系统使用。

发现问题

  • 在100多个小时的Whisper转录样本中,约有一半内容存在幻觉。
  • 原音频内容与转录文本严重不符,导致2.6万份自动转录病例中几乎每本都存在瞎编和幻觉问题。
  • 对患者健康和医疗系统产生严重负面影响。

什么是AI幻觉?

学术定义

  • 指模型生成与事实不符、逻辑断裂或脱离上下文的内容,本质是统计概率驱动的“合理猜测”。

通俗解释

  • 一本正经地胡说八道。

分类

  • 事实性幻觉:生成的内容与可验证的现实世界事实不一致。
  • 忠实性幻觉:生成的内容与用户的指令或上下文不一致。

AI为什么会产生幻觉?

数据偏差

  • 训练数据中的错误或片面性被模型放大(如医学领域过时论文导致错误结论)。

泛化困境

  • 模型难以处理训练集外的复杂场景(如南极冰层融化对非洲农业的影响预测)。

知识固化

  • 模型过度依赖参数化记忆,缺乏动态更新能力(如2023年后的事件完全虚构)。

意图误解

  • 用户提问模糊时,模型易“自由发挥”(如“介绍深度学习”可能偏离实际需求)。

音乐为什么没有幻觉?

主观性和多样性

  • 音乐是一种高度主观的艺术形式,人们对音乐的审美和理解有很大的差异。

抽象性

  • 音乐本质上是抽象的,不像文本或图像那样直接对应现实世界的具体事物。

可感知性差异

  • 音乐是时间性的艺术形式,即使某些部分听起来不协调或不符合预期,它们也可能在整个作品的上下文中变得合理。

AI幻觉的潜在风险

信息污染风险

  • 由于DeepSeek的低门槛和普及度高,大量AI生成内容涌入中文互联网,加剧了虚假信息传播的“雪球效应”,甚至污染下一代模型训练数据。

信任危机

  • 普通用户难以辨别AI内容的真实性,可能对医疗建议、法律咨询等专业场景的可靠性产生长期怀疑。

控制欠缺

  • DeepSeek的对齐工作较其他闭源大模型有所欠缺,其开源特性也允许使用者随意使用,可能会成为恶意行为的工具。

安全漏洞

  • 若错误信息被用于自动化系统(如金融分析、工业控制),可能引发连锁反应。

结论

AI幻觉现象对多个行业产生了深远的影响,尤其是在医疗和金融领域。为了应对这一挑战,未来的AI模型开发需要更加注重数据质量、模型的动态更新能力以及用户意图的准确理解。同时,AI模型的开放性和安全性也需要得到更好的平衡,以避免潜在的信任危机和信息污染风险。

:light_bulb: 延伸阅读
研报PDF原文链接