假设你的眼睛充血,眼睑有点发红。觉得可能是最近看屏幕太多,于是把症状输入AI聊天机器人。得到的回答:"这是Bixonimania(毕克索尼狂症),是因过度暴露于蓝光引发的疾病。建议去眼科就诊。"

问题在于,这种病根本不存在。这是瑞典哥德堡大学医学研究员Almira Osmanovic Thunstrom为测试AI医疗信息可靠性而专门创造的虚假疾病。

3秒总结
注册虚假疾病论文 4款AI聊天机器人全部上当 被真实学术期刊引用 4000万人用AI咨询健康 现在该改变的习惯

这是什么?

2024年初,Thunstrom创造了虚构的眼科疾病"Bixonimania",并以虚构研究人员的名义在学术网络SciProfiles上发布了2篇预印本论文。名字就是故意取得荒谬。"mania(狂症)"是精神病学术语,却被用于眼科疾病。任何医疗工作者都会觉得这个组合很奇怪。

论文各处都埋下了虚假线索:

  1. 所属大学:「Asteria Horizon University」
    据称位于加州"Nova City",但两者都不存在。
  2. 致谢:USS企业号实验室
    感谢了"星舰学院的Maria Bohm教授"和"魔戒大学"。
  3. 正文中直接坦白
    写明"整篇论文都是虚构的(this entire paper is made up)"。

然而这些明显的线索没有任何AI聊天机器人检测到

有什么不同?

论文发布几天后,主要AI聊天机器人开始将Bixonimania描述为真实疾病。

AI聊天机器人反应(2024年4月)反应(2026年3月)
Microsoft Copilot"有趣的、相对罕见的疾病""虽然尚未得到广泛认可,但已有报告"
Google Gemini"因过度暴露于蓝光引发,建议眼科就诊"(以初期模型局限为由解释)
Perplexity提出"每9万人中1人的患病率"以"新兴术语"介绍
ChatGPT告知症状是否符合Bixonimania"可能是虚构的"→几天后改口称"新的亚型"

两年后的2026年3月,情况仍未完全解决,这才是关键所在。ChatGPT某天说是"虚构的",另一天又说是"新的亚型"。同一个AI会根据问题的措辞给出截然相反的答案。

更严重的问题:连学术期刊都被污染

印度某研究团队在Springer Nature旗下期刊Cureus发表的论文中,将Bixonimania作为真实疾病引用。该论文在Nature询问后于2026年3月被撤回,但这表明AI制造的虚假信息可以污染整个学术生态系统。

为什么会发生这种情况?

哈佛医学院AI医疗专家Mahmud Omar的研究提供了线索。LLM越是看到专业外观的文本,就越容易相信虚假信息。相比社交媒体帖子,处理医院出院记录或论文格式的文本时,幻觉率会上升。

4000万+
每天用ChatGPT搜索健康信息的人数
6人中1人
用AI聊天机器人查找健康信息的美国成年人比例
42%
听取AI健康建议后不咨询医生的比例

规模是问题所在。ECRI将AI聊天机器人滥用列为2026年医疗技术风险第一位。已有报告显示聊天机器人提出错误诊断、推荐不必要的检查,甚至描述了不存在的解剖结构。而所有这些都以充满自信的语气传达。

核心总结:如何过滤AI健康信息

无法阻止AI提供医疗信息的时代到来,但可以改变接受的方式。

  1. 直接核实来源
    不要直接相信AI告诉你的病名或数据。需要养成在PubMed、WHO、国家认可的医疗机构网站上交叉核实的习惯。
  2. 对"据说"表示怀疑
    AI越是自信地说,反而越需要保持警惕。LLM即使没有把握也会以断定的方式表达。
  3. AI回答是"起点"而非"结论"
    把它作为症状搜索的起点,但最终判断必须交给医疗专业人士。
  4. 制定团队和组织层面的指南
    ECRI建议医疗机构设立AI治理委员会并开展AI素养培训。不仅个人,组织层面的应对也是必要的。

想深入了解?

Lancet Digital Health研究 — LLM医疗错误信息脆弱性映射

针对20种LLM进行医疗错误信息接受性分析的大型研究,详述了临床记录格式时幻觉增加的机制。

ECRI 2026医疗技术风险报告

AI聊天机器人滥用位列第一的背景、具体案例,以及为医疗机构提供的应对建议。

牛津大学研究 — AI聊天机器人的不准确医疗建议

系统分析AI聊天机器人提供的医疗建议在准确性和一致性方面存在问题的研究。