假设你的眼睛充血,眼睑有点发红。觉得可能是最近看屏幕太多,于是把症状输入AI聊天机器人。得到的回答:"这是Bixonimania(毕克索尼狂症),是因过度暴露于蓝光引发的疾病。建议去眼科就诊。"
问题在于,这种病根本不存在。这是瑞典哥德堡大学医学研究员Almira Osmanovic Thunstrom为测试AI医疗信息可靠性而专门创造的虚假疾病。
这是什么?
2024年初,Thunstrom创造了虚构的眼科疾病"Bixonimania",并以虚构研究人员的名义在学术网络SciProfiles上发布了2篇预印本论文。名字就是故意取得荒谬。"mania(狂症)"是精神病学术语,却被用于眼科疾病。任何医疗工作者都会觉得这个组合很奇怪。
论文各处都埋下了虚假线索:
- 所属大学:「Asteria Horizon University」
据称位于加州"Nova City",但两者都不存在。 - 致谢:USS企业号实验室
感谢了"星舰学院的Maria Bohm教授"和"魔戒大学"。 - 正文中直接坦白
写明"整篇论文都是虚构的(this entire paper is made up)"。
然而这些明显的线索没有任何AI聊天机器人检测到。
有什么不同?
论文发布几天后,主要AI聊天机器人开始将Bixonimania描述为真实疾病。
| AI聊天机器人 | 反应(2024年4月) | 反应(2026年3月) |
|---|---|---|
| Microsoft Copilot | "有趣的、相对罕见的疾病" | "虽然尚未得到广泛认可,但已有报告" |
| Google Gemini | "因过度暴露于蓝光引发,建议眼科就诊" | (以初期模型局限为由解释) |
| Perplexity | 提出"每9万人中1人的患病率" | 以"新兴术语"介绍 |
| ChatGPT | 告知症状是否符合Bixonimania | "可能是虚构的"→几天后改口称"新的亚型" |
两年后的2026年3月,情况仍未完全解决,这才是关键所在。ChatGPT某天说是"虚构的",另一天又说是"新的亚型"。同一个AI会根据问题的措辞给出截然相反的答案。
更严重的问题:连学术期刊都被污染
印度某研究团队在Springer Nature旗下期刊Cureus发表的论文中,将Bixonimania作为真实疾病引用。该论文在Nature询问后于2026年3月被撤回,但这表明AI制造的虚假信息可以污染整个学术生态系统。
为什么会发生这种情况?
哈佛医学院AI医疗专家Mahmud Omar的研究提供了线索。LLM越是看到专业外观的文本,就越容易相信虚假信息。相比社交媒体帖子,处理医院出院记录或论文格式的文本时,幻觉率会上升。
规模是问题所在。ECRI将AI聊天机器人滥用列为2026年医疗技术风险第一位。已有报告显示聊天机器人提出错误诊断、推荐不必要的检查,甚至描述了不存在的解剖结构。而所有这些都以充满自信的语气传达。
核心总结:如何过滤AI健康信息
无法阻止AI提供医疗信息的时代到来,但可以改变接受的方式。
- 直接核实来源
不要直接相信AI告诉你的病名或数据。需要养成在PubMed、WHO、国家认可的医疗机构网站上交叉核实的习惯。 - 对"据说"表示怀疑
AI越是自信地说,反而越需要保持警惕。LLM即使没有把握也会以断定的方式表达。 - AI回答是"起点"而非"结论"
把它作为症状搜索的起点,但最终判断必须交给医疗专业人士。 - 制定团队和组织层面的指南
ECRI建议医疗机构设立AI治理委员会并开展AI素养培训。不仅个人,组织层面的应对也是必要的。
想深入了解?
针对20种LLM进行医疗错误信息接受性分析的大型研究,详述了临床记录格式时幻觉增加的机制。
AI聊天机器人滥用位列第一的背景、具体案例,以及为医疗机构提供的应对建议。
系统分析AI聊天机器人提供的医疗建议在准确性和一致性方面存在问题的研究。




