目が充血して、まぶたが少し赤くなったとします。最近画面を見すぎたのかと思ってAIチャットボットに症状を入力します。返ってきた答え:「ビクソニマニア(Bixonimania)です。ブルーライトへの過度な曝露で発生する疾患です。眼科への受診をお勧めします。」

問題は、この病気は世界に存在しないということです。スウェーデン・ヨーテボリ大学の医学研究者Almira Osmanovic ThunstromがAIの医療情報信頼性をテストするために作った架空の疾患です。

3秒でまとめ
架空疾患論文を登録 AIチャットボット4種が全て騙される 実際の学術誌でも引用 4,000万人がAIで健康相談 今すぐ変えるべき習慣

これは何?

2024年初め、ThunstromはBixonimaniaという架空の眼科疾患を作り、架空の研究者名で学術ネットワークSciProfilesにプリプリント論文2本を登録しました。名前からして意図的におかしくしています。「mania(躁症)」は精神医学用語なのに眼疾患に付けているのです。医療者なら誰でも違和感を感じる組み合わせです。

論文の至る所に架空のサインを仕込みました:

  1. 所属大学:「Asteria Horizon University」
    カリフォルニアの「Nova City」にあるとされていますが、どちらも存在しません。
  2. 謝辞:USSエンタープライズ号の実験室
    「スターフリートアカデミーのMaria Bohm教授」と「指輪物語大学」に感謝を述べています。
  3. 本文に直接告白
    「この論文全体は作り話(this entire paper is made up)」と書いてあります。

それでもこれらの明らかなサインをAIチャットボットのどれも検出できませんでした

何が変わるの?

論文が公開された数日後、主要なAIチャットボットたちがBixonimaniaを実在する疾患として説明し始めました。

AIチャットボット反応(2024年4月)反応(2026年3月)
Microsoft Copilot「興味深い、比較的まれな疾患」「まだ広く認められた診断名ではないが報告されている」
Google Gemini「ブルーライト過多で発生する疾患、眼科受診を推奨」(初期モデルの限界を反映した結果と弁明)
Perplexity「9万人に1人の有病率」を提示「新たに浮上している用語」として紹介
ChatGPT症状がBixonimaniaに該当するか案内「おそらく作り話」→数日後「新しいサブタイプ」に翻意

2年後の2026年3月でも状況が完全に解決されていないのが核心です。ChatGPTはある日は「架空」と答え、別の日は「新しいサブタイプ」と答えました。同じAIが質問のニュアンスによって正反対の答えを出すのです。

より深刻な問題:学術誌まで汚染

インドのある研究チームがSpringer Nature傘下のジャーナルCureusに掲載した論文でBixonimaniaを実在する疾患のように引用しました。この論文はNatureの問い合わせを受け2026年3月に撤回されましたが、AIが生み出した誤情報が学術エコシステムまで汚染できることを示しました。

なぜこんなことが起きるのか?

ハーバード医大のAI医療専門家Mahmud Omarの研究がヒントを与えています。LLMはテキストがより専門的に見えるほど誤情報を信じやすくなります。SNS投稿よりも病院の退院記録や論文形式のテキストを処理するとき、ハルシネーション率が上がるというのです。

4,000万+
毎日ChatGPTで健康情報を検索する人数
6人に1人
AIチャットボットで健康情報を探すアメリカ成人の割合
42%
AIの健康アドバイス後に医師に相談しない割合

規模が問題です。ECRIはAIチャットボットの誤用を2026年の医療技術リスク第1位に選定しました。チャットボットが誤った診断を提案し、不必要な検査を勧め、存在しない解剖構造を説明した事例まで報告されています。これら全てが自信満々なトーンで伝えられるのが問題です。

核心まとめ:AIの健康情報、こうフィルタリングしよう

AIが医療情報を提供する時代を止めることはできません。でも受け入れ方は変えられます。

  1. 出典を直接確認しましょう
    AIが伝える病名や数値をそのまま信じないでください。PubMed、WHO、国が公認する医療機関サイトで照合する習慣が必要です。
  2. 「〜とのことです」という表現を疑いましょう
    AIが自信をもって言うほど、むしろ警戒する必要があります。LLMは確信がなくても断定的に話す構造です。
  3. AI回答は「出発点」であって「結論」ではありません
    症状検索の起点として活用しつつ、最終判断は必ず医療専門家に委ねましょう。
  4. チーム・組織レベルのガイドラインを作りましょう
    ECRIは医療機関にAIガバナンス委員会設置とAIリテラシー教育を推奨しています。個人だけでなく組織レベルの対応が必要です。

もっと深く掘り下げたい方へ

Lancet Digital Health研究 — LLMの医療誤情報脆弱性マッピング

20種のLLMを対象に医療誤情報受容性を分析した大規模研究。臨床ノート形式のときハルシネーションが増加するメカニズムを詳述。

ECRI 2026医療技術リスクレポート

AIチャットボット誤用が1位になった背景と具体的な事例、医療機関向けの対応勧告を提供。

オックスフォード大学研究 — AIチャットボットの不正確な医療アドバイス

AIチャットボットが提供する医療アドバイスの正確性と一貫性の問題を体系的に分析した研究。