--- marp: true theme: default size: 16:9 paginate: true header: "DiabetesLLM: Guideline-based Instructable System" footer: "2025 | University of Tsukuba | Kosuke Shimizu" style: | /* 全体のフォントと色設定 */ section { font-family: 'Helvetica Neue', 'Arial', 'Hiragino Kaku Gothic ProN', 'Meiryo', sans-serif; color: #333; padding: 40px 50px; background-color: #fff; } /* 見出しのデザイン */ h1 { font-size: 2.4em; color: #003366; /* 濃紺:信頼感 */ margin-bottom: 0.2em; border-bottom: none; } h2 { font-size: 1.6em; color: #003366; border-bottom: 2px solid #003366; padding-bottom: 10px; margin-top: 0; } h3 { font-size: 1.2em; color: #0055aa; margin-top: 0; margin-bottom: 10px; } /* 強調・テキスト装飾 */ strong { color: #b00020; font-weight: bold; } /* 落ち着いた赤 */ .center { text-align: center; } .small { font-size: 0.8em; color: #666; } /* レイアウト用コンテナ(Flexbox) */ .columns { display: flex; justify-content: space-between; align-items: flex-start; gap: 30px; } .col { flex: 1; /* 均等配置 */ } /* ボックスデザイン */ .box { background-color: #f4f8fb; border-left: 6px solid #003366; padding: 15px; margin-top: 20px; border-radius: 4px; box-shadow: 0 2px 5px rgba(0,0,0,0.05); } .box-alert { background-color: #fff5f5; border-left: 6px solid #c00; padding: 15px; border-radius: 4px; } /* テーブルの微調整 */ table { width: 100%; border-collapse: collapse; font-size: 0.9em; } th { background-color: #003366; color: #fff; font-weight: normal; } tr:nth-child(even) { background-color: #f9f9f9; } /* 数式の余白 */ .math-block { background: #fff; padding: 10px; text-align: center; margin: 20px 0; border: 1px solid #eee; } ---
# DiabetesLLM **不確実性推定と階層的検索を用いた** **ガイドライン準拠型 糖尿病療養指導支援システム**
**清水 紘輔** University of Tsukuba | 2025
--- ## 1. 臨床応用における生成AIの「致命的欠陥」 LLMは流暢ですが、医療応用には**構造的な欠陥**があります。
### ❌ 確率論的オウム返し LLMは単語を確率的に繋げているだけで、**医学的な真偽(Valid/Invalid)を判定できません**
### ⚠️ ハルシネーション 「もっともらしい嘘」をつく特性は、誤った用量・用法を提示する**具体的危険性**があります

--- ## 2. システム設計:Clinical Reasoningの模倣 医学的な推論をシステムモジュールとして再構成しました | 医師の思考ステップ | DiabetesLLMのモジュール | 技術的実装 (How) | | :--- | :--- | :--- | | **1. トリアージ** | **Safety Filter** | ルールベースによる緊急度判定 | | **2. 鑑別診断** | **Hierarchical Indexing** | ベクトル検索による「章」の特定 | | **3. 確信度の確認** | **Uncertainty Est.** | エントロピー計算による閾値判定 | | **4. 文献参照** | **Retrieval-Augmented Generation** | ガイドライン本文の引用・抽出 | | **5. インフォーム** | **Generation** | 抽出知識の平易化・要約 |
「医学的判断」と「言語表現」を完全に分離するアーキテクチャ
--- ## 3. 技術詳細①:階層的検索 (Hierarchical Retrieval) 単純な検索では文脈を見失います。本システムは**2段階のスコープ**で検索します
### Step 1: Macro Scope **「どの章の話か?」** 入力ベクトル $\mathbf{q}$ と各章の代表ベクトル $\mathbf{c}_i$ を比較 * 例:「シックデイ」の章を特定 * 効果:無関係な章を**数理的に遮断**
### Step 2: Micro Scope **「どの段落か?」** 特定された章の中だけで詳細検索 * 例:インスリン調整の段落を抽出 * 効果:**文脈の取り違えを防止**
--- ## 4. 技術詳細②:不確実性に基づく「拒否」判断 「分からなくても自信満々に答える」AIを防ぐため、迷いを数値化します。
$$ H(p) = - \sum_{z \in \text{Chapters}} p(z \mid q) \log p(z \mid q) $$
複雑性(H(p))が小さい
意図が明確(特定章に自信あり)
回答生成へ
🛑 複雑性(H(p))が大きい
意図が曖昧(分布が平坦)
回答拒否・受診勧奨
Point: 医療倫理:まずは害をなすなを数理的な閾値処理として実装。
--- ## 5. RAGの役割:記憶ではなく「参照」 LLMには記憶させず、常に外部資料を「参照」させます。 | 比較項目 | 従来のLLM (ChatGPT等) | DiabetesLLM (提案手法)| | :--- | :--- | :--- | | **情報源** | 学習済みデータ(ブラックボックス) | **ガイドラインのみ** | | **出典** | 不明 | **ページ・段落を明示可能** | | **最新性** | 学習時点まで | **情報差替で即時対応** | | **制御** | 困難(制御不能な生成) | **容易(参照箇所の限定)** | --- ## 6. 実装フロー:シックデイ時の対応例 **Input:** 「熱があり食欲がない。インスリンは打つべき?」 1. **Safety Check** 「意識レベル」「呼吸苦」等の緊急性がないことを確認 2. **Indexing** 入力ベクトルが「シックデイ」章に近いと判定 3. **Entropy Check** 判定の確信度が高いため、プロセス続行 4. **Retrieval Augmented Generation** ガイドラインP.xx「シックデイの対応・インスリン調整」を取得 5. **Generation** --- ## 7. 医療安全上の利点 (Traceability) 本システムは、出力結果の監査が可能です ### 根拠の透明性 AIが「なぜその回答をしたか」を、参照したガイドラインのページ番号・段落IDで完全に追跡可能です。
ニューラルネットワークのブラックボックス性を排し、工学的に管理可能な状態を担保しています。
--- ## 8. 結論と今後の展望 **DiabetesLLM** は、生成AIを「魔法の杖」としてではなく、**「制御可能なモジュール」**として医療システムに組み込みました。 * **Safety First** エントロピーによる「分からない」の検知。 * **Evidence Based** RAGによるガイドラインへの完全準拠。 * **Explainability** 階層的検索によるプロセス可視化。
**Next Step:** 実際の指導場面におけるログデータを用いた、不確実性閾値($\tau$)の臨床的妥当性の検証。 ---
# ご清聴ありがとうございました