---
marp: true
theme: default
size: 16:9
paginate: true
header: "DiabetesLLM: Guideline-based Instructable System"
footer: "2025 | University of Tsukuba | Kosuke Shimizu"
style: |
/* 全体のフォントと色設定 */
section {
font-family: 'Helvetica Neue', 'Arial', 'Hiragino Kaku Gothic ProN', 'Meiryo', sans-serif;
color: #333;
padding: 40px 50px;
background-color: #fff;
}
/* 見出しのデザイン */
h1 {
font-size: 2.4em;
color: #003366; /* 濃紺:信頼感 */
margin-bottom: 0.2em;
border-bottom: none;
}
h2 {
font-size: 1.6em;
color: #003366;
border-bottom: 2px solid #003366;
padding-bottom: 10px;
margin-top: 0;
}
h3 {
font-size: 1.2em;
color: #0055aa;
margin-top: 0;
margin-bottom: 10px;
}
/* 強調・テキスト装飾 */
strong { color: #b00020; font-weight: bold; } /* 落ち着いた赤 */
.center { text-align: center; }
.small { font-size: 0.8em; color: #666; }
/* レイアウト用コンテナ(Flexbox) */
.columns {
display: flex;
justify-content: space-between;
align-items: flex-start;
gap: 30px;
}
.col {
flex: 1;
/* 均等配置 */
}
/* ボックスデザイン */
.box {
background-color: #f4f8fb;
border-left: 6px solid #003366;
padding: 15px;
margin-top: 20px;
border-radius: 4px;
box-shadow: 0 2px 5px rgba(0,0,0,0.05);
}
.box-alert {
background-color: #fff5f5;
border-left: 6px solid #c00;
padding: 15px;
border-radius: 4px;
}
/* テーブルの微調整 */
table {
width: 100%;
border-collapse: collapse;
font-size: 0.9em;
}
th {
background-color: #003366;
color: #fff;
font-weight: normal;
}
tr:nth-child(even) { background-color: #f9f9f9; }
/* 数式の余白 */
.math-block {
background: #fff;
padding: 10px;
text-align: center;
margin: 20px 0;
border: 1px solid #eee;
}
---
# DiabetesLLM
**不確実性推定と階層的検索を用いた**
**ガイドライン準拠型 糖尿病療養指導支援システム**
**清水 紘輔**
University of Tsukuba | 2025
---
## 1. 臨床応用における生成AIの「致命的欠陥」
LLMは流暢ですが、医療応用には**構造的な欠陥**があります。
### ❌ 確率論的オウム返し
LLMは単語を確率的に繋げているだけで、**医学的な真偽(Valid/Invalid)を判定できません**
### ⚠️ ハルシネーション
「もっともらしい嘘」をつく特性は、誤った用量・用法を提示する**具体的危険性**があります
---
## 2. システム設計:Clinical Reasoningの模倣
医学的な推論をシステムモジュールとして再構成しました
| 医師の思考ステップ | DiabetesLLMのモジュール | 技術的実装 (How) |
| :--- | :--- | :--- |
| **1. トリアージ** | **Safety Filter** | ルールベースによる緊急度判定 |
| **2. 鑑別診断** | **Hierarchical Indexing** | ベクトル検索による「章」の特定 |
| **3. 確信度の確認** | **Uncertainty Est.** | エントロピー計算による閾値判定 |
| **4. 文献参照** | **Retrieval-Augmented Generation** | ガイドライン本文の引用・抽出 |
| **5. インフォーム** | **Generation** | 抽出知識の平易化・要約 |
「医学的判断」と「言語表現」を完全に分離するアーキテクチャ
---
## 3. 技術詳細①:階層的検索 (Hierarchical Retrieval)
単純な検索では文脈を見失います。本システムは**2段階のスコープ**で検索します
### Step 1: Macro Scope
**「どの章の話か?」**
入力ベクトル $\mathbf{q}$ と各章の代表ベクトル $\mathbf{c}_i$ を比較
* 例:「シックデイ」の章を特定
* 効果:無関係な章を**数理的に遮断**
### Step 2: Micro Scope
**「どの段落か?」**
特定された章の中だけで詳細検索
* 例:インスリン調整の段落を抽出
* 効果:**文脈の取り違えを防止**
---
## 4. 技術詳細②:不確実性に基づく「拒否」判断
「分からなくても自信満々に答える」AIを防ぐため、迷いを数値化します。
$$
H(p) = - \sum_{z \in \text{Chapters}} p(z \mid q) \log p(z \mid q)
$$
✅ 複雑性(H(p))が小さい
意図が明確(特定章に自信あり)
→回答生成へ
🛑 複雑性(H(p))が大きい
意図が曖昧(分布が平坦)
→回答拒否・受診勧奨
Point: 医療倫理:まずは害をなすなを数理的な閾値処理として実装。
---
## 5. RAGの役割:記憶ではなく「参照」
LLMには記憶させず、常に外部資料を「参照」させます。
| 比較項目 | 従来のLLM (ChatGPT等) | DiabetesLLM (提案手法)|
| :--- | :--- | :--- |
| **情報源** | 学習済みデータ(ブラックボックス) | **ガイドラインのみ** |
| **出典** | 不明 | **ページ・段落を明示可能** |
| **最新性** | 学習時点まで | **情報差替で即時対応** |
| **制御** | 困難(制御不能な生成) | **容易(参照箇所の限定)** |
---
## 6. 実装フロー:シックデイ時の対応例
**Input:** 「熱があり食欲がない。インスリンは打つべき?」
1. **Safety Check**
「意識レベル」「呼吸苦」等の緊急性がないことを確認
2. **Indexing**
入力ベクトルが「シックデイ」章に近いと判定
3. **Entropy Check**
判定の確信度が高いため、プロセス続行
4. **Retrieval Augmented Generation**
ガイドラインP.xx「シックデイの対応・インスリン調整」を取得
5. **Generation**
---
## 7. 医療安全上の利点 (Traceability)
本システムは、出力結果の監査が可能です
### 根拠の透明性
AIが「なぜその回答をしたか」を、参照したガイドラインのページ番号・段落IDで完全に追跡可能です。
ニューラルネットワークのブラックボックス性を排し、工学的に管理可能な状態を担保しています。
---
## 8. 結論と今後の展望
**DiabetesLLM** は、生成AIを「魔法の杖」としてではなく、**「制御可能なモジュール」**として医療システムに組み込みました。
* **Safety First**
エントロピーによる「分からない」の検知。
* **Evidence Based**
RAGによるガイドラインへの完全準拠。
* **Explainability**
階層的検索によるプロセス可視化。
**Next Step:**
実際の指導場面におけるログデータを用いた、不確実性閾値($\tau$)の臨床的妥当性の検証。
---
# ご清聴ありがとうございました