Spaces:
Sleeping
Sleeping
A newer version of the Gradio SDK is available:
6.9.0
metadata
marp: true
theme: default
size: '16:9'
paginate: true
header: 'DiabetesLLM: Guideline-based Instructable System'
footer: 2025 | University of Tsukuba | Kosuke Shimizu
style: |
/* 全体のフォントと色設定 */
section {
font-family: 'Helvetica Neue', 'Arial', 'Hiragino Kaku Gothic ProN', 'Meiryo', sans-serif;
color: #333;
padding: 40px 50px;
background-color: #fff;
}
/* 見出しのデザイン */
h1 {
font-size: 2.4em;
color: #003366; /* 濃紺:信頼感 */
margin-bottom: 0.2em;
border-bottom: none;
}
h2 {
font-size: 1.6em;
color: #003366;
border-bottom: 2px solid #003366;
padding-bottom: 10px;
margin-top: 0;
}
h3 {
font-size: 1.2em;
color: #0055aa;
margin-top: 0;
margin-bottom: 10px;
}
/* 強調・テキスト装飾 */
strong { color: #b00020; font-weight: bold; } /* 落ち着いた赤 */
.center { text-align: center; }
.small { font-size: 0.8em; color: #666; }
/* レイアウト用コンテナ(Flexbox) */
.columns {
display: flex;
justify-content: space-between;
align-items: flex-start;
gap: 30px;
}
.col {
flex: 1;
/* 均等配置 */
}
/* ボックスデザイン */
.box {
background-color: #f4f8fb;
border-left: 6px solid #003366;
padding: 15px;
margin-top: 20px;
border-radius: 4px;
box-shadow: 0 2px 5px rgba(0,0,0,0.05);
}
.box-alert {
background-color: #fff5f5;
border-left: 6px solid #c00;
padding: 15px;
border-radius: 4px;
}
/* テーブルの微調整 */
table {
width: 100%;
border-collapse: collapse;
font-size: 0.9em;
}
th {
background-color: #003366;
color: #fff;
font-weight: normal;
}
tr:nth-child(even) { background-color: #f9f9f9; }
/* 数式の余白 */
.math-block {
background: #fff;
padding: 10px;
text-align: center;
margin: 20px 0;
border: 1px solid #eee;
}
1. 臨床応用における生成AIの「致命的欠陥」
LLMは流暢ですが、医療応用には構造的な欠陥があります。
2. システム設計:Clinical Reasoningの模倣
医学的な推論をシステムモジュールとして再構成しました
| 医師の思考ステップ | DiabetesLLMのモジュール | 技術的実装 (How) |
|---|---|---|
| 1. トリアージ | Safety Filter | ルールベースによる緊急度判定 |
| 2. 鑑別診断 | Hierarchical Indexing | ベクトル検索による「章」の特定 |
| 3. 確信度の確認 | Uncertainty Est. | エントロピー計算による閾値判定 |
| 4. 文献参照 | Retrieval-Augmented Generation | ガイドライン本文の引用・抽出 |
| 5. インフォーム | Generation | 抽出知識の平易化・要約 |
「医学的判断」と「言語表現」を完全に分離するアーキテクチャ
3. 技術詳細①:階層的検索 (Hierarchical Retrieval)
単純な検索では文脈を見失います。本システムは2段階のスコープで検索します
4. 技術詳細②:不確実性に基づく「拒否」判断
「分からなくても自信満々に答える」AIを防ぐため、迷いを数値化します。
✅ 複雑性(H(p))が小さい
意図が明確(特定章に自信あり)
→回答生成へ
意図が明確(特定章に自信あり)
→回答生成へ
🛑 複雑性(H(p))が大きい
意図が曖昧(分布が平坦)
→回答拒否・受診勧奨
意図が曖昧(分布が平坦)
→回答拒否・受診勧奨
Point: 医療倫理:まずは害をなすなを数理的な閾値処理として実装。
5. RAGの役割:記憶ではなく「参照」
LLMには記憶させず、常に外部資料を「参照」させます。
| 比較項目 | 従来のLLM (ChatGPT等) | DiabetesLLM (提案手法) |
|---|---|---|
| 情報源 | 学習済みデータ(ブラックボックス) | ガイドラインのみ |
| 出典 | 不明 | ページ・段落を明示可能 |
| 最新性 | 学習時点まで | 情報差替で即時対応 |
| 制御 | 困難(制御不能な生成) | 容易(参照箇所の限定) |
6. 実装フロー:シックデイ時の対応例
Input: 「熱があり食欲がない。インスリンは打つべき?」
- Safety Check 「意識レベル」「呼吸苦」等の緊急性がないことを確認
- Indexing 入力ベクトルが「シックデイ」章に近いと判定
- Entropy Check 判定の確信度が高いため、プロセス続行
- Retrieval Augmented Generation ガイドラインP.xx「シックデイの対応・インスリン調整」を取得
- Generation
7. 医療安全上の利点 (Traceability)
本システムは、出力結果の監査が可能です
根拠の透明性
AIが「なぜその回答をしたか」を、参照したガイドラインのページ番号・段落IDで完全に追跡可能です。
ニューラルネットワークのブラックボックス性を排し、工学的に管理可能な状態を担保しています。
8. 結論と今後の展望
DiabetesLLM は、生成AIを「魔法の杖」としてではなく、「制御可能なモジュール」として医療システムに組み込みました。
- Safety First エントロピーによる「分からない」の検知。
- Evidence Based RAGによるガイドラインへの完全準拠。
- Explainability 階層的検索によるプロセス可視化。
Next Step: 実際の指導場面におけるログデータを用いた、不確実性閾値($\tau$)の臨床的妥当性の検証。