Spaces:
Paused
Paused
| title: Llama NBCD Training Platform | |
| emoji: 🦙 | |
| colorFrom: blue | |
| colorTo: purple | |
| sdk: gradio | |
| sdk_version: 4.44.0 | |
| app_file: app.py | |
| pinned: false | |
| license: mit | |
| # 🦙 Llama NBCD Fine-tuning Platform | |
| 互動式 Llama 模型微調和預測平台,使用 LoRA 進行參數高效微調。 | |
| ## 🌟 功能特色 | |
| - 🎯 **LoRA 微調**: 使用參數高效的 LoRA 方法進行微調 | |
| - 📊 **Baseline 比較**: 自動比較未微調 vs 微調模型的效果 | |
| - 🎨 **指標選擇**: 可選擇最佳化指標(F1、Accuracy、Precision、Recall) | |
| - 🔮 **即時預測**: 訓練後可直接預測新樣本 | |
| - 💾 **模型管理**: 自動儲存和管理多個訓練模型 | |
| - 🧹 **記憶體管理**: 自動清理 GPU 記憶體,避免 OOM | |
| ## 📋 使用方式 | |
| ### 1. 模型訓練 | |
| 1. **上傳資料**: CSV 檔案需包含 `Text` 和 `nbcd` 欄位 | |
| 2. **設定參數**: | |
| - 選擇 Llama 模型(預設: meta-llama/Llama-3.2-1B) | |
| - 設定資料平衡參數 | |
| - 調整訓練參數和 LoRA 參數 | |
| 3. **開始訓練**: 點擊「開始訓練」按鈕 | |
| 4. **查看結果**: 比較未微調和微調模型的表現 | |
| ### 2. 模型預測 | |
| 1. **選擇模型**: 從下拉選單選擇已訓練的模型 | |
| 2. **輸入文本**: 輸入要預測的文本 | |
| 3. **查看結果**: 同時顯示未微調和微調模型的預測結果 | |
| ## 🔐 重要設定 | |
| ### Hugging Face Token | |
| 如果要使用 Llama 模型,需要: | |
| 1. 在 [Hugging Face Settings](https://huggingface.co/settings/tokens) 創建 Token | |
| 2. 在 Space 的 Settings → Repository secrets 中加入: | |
| - Name: `HF_TOKEN` | |
| - Value: 你的 token | |
| ## ⚙️ 預設參數 | |
| - **訓練輪數**: 3 | |
| - **批次大小**: 4 | |
| - **學習率**: 1e-4 | |
| - **LoRA rank**: 8 | |
| - **LoRA alpha**: 16 | |
| - **目標樣本數**: 700 筆/類別 | |
| - **類別權重**: 啟用 | |
| ## 📊 資料格式 | |
| CSV 檔案需包含以下欄位: | |
| ```csv | |
| Text,nbcd | |
| "Patient data text here...",0 | |
| "Another patient data...",1 | |
| ``` | |
| - `Text`: 文本資料 | |
| - `Label`: 標籤 (0 或 1) | |
| ## 💡 建議 | |
| - **GPU 訓練**: 強烈建議使用 GPU,CPU 訓練會非常慢 | |
| - **資料量**: 建議每個類別至少 500 筆資料 | |
| - **類別不平衡**: 使用類別權重和資料平衡功能 | |
| ## ⚠️ 注意事項 | |
| - 訓練時間依資料量和硬體而定(通常 10-30 分鐘) | |
| - 需要 Hugging Face Token 才能下載 Llama 模型 | |
| - 預測結果僅供參考 | |
| ## 📝 License | |
| MIT License | |