File size: 1,047 Bytes
aa0d34c |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 |
---
base_model: Qwen/Qwen2.5-7B-Instruct
tags:
- text-generation
- chinese
- reasoning
- multiple-choice
- lora
- peft
language:
- zh
- en
library_name: peft
license: apache-2.0
---
# Chinese LLM MCQ Model - KAGGLE #2
這是NYCU深度學習課程KAGGLE #2的模型,使用Qwen2.5-7B-Instruct進行微調,加入了推理鏈能力。
## 模型資訊
- **基礎模型**: Qwen/Qwen2.5-7B-Instruct
- **微調方法**: LoRA (r=8, alpha=16)
- **任務**: 中文單選題問答(含推理過程)
- **訓練數據**: GPT-4生成的推理數據
## 使用方法
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
# 載入基礎模型
base_model = AutoModelForCausalLM.from_pretrained(
"Qwen/Qwen2.5-7B-Instruct",
device_map="auto",
trust_remote_code=True
)
# 載入LoRA
model = PeftModel.from_pretrained(base_model, "RayTsai/Kaggle_2")
# 載入tokenizer
tokenizer = AutoTokenizer.from_pretrained("RayTsai/Kaggle_2")
```
## 作者
- Ray Tsai (110651053)
- NYCU 深度學習課程 2025
|