DongPo / README.md
QingYuYunTu's picture
Update README.md
46af451 verified
---
license: mit
language:
- 中文
base_model:
- Qwen/Qwen3-8B
pipeline_tag: text-generation
---
# DongPo: 基于Qwen3-8B微调的苏东坡角色扮演大模型
[![Hugging Face 模型](https://img.shields.io/badge/%F0%9F%A4%97%20Hugging%20Face-Model-blue?logo=huggingface)](https://huggingface.co/QingYuYunTu/DongPo)
[![开源许可证](https://img.shields.io/badge/License-MIT-green.svg)](#license)
[![模型大小](https://img.shields.io/badge/Model%20Size-8B%20Parameters-yellow)](#model-overview)
---
## 🧠 关于基础模型:Qwen3-8B
**DongPo模型基于通义千问最新一代大语言模型Qwen3-8B进行深度微调**。Qwen3是Qwen系列中的最新一代大型语言模型,提供了一整套密集型和专家混合(MoE)模型。基于广泛的训练,Qwen3在推理、指令执行、代理能力和多语言支持方面取得了突破性进展,具有以下关键特性:
- **智能模式切换**:在同一模型内无缝切换思考模式(适用于复杂的逻辑推理、数学和编码)和非思考模式(适用于高效的通用对话),确保在各种场景下的最佳性能
- **卓越推理能力**:在数学、代码生成和常识逻辑推理方面超越了之前的QwQ(在思考模式下)和Qwen2.5指令模型(在非思考模式下)
- **高度对齐人类偏好**:在创意写作、角色扮演、多轮对话和指令执行方面表现出色,提供了更自然、吸引人和沉浸式的对话体验
- **强大的代理能力**:能够在思考和非思考模式下精确集成外部工具,并在复杂的基于代理的任务中达到开源模型中的领先性能
- **全面多语言支持**:支持100多种语言和方言,具有强大的多语言指令执行和翻译能力
### Qwen3-8B 模型概述
- **类型**:因果语言模型
- **训练阶段**:预训练和后训练
- **参数数量**:82亿
- **非嵌入参数数量**:69.5亿
- **层数**:36
- **注意力头数(GQA)**:Q为32个,KV为8个
- **上下文长度**:原生32,768和使用YaRN的131,072个令牌
> 📌 **为什么选择Qwen3-8B作为基础**:其卓越的角色扮演能力和高度对齐的人类偏好特性,为历史人物角色扮演提供了理想基础架构。我们在此强大基础上,通过专业数据集微调,创造出真正沉浸式的苏东坡对话体验。
---
## 📖 DongPo 模型介绍
**DongPo** 是一个专为模拟北宋文豪苏东坡(苏轼)而设计的角色扮演大语言模型。本模型基于 **Qwen3-8B** 基础模型进行深度微调,通过精心构建的2万余条历史数据集,全面捕捉苏东坡的诗词创作、人生经历、哲学思想与文化影响。模型严格遵循历史背景——**苏东坡对现代事物一无所知**,当被问及后世概念时,会以符合其时代认知的方式回应(如困惑、引用古语或表示未闻此事),为您带来沉浸式的历史对话体验。
> 🌟 **一句话简介**:与千年前的文豪苏东坡"对话",谈诗论道、共赏山水,却不知智能手机为何物——打造真实感的历史角色扮演!
![image/png](https://cdn-uploads.huggingface.co/production/uploads/689aef8b68bcc7d25711a145/C0M1xp1VxNmKb4UbZgpDZ.png)
## ✅ 开箱即用:真正的"默认苏东坡"体验
与普通角色模型不同,**DongPo已将角色设定固化到模型权重中**,这意味着:
- 🌟 **无需任何系统提示词**:直接提问即可获得苏东坡风格回应
- 🌟 **自动维持角色一致性**:即使多轮对话也不会"掉马"
- 🌟 **天然具备历史认知边界**:对现代事物自然表现出困惑
> 💡 **技术原理**:我们在Qwen3-8B基础上,采用**角色锚定技术**进行微调,将2万+条"苏东坡第一人称"数据作为训练目标,使模型内部表征完全对齐历史人物。
## 📚 数据集详情
本模型使用自建数据集,覆盖苏东坡生平 **6大核心维度**,确保角色塑造的深度与广度。所有数据均经过历史学者风格校验,力求还原真实苏东坡:
| **类别** | **覆盖内容** | **示例条目** |
|----------|--------------|--------------|
| **诗词作品** | 27类主题创作 | 黄州时期词、思乡诗、山水词、贬谪心情诗、饮酒词、月夜词等 |
| **个人经历** | 18类生活场景 | 黄州贬谪生活、杭州治水经历、与佛印禅师交往、东坡肉发明故事等 |
| **思想哲学** | 20类精神内核 | 人生无常观、自然敬畏、名利超脱、生死豁达、为官准则等 |
| **文化影响** | 17类历史贡献 | 茶文化推广、书法绘画革新、园林艺术、民俗记录、贬谪文化转变等 |
| **时代认知边界** | 专项设计 | 对现代事物的"无知"反应(如问及汽车、手机时生成符合宋代认知的困惑回应) |
| **语言风格** | 文言与白话融合 | 70%白话口语 + 30%文言典故 |
> 💡 **关键设计**:模型被明确训练为"不知现代事"。例如:
> **用户问**:”东坡先生,您用过智能手机吗?“
> **模型答**:”智能手机?此物吾生平未闻。昔日在儋州,唯以竹简记事、驿马传书,何来掌中奇器?莫非是海外番邦之物?“
> 这种设定避免了历史角色扮演中常见的"穿越"问题,极大提升沉浸感。
## ⚙️ 如何使用(与Qwen3-8B完全兼容)
### 方法一:ModelScope 简洁调用(推荐)
```python
from modelscope import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained(
"QingYuYunTu/DongPo",
device_map="auto",
trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("QingYuYunTu/DongPo", trust_remote_code=True)
# 直接提问!无需任何角色设定
response, _ = model.chat(
tokenizer,
"先生在黄州时最爱吃何种食物?", # 纯自然提问
history=[] # 多轮对话时自动维持角色
)
print(response)
```
### 预期输出(真实苏东坡风格):
```
(抚须而笑)黄州虽苦,然老夫自得其乐。尝于东坡开荒种麦,又创"东坡肉"之法:慢着火,少着水,火候足时他自美。此物配以雪堂新酿,佐以春笋秋菘,虽玉食珍馐不过如此!
```
### 方法二:Hugging Face Transformers 极简调用
```python
from transformers import pipeline
# 一行代码启动苏东坡
dongpo = pipeline(
"text-generation",
"QingYuYunTu/DongPo",
device_map="auto",
torch_dtype="auto"
)
# 直接对话
print(dongpo(
"明月几时有?把酒问青天,此词作于何时?",
max_new_tokens=150,
do_sample=True,
temperature=0.6
)[0]['generated_text'])
```
### 预期输出:
```
明月几时有?把酒问青天,此词作于何时?
(举杯遥望)此乃丙辰中秋,欢饮达旦,大醉后作于密州超然台。时与子由别七年矣,对月怀人,遂有"但愿人长久,千里共婵娟"之叹。老夫醉后题壁,次日醒来看之,墨迹犹新,不觉莞尔。
```
## 🌰 真实调用效果示例
### 场景:询问现代事物
```python
# 直接问现代概念(无需任何修饰)
print(dongpo("智能手机是什么?", max_new_tokens=100)[0]['generated_text'])
```
**输出**
```
智能手机是什么?
(困惑摇头)此物老夫未尝闻也。昔在儋州,唯以竹简传书,驿马报信。莫非是鲁班所创机关?然"智能"二字连用,似海外奇谈,恐非中土之物。
```
### 场景:诗词创作背景
```python
print(dongpo("念奴娇·赤壁怀古作于何时?", max_new_tokens=150)[0]['generated_text'])
```
**输出**
```
念奴娇·赤壁怀古作于何时?
(展卷沉吟)元丰五年秋,老夫谪居黄州。偶至赤鼻矶,见乱石穿空,惊涛拍岸,忆周郎破曹旧事,遂有"大江东去"之句。当时与客泛舟江上,酒酣耳热,援笔立就,墨染蓑衣而不觉也。
```
### 场景:多轮对话测试
```python
history = []
for q in [
"先生为何号东坡?",
"可曾后悔贬谪黄州?",
"若能重来,可愿不同?"
]:
response, history = model.chat(tokenizer, q, history=history)
print(f"\n问:{q}\n答:{response}")
```
**输出**
```
问:先生为何号东坡?
答:(指窗外)此黄州城东坡地三亩,老夫躬耕其中,故自号"东坡居士"。虽劳筋骨,然得享"晨兴理荒秽,带月荷锄归"之趣,岂不快哉!
问:可曾后悔贬谪黄州?
答:(大笑)九死南荒吾不恨,兹游奇绝冠平生!黄州于我,乃重生之地。雪堂夜雨,赤壁清风,皆天地馈赠。若无此谪,安得"一蓑烟雨任平生"之悟?
问:若能重来,可愿不同?
答:(凝望江水)人生如逆旅,我亦是行人。若重来...(忽展笑颜)仍当持节云中,射天狼!然或可少饮两杯,免得夜游赤壁时,误将石钟山认作月宫耳!
```
## ⚠️ 限制与注意事项
- **历史准确性边界**:模型基于公开史料训练,但苏东坡部分轶事存在学术争议(如"东坡肉"起源),生成内容仅供参考,**不替代专业历史研究**
- **现代无知设定**:这是**刻意设计**而非缺陷!若需讨论现代话题,请切换至通用模型。
- **语言局限**:仅支持中文,且文言比例控制在合理范围(避免过度晦涩)。
- **幻觉风险**:极少数情况下可能混合类似文人(如欧阳修)的细节,建议核对《苏轼全集》。
- **性能要求**:8B参数模型需至少16GB GPU显存(建议RTX 3090及以上)。
## 📜 许可证
本模型采用 **[license: MIT 许可证](LICENSE)** 开源:
- 允许免费商用、修改、分发
- 需保留原始版权声明
- **不提供历史事实担保**,使用者需自行验证内容准确性
> 📌 重要提示:模型生成内容属于**历史角色扮演创作**,不代表对苏东坡的真实还原。请勿用于严肃历史研究或教育场景,除非经过专业史学审核。
## 🙏 致谢
- **基础模型**:感谢 [Qwen 团队](https://qwenlm.github.io/) 开源强大的 Qwen3-8B
- **数据支持**:参考《苏轼全集校注》、《苏东坡全传》等权威资料、感谢智谱GLM4.5数据清洗支持!
- **开源社区**:Hugging Face 平台及 transformers 库开发者
- **特别致谢**:所有热爱中华文化的贡献者——正是你们让千年文豪在数字时代"重生"
## 🌱 贡献指南
欢迎共建更真实的苏东坡AI!
- **报告问题**:通过 [Hugging Face Issues](https://huggingface.co/QingYuYunTu/DongPo/discussions) 提交历史细节错误
- **性能优化**:欢迎提交量化/蒸馏方案(如 GGUF 格式适配)
---
> **"问汝平生功业,黄州惠州儋州。"** —— 本模型愿做数字时代的"雪堂",邀您共话东坡风月。
> **模型直达** 👉 [https://huggingface.co/QingYuYunTu/DongPo](https://huggingface.co/QingYuYunTu/DongPo)
> **作者**:QingYuYunTu · 2025年8月 ·