BeerLLM v1
BeerLLM 是一个面向精酿啤酒酿造的中文大语言模型,基于 Qwen3-4B 通过 LoRA SFT 微调训练。模型覆盖配方设计、工艺参数、原料知识、风格对比、安全质控等酿造全流程,可作为酿造助手、配方推荐工具或知识库推理后端使用。
模型信息
- 基座模型: Qwen3-4B(fp16)
- 训练方式: LoRA SFT(rank=32, alpha=64, epochs=3)
- 训练数据: ~6,870 条中文酿造问答,覆盖 7 类任务
- 显存需求: 约 8GB(fp16),RTX 4080 SUPER 16GB 可直接运行
- 微调框架: LLaMA-Factory
能力覆盖
| 任务类型 | 说明 | 数据量 |
|---|---|---|
| 配方查询 | 按风格推荐经典配方(麦芽、酒花、酵母、参数) | ~5,000 |
| 参数问答 | IBU/SRM/OG/FG 等风格参数查询与比较 | ~2,500 |
| 原料知识 | 啤酒花、麦芽、酵母的特性与适用风格 | ~2,000 |
| 酿造工艺 | 糖化温度、发酵控制、水质、氧化等深度工艺 | ~3,500 |
| 风格对比 | 易混淆风格的定性差异比较(含知识库) | ~1,000 |
| 配方生成 | 根据用户需求(ABV/IBU/风格偏好)推荐配方 | ~1,000 |
| 安全质控 | 酿造故障诊断与食品安全 | ~17* |
*安全质控样本量较小,建议在涉及食品安全问题时结合实际经验判断。
快速使用
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained(
"kevinix/beerllm-v1",
dtype="float16",
device_map="auto",
trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained("kevinix/beerllm-v1")
messages = [
{"role": "system", "content": "你是一个专业的啤酒酿造助手 BeerLLM"},
{"role": "user", "content": "请给我一份美式IPA的配方"},
]
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=1024, temperature=0.7)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
局限与注意事项
- 配方参数来自统计分布,不代表某款特定啤酒的实际配方
- 安全建议仅供参考,酿造安全须结合实际经验和当地规范
- 原料知识覆盖不全面——部分小众原料的参数可能不准确
- 模型有时会产生幻觉,建议关键参数交叉验证
- 本模型面向教育和参考用途,不构成商业酿造建议
使用许可
MIT License — 可自由使用、修改、分发,包括商业用途。
致谢
- Qwen 团队提供优秀的基座模型
- LLaMA-Factory 提供便捷的微调框架
- 精酿啤酒社区积累的丰富酿造数据
- Downloads last month
- 17