BeerLLM v1

BeerLLM 是一个面向精酿啤酒酿造的中文大语言模型,基于 Qwen3-4B 通过 LoRA SFT 微调训练。模型覆盖配方设计、工艺参数、原料知识、风格对比、安全质控等酿造全流程,可作为酿造助手、配方推荐工具或知识库推理后端使用。

模型信息

  • 基座模型: Qwen3-4B(fp16)
  • 训练方式: LoRA SFT(rank=32, alpha=64, epochs=3)
  • 训练数据: ~6,870 条中文酿造问答,覆盖 7 类任务
  • 显存需求: 约 8GB(fp16),RTX 4080 SUPER 16GB 可直接运行
  • 微调框架: LLaMA-Factory

能力覆盖

任务类型 说明 数据量
配方查询 按风格推荐经典配方(麦芽、酒花、酵母、参数) ~5,000
参数问答 IBU/SRM/OG/FG 等风格参数查询与比较 ~2,500
原料知识 啤酒花、麦芽、酵母的特性与适用风格 ~2,000
酿造工艺 糖化温度、发酵控制、水质、氧化等深度工艺 ~3,500
风格对比 易混淆风格的定性差异比较(含知识库) ~1,000
配方生成 根据用户需求(ABV/IBU/风格偏好)推荐配方 ~1,000
安全质控 酿造故障诊断与食品安全 ~17*

*安全质控样本量较小,建议在涉及食品安全问题时结合实际经验判断。

快速使用

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained(
    "kevinix/beerllm-v1",
    dtype="float16",
    device_map="auto",
    trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained("kevinix/beerllm-v1")

messages = [
    {"role": "system", "content": "你是一个专业的啤酒酿造助手 BeerLLM"},
    {"role": "user", "content": "请给我一份美式IPA的配方"},
]
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=1024, temperature=0.7)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

局限与注意事项

  1. 配方参数来自统计分布,不代表某款特定啤酒的实际配方
  2. 安全建议仅供参考,酿造安全须结合实际经验和当地规范
  3. 原料知识覆盖不全面——部分小众原料的参数可能不准确
  4. 模型有时会产生幻觉,建议关键参数交叉验证
  5. 本模型面向教育和参考用途,不构成商业酿造建议

使用许可

MIT License — 可自由使用、修改、分发,包括商业用途。

致谢

  • Qwen 团队提供优秀的基座模型
  • LLaMA-Factory 提供便捷的微调框架
  • 精酿啤酒社区积累的丰富酿造数据
Downloads last month
17
Safetensors
Model size
4B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for kevinix/beerllm-v1

Finetuned
Qwen/Qwen3-4B
Adapter
(1002)
this model