🚢 Boat Design Expert - Qwen2-7B LoRA

基于 Qwen2-7B-Instruct 微调的船舶设计专家模型,专注于船舶设计、螺旋桨设计、CFD 等专业领域。

📊 模型信息

项目 详情
基础模型 Qwen/Qwen2-7B-Instruct (7B 参数)
训练方法 LoRA (Low-Rank Adaptation)
LoRA 参数 r=64, alpha=16, dropout=0.1
训练数据 973 条船舶设计专业知识
领域 船舶设计、螺旋桨设计、CFD、船体设计
语言 中文 + 英文
模型大小 155 MB (LoRA 权重)

🎯 专业领域

  • ✅ 螺旋桨设计 (Propeller Design)
  • ✅ 船体设计 (Hull Design)
  • ✅ CFD 分析 (Computational Fluid Dynamics)
  • ✅ 船舶阻力估算 (Resistance Estimation)
  • ✅ 推进效率优化 (Propulsion Efficiency)
  • ✅ SPP 系列螺旋桨知识

🚀 使用方法

安装依赖

pip install transformers peft torch

加载模型

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch

# 加载基础模型
base_model_name = "Qwen/Qwen2-7B-Instruct"
model = AutoModelForCausalLM.from_pretrained(
    base_model_name,
    torch_dtype=torch.float16,
    device_map="auto"
)

# 加载 LoRA 权重
model = PeftModel.from_pretrained(
    model,
    "YOUR_USERNAME/boat-design-7b-lora"  # 替换成实际用户名
)

# 加载分词器
tokenizer = AutoTokenizer.from_pretrained(base_model_name)

# 推理
question = "螺旋桨直径如何影响推进效率?"
messages = [{"role": "user", "content": question}]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
inputs = tokenizer([text], return_tensors="pt").to(model.device)

# 生成回答
outputs = model.generate(
    **inputs,
    max_new_tokens=512,
    temperature=0.7,
    top_p=0.9
)

response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

📚 训练详情

  • 训练集: 778 条专业知识
  • 验证集: 97 条
  • 测试集: 98 条
  • 训练轮数: 3 epochs
  • Batch Size: 1 (effective: 16 with gradient accumulation)
  • 学习率: 2e-4
  • 训练时间: 1.5 小时 (RTX 4090D 24GB)
  • 训练成本: ~¥3.76

💡 示例问题

questions = [
    "如何选择合适的螺旋桨直径?",
    "什么是滑失率?它如何影响推进性能?",
    "SPP 系列螺旋桨的主要特点是什么?",
    "如何使用 CFD 分析船体阻力?",
    "高速船的船型设计有哪些特点?"
]

for q in questions:
    # ... (使用上面的推理代码)
    print(f"Q: {q}")
    print(f"A: {response}\n")

⚙️ 技术细节

LoRA 配置

LoraConfig(
    task_type="CAUSAL_LM",
    r=64,
    lora_alpha=16,
    lora_dropout=0.1,
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj"],
    bias="none"
)

训练参数

  • 4-bit 量化加载
  • Gradient checkpointing
  • BF16 混合精度训练
  • paged_adamw_8bit 优化器

📄 许可证

Apache License 2.0

🙏 致谢

  • 基础模型: Qwen/Qwen2-7B-Instruct
  • 训练框架: Hugging Face Transformers + PEFT
  • 训练平台: AutoDL (RTX 4090D)

📞 联系

如有问题或建议,欢迎提 Issue!


训练日期: 2026-01-01 模型版本: v1.0

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for maweize027/boat-design-7b-lora

Base model

Qwen/Qwen2-7B
Adapter
(344)
this model

Space using maweize027/boat-design-7b-lora 1