InfoRadar / model_paths.py
dqy08's picture
支持更大语义模型(4B/8B)
744cf20
"""
模型路径配置(共享配置文件)
用于 Docker 构建阶段预下载和运行时加载
"""
# 语义分析模型(ColBERT embedding)的 HuggingFace 路径映射
# 用于 --semantic_model 参数,支持别名如 qwen3-embedding-0.6b
# 更大模型(4B/8B)语义质量更好,显存占用更高
SEMANTIC_MODEL_PATHS = {
"qwen3-embedding-0.6b": "Qwen/Qwen3-Embedding-0.6B",
"qwen3-embedding-4b": "Qwen/Qwen3-Embedding-4B",
"qwen3-embedding-8b": "Qwen/Qwen3-Embedding-8B",
}
# 所有可用模型的 HuggingFace 路径映射
MODEL_PATHS = {
# 标准模型(FP16/BF16)
'qwen2.5-0.5b': 'Qwen/Qwen2.5-0.5B',
'qwen3.0-0.6b': 'Qwen/Qwen3-0.6B-Base',
'qwen3.0-1.7b': 'Qwen/Qwen3-1.7B-Base',
'qwen3.0-4b': 'Qwen/Qwen3-4B-Base',
'qwen3.0-8b': 'Qwen/Qwen3-8B-Base',
'qwen3.0-14b': 'Qwen/Qwen3-14B-Base',
'qwen3.0-30b-a3b': 'Qwen/Qwen3-30B-A3B-Base',
'qwen2.5-32b': 'Qwen/Qwen2.5-32B',
'qwen2.5-72b': 'Qwen/Qwen2.5-72B',
# AWQ 量化模型(W4A16,显存占用约为标准模型的 1/4)
# 自动检测,仅支持 Docker + CUDA 环境
# Qwen3-14B-AWQ评估质量差,因为基于instruct版本而不是base版本
'qwen3.0-14b-awq': 'Qwen/Qwen3-14B-AWQ'
}