""" 模型路径配置(共享配置文件) 用于 Docker 构建阶段预下载和运行时加载 """ # 语义分析模型(ColBERT embedding)的 HuggingFace 路径映射 # 用于 --semantic_model 参数,支持别名如 qwen3-embedding-0.6b # 更大模型(4B/8B)语义质量更好,显存占用更高 SEMANTIC_MODEL_PATHS = { "qwen3-embedding-0.6b": "Qwen/Qwen3-Embedding-0.6B", "qwen3-embedding-4b": "Qwen/Qwen3-Embedding-4B", "qwen3-embedding-8b": "Qwen/Qwen3-Embedding-8B", } # 所有可用模型的 HuggingFace 路径映射 MODEL_PATHS = { # 标准模型(FP16/BF16) 'qwen2.5-0.5b': 'Qwen/Qwen2.5-0.5B', 'qwen3.0-0.6b': 'Qwen/Qwen3-0.6B-Base', 'qwen3.0-1.7b': 'Qwen/Qwen3-1.7B-Base', 'qwen3.0-4b': 'Qwen/Qwen3-4B-Base', 'qwen3.0-8b': 'Qwen/Qwen3-8B-Base', 'qwen3.0-14b': 'Qwen/Qwen3-14B-Base', 'qwen3.0-30b-a3b': 'Qwen/Qwen3-30B-A3B-Base', 'qwen2.5-32b': 'Qwen/Qwen2.5-32B', 'qwen2.5-72b': 'Qwen/Qwen2.5-72B', # AWQ 量化模型(W4A16,显存占用约为标准模型的 1/4) # 自动检测,仅支持 Docker + CUDA 环境 # Qwen3-14B-AWQ评估质量差,因为基于instruct版本而不是base版本 'qwen3.0-14b-awq': 'Qwen/Qwen3-14B-AWQ' }