Spaces:
Paused
Paused
| """ | |
| 配置和环境设置模块 | |
| 包含API密钥管理、模型配置和URL配置 | |
| """ | |
| import getpass | |
| import os | |
| # 尝试加载.env文件,如果没有安装dotenv则跳过 | |
| try: | |
| from dotenv import load_dotenv | |
| load_dotenv() | |
| print("✅ .env文件已加载") | |
| except ImportError: | |
| print("⚠️ python-dotenv未安装,将使用系统环境变量") | |
| print("提示:运行 'pip install python-dotenv' 来安装") | |
| def _set_env(var: str): | |
| """设置环境变量,优先从.env文件读取,如果不存在则提示用户输入""" | |
| if not os.environ.get(var): | |
| os.environ[var] = getpass.getpass(f"{var}: ") | |
| def setup_environment(): | |
| """设置所有必需的环境变量""" | |
| _set_env("TAVILY_API_KEY") | |
| # 不再需要NOMIC_API_KEY,使用HuggingFace本地嵌入 | |
| # 验证API密钥是否已设置 | |
| tavily_key = os.environ.get("TAVILY_API_KEY") | |
| if tavily_key: | |
| if tavily_key.startswith("tvly-"): | |
| print(f"✅ TAVILY_API_KEY 已加载: {tavily_key[:10]}...") | |
| else: | |
| print(f"✅ TAVILY_API_KEY 已从环境变量中加载") | |
| else: | |
| print("⚠️ TAVILY_API_KEY 未找到") | |
| # 模型配置 | |
| # Kaggle环境推荐使用较小的模型以加快下载速度 | |
| # 可选模型: | |
| # - "mistral" (4GB) - 质量最好,但下载慢 | |
| # - "phi" (1.6GB) - 平衡选择,速度较快 | |
| # - "tinyllama" (600MB) - 最快,质量稍低 | |
| # - "qwen:0.5b" (350MB) - 极小模型,速度极快 | |
| LOCAL_LLM = "mistral" # 在Kaggle中可改为 "phi" 或 "tinyllama" | |
| # 知识库URL配置 | |
| KNOWLEDGE_BASE_URLS = [ | |
| "https://lilianweng.github.io/posts/2023-06-23-agent/", | |
| # "https://lilianweng.github.io/posts/2023-03-15-prompt-engineering/", | |
| # "https://lilianweng.github.io/posts/2023-10-25-adv-attack-llm/", | |
| ] | |
| # 文档分块配置 | |
| CHUNK_SIZE = 250 | |
| CHUNK_OVERLAP = 50 # 添加重叠以保持上下文连贯性,提升检索准确率 | |
| # 向量数据库配置 | |
| VECTOR_STORE_TYPE = "milvus" # 强制使用 Milvus | |
| COLLECTION_NAME = "rag_milvus" | |
| EMBEDDING_MODEL = "sentence-transformers/all-MiniLM-L6-v2" # HuggingFace嵌入模型 | |
| # Milvus 配置 (仅当 VECTOR_STORE_TYPE="milvus" 时生效) | |
| # 1. Milvus Lite (本地文件模式): 仅需设置 MILVUS_URI,无需 User/Password。适合 Kaggle/本地开发。 | |
| # 2. Zilliz Cloud (云服务): 需要设置 MILVUS_URI (https://...) 和 MILVUS_PASSWORD (API Key/Token)。需官网注册。 | |
| # 3. Milvus Server (Docker/K8s): 需要设置 HOST/PORT,可选 User/Password。 | |
| MILVUS_HOST = os.environ.get("MILVUS_HOST", "localhost") | |
| MILVUS_PORT = os.environ.get("MILVUS_PORT", "19530") | |
| MILVUS_USER = os.environ.get("MILVUS_USER", "") # 仅在自建 Server 开启认证或使用 Zilliz Cloud 时需要 | |
| MILVUS_PASSWORD = os.environ.get("MILVUS_PASSWORD", "") # Zilliz Cloud 的 API Key 也填在这里 | |
| # Milvus Lite 配置: 如果设置了 MILVUS_URI (如 "./milvus_demo.db"),将优先使用本地文件模式 | |
| MILVUS_URI = os.environ.get("MILVUS_URI", "./milvus_rag.db") | |
| # Milvus 性能调优 (百万级数据推荐配置) | |
| # 索引类型: HNSW (最快/吃内存), IVF_SQ8 (省内存/速度快/轻微精度损失), IVF_FLAT (平衡) | |
| MILVUS_INDEX_TYPE = "HNSW" | |
| # 索引构建参数 (M: 邻居数, efConstruction: 构建深度) | |
| MILVUS_INDEX_PARAMS = {"M": 8, "efConstruction": 64} | |
| # 搜索参数 (ef: 搜索范围,值越小越快但精度越低。默认是 10,百万级建议设为 30-50) | |
| MILVUS_SEARCH_PARAMS = {"ef": 10} | |
| # 搜索配置 | |
| WEB_SEARCH_RESULTS_COUNT = 3 | |
| # GraphRAG配置 | |
| ENABLE_GRAPHRAG = os.environ.get("ENABLE_GRAPH_RAG", "true").lower() == "true" # 是否启用GraphRAG功能 | |
| GRAPHRAG_INDEX_PATH = "./data/knowledge_graph.json" # 图谱索引保存路径 | |
| # 确保数据目录存在 | |
| import os | |
| os.makedirs("./data", exist_ok=True) | |
| GRAPHRAG_COMMUNITY_ALGORITHM = os.environ.get("GRAPH_COMMUNITY_ALGORITHM", "louvain") # 社区检测算法: louvain, greedy, label_propagation | |
| GRAPHRAG_MAX_HOPS = 2 # 本地查询最大跳数 | |
| GRAPHRAG_TOP_K_COMMUNITIES = 5 # 全局查询使用的社区数量 | |
| GRAPHRAG_BATCH_SIZE = 10 # 实体提取批处理大小 | |
| GRAPH_ENTITY_EXTRACTION_MODEL = os.environ.get("GRAPH_ENTITY_EXTRACTION_MODEL", "llama2") | |
| GRAPH_RELATION_EXTRACTION_MODEL = os.environ.get("GRAPH_RELATION_EXTRACTION_MODEL", "llama2") | |
| GRAPH_COMMUNITY_DETECTION = os.environ.get("GRAPH_COMMUNITY_DETECTION", "true").lower() == "true" | |
| GRAPH_VISUALIZATION = os.environ.get("GRAPH_VISUALIZATION", "true").lower() == "true" | |
| GRAPH_LAYOUT = os.environ.get("GRAPH_LAYOUT", "spring") | |
| # 混合检索策略配置 | |
| ENABLE_HYBRID_SEARCH = os.environ.get("ENABLE_HYBRID_SEARCH", "true").lower() == "true" # 是否启用混合检索策略 | |
| HYBRID_SEARCH_WEIGHTS = {"vector": 0.5, "keyword": 0.5} # 向量检索和关键词检索的权重 | |
| KEYWORD_SEARCH_K = 5 # 关键词检索返回的文档数量 | |
| BM25_K1 = float(os.environ.get("BM25_K1", "1.5")) # BM25算法的k1参数 | |
| BM25_B = float(os.environ.get("BM25_B", "0.75")) # BM25算法的b参数 | |
| # 查询扩展优化配置 | |
| ENABLE_QUERY_EXPANSION = os.environ.get("ENABLE_QUERY_EXPANSION", "true").lower() == "true" # 是否启用查询扩展 | |
| QUERY_EXPANSION_MODEL = os.environ.get("QUERY_EXPANSION_MODEL", "mistral") # 用于查询扩展的模型 | |
| QUERY_EXPANSION_PROMPT = """请为以下查询生成3-5个相关的扩展查询,这些查询应该从不同角度探索原始查询的主题。 | |
| 原始查询: {query} | |
| 扩展查询: """ # 查询扩展提示模板 | |
| MAX_EXPANDED_QUERIES = int(os.environ.get("QUERY_EXPANSION_TOP_K", "5")) # 最多使用的扩展查询数量 | |
| # 多模态支持配置 | |
| ENABLE_MULTIMODAL = os.environ.get("ENABLE_MULTIMODAL", "true").lower() == "true" # 是否启用多模态支持 | |
| MULTIMODAL_IMAGE_MODEL = os.environ.get("MULTIMODAL_IMAGE_MODEL", "openai/clip-vit-base-patch32") # 图像嵌入模型 | |
| SUPPORTED_IMAGE_FORMATS = ["jpg", "jpeg", "png", "gif", "bmp"] # 支持的图像格式 | |
| IMAGE_EMBEDDING_DIM = 512 # 图像嵌入维度 | |
| MULTIMODAL_WEIGHTS = {"text": 0.7, "image": 0.3} # 文本和图像检索的权重 | |
| def get_api_keys(): | |
| """获取API密钥并返回字典""" | |
| return { | |
| "tavily": os.environ.get("TAVILY_API_KEY") | |
| } | |
| def validate_api_keys(): | |
| """验证API密钥是否已设置""" | |
| keys = get_api_keys() | |
| missing_keys = [] | |
| if not keys["tavily"]: | |
| missing_keys.append("TAVILY_API_KEY") | |
| if missing_keys: | |
| raise ValueError(f"缺少必需的API密钥: {', '.join(missing_keys)}\n请在.env文件中设置这些密钥") | |
| return True |