# Hugging Face Spaces 部署说明 ## 📁 需要上传的文件 这个文件夹包含所有需要推送到 Hugging Face Spaces 的文件: ``` hf_deploy/ ├── app.py # FastAPI 应用(已更新 max_tokens: 4000) ├── Dockerfile # Docker 配置 ├── requirements.txt # Python 依赖 ├── README.md # HF Spaces 配置(包含 sdk_version) ├── database_setup_lite.py # 数据库设置 ├── rag_engine.py # RAG 引擎(已更新 max_tokens: 4000) └── mock_data.json # 示例数据 ``` ## 🚀 部署步骤 ### 方法 1: 使用 Git(推荐) 1. **克隆 HF Space 仓库**(如果还没有): ```bash git clone https://huggingface.co/spaces/curio-lab/GraphRAG_Backend cd GraphRAG_Backend ``` 2. **复制所有文件到仓库根目录**: ```bash # 从 hf_deploy 目录复制所有文件 cp ../hf_deploy/* . ``` 3. **提交并推送**: ```bash git add . git commit -m "Update: Increase max_tokens to 4000" git push origin main ``` ### 方法 2: 使用 Web UI 1. 访问 https://huggingface.co/spaces/curio-lab/GraphRAG_Backend 2. 点击 **"Files and versions"** 标签 3. 点击 **"Add file"** → **"Upload file"** 4. 依次上传 `hf_deploy/` 目录下的所有文件: - `app.py` - `Dockerfile` - `requirements.txt` - `README.md` - `database_setup_lite.py` - `rag_engine.py` - `mock_data.json` ## ⚠️ 重要提示 1. **文件必须在根目录**:所有文件必须上传到 HF Space 仓库的根目录,不要放在子文件夹中 2. **环境变量**:确保在 HF Spaces Settings → Secrets 中设置了: - `LLM_API_BASE` = `https://api.ai-gaochao.cn/v1` - `LLM_API_KEY` = `sk-你的真实密钥` - `LLM_MODEL` = `gemini-2.5-flash` - `EMBEDDING_MODEL` = `text-embedding-3-small` 3. **等待构建**:推送后,HF Spaces 会自动构建,通常需要 5-10 分钟 ## 📝 本次更新内容 - ✅ `rag_engine.py`: 将 `max_tokens` 从 2000 增加到 4000,避免内容被截断 - ✅ 所有文件已更新到最新版本