GraphRAG_Backend / DEPLOY_INSTRUCTIONS.md
KirkHan's picture
Upload 8 files
a990ce3 verified
# Hugging Face Spaces 部署说明
## 📁 需要上传的文件
这个文件夹包含所有需要推送到 Hugging Face Spaces 的文件:
```
hf_deploy/
├── app.py # FastAPI 应用(已更新 max_tokens: 4000)
├── Dockerfile # Docker 配置
├── requirements.txt # Python 依赖
├── README.md # HF Spaces 配置(包含 sdk_version)
├── database_setup_lite.py # 数据库设置
├── rag_engine.py # RAG 引擎(已更新 max_tokens: 4000)
└── mock_data.json # 示例数据
```
## 🚀 部署步骤
### 方法 1: 使用 Git(推荐)
1. **克隆 HF Space 仓库**(如果还没有):
```bash
git clone https://huggingface.co/spaces/curio-lab/GraphRAG_Backend
cd GraphRAG_Backend
```
2. **复制所有文件到仓库根目录**
```bash
# 从 hf_deploy 目录复制所有文件
cp ../hf_deploy/* .
```
3. **提交并推送**
```bash
git add .
git commit -m "Update: Increase max_tokens to 4000"
git push origin main
```
### 方法 2: 使用 Web UI
1. 访问 https://huggingface.co/spaces/curio-lab/GraphRAG_Backend
2. 点击 **"Files and versions"** 标签
3. 点击 **"Add file"****"Upload file"**
4. 依次上传 `hf_deploy/` 目录下的所有文件:
- `app.py`
- `Dockerfile`
- `requirements.txt`
- `README.md`
- `database_setup_lite.py`
- `rag_engine.py`
- `mock_data.json`
## ⚠️ 重要提示
1. **文件必须在根目录**:所有文件必须上传到 HF Space 仓库的根目录,不要放在子文件夹中
2. **环境变量**:确保在 HF Spaces Settings → Secrets 中设置了:
- `LLM_API_BASE` = `https://api.ai-gaochao.cn/v1`
- `LLM_API_KEY` = `sk-你的真实密钥`
- `LLM_MODEL` = `gemini-2.5-flash`
- `EMBEDDING_MODEL` = `text-embedding-3-small`
3. **等待构建**:推送后,HF Spaces 会自动构建,通常需要 5-10 分钟
## 📝 本次更新内容
-`rag_engine.py`: 将 `max_tokens` 从 2000 增加到 4000,避免内容被截断
- ✅ 所有文件已更新到最新版本