Spaces:
Running
Running
File size: 2,148 Bytes
a990ce3 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 | # Hugging Face Spaces 部署说明
## 📁 需要上传的文件
这个文件夹包含所有需要推送到 Hugging Face Spaces 的文件:
```
hf_deploy/
├── app.py # FastAPI 应用(已更新 max_tokens: 4000)
├── Dockerfile # Docker 配置
├── requirements.txt # Python 依赖
├── README.md # HF Spaces 配置(包含 sdk_version)
├── database_setup_lite.py # 数据库设置
├── rag_engine.py # RAG 引擎(已更新 max_tokens: 4000)
└── mock_data.json # 示例数据
```
## 🚀 部署步骤
### 方法 1: 使用 Git(推荐)
1. **克隆 HF Space 仓库**(如果还没有):
```bash
git clone https://huggingface.co/spaces/curio-lab/GraphRAG_Backend
cd GraphRAG_Backend
```
2. **复制所有文件到仓库根目录**:
```bash
# 从 hf_deploy 目录复制所有文件
cp ../hf_deploy/* .
```
3. **提交并推送**:
```bash
git add .
git commit -m "Update: Increase max_tokens to 4000"
git push origin main
```
### 方法 2: 使用 Web UI
1. 访问 https://huggingface.co/spaces/curio-lab/GraphRAG_Backend
2. 点击 **"Files and versions"** 标签
3. 点击 **"Add file"** → **"Upload file"**
4. 依次上传 `hf_deploy/` 目录下的所有文件:
- `app.py`
- `Dockerfile`
- `requirements.txt`
- `README.md`
- `database_setup_lite.py`
- `rag_engine.py`
- `mock_data.json`
## ⚠️ 重要提示
1. **文件必须在根目录**:所有文件必须上传到 HF Space 仓库的根目录,不要放在子文件夹中
2. **环境变量**:确保在 HF Spaces Settings → Secrets 中设置了:
- `LLM_API_BASE` = `https://api.ai-gaochao.cn/v1`
- `LLM_API_KEY` = `sk-你的真实密钥`
- `LLM_MODEL` = `gemini-2.5-flash`
- `EMBEDDING_MODEL` = `text-embedding-3-small`
3. **等待构建**:推送后,HF Spaces 会自动构建,通常需要 5-10 分钟
## 📝 本次更新内容
- ✅ `rag_engine.py`: 将 `max_tokens` 从 2000 增加到 4000,避免内容被截断
- ✅ 所有文件已更新到最新版本
|