GraphRAG_Backend / DEPLOY_INSTRUCTIONS.md
KirkHan's picture
Upload 8 files
a990ce3 verified

Hugging Face Spaces 部署说明

📁 需要上传的文件

这个文件夹包含所有需要推送到 Hugging Face Spaces 的文件:

hf_deploy/
├── app.py                  # FastAPI 应用(已更新 max_tokens: 4000)
├── Dockerfile              # Docker 配置
├── requirements.txt        # Python 依赖
├── README.md               # HF Spaces 配置(包含 sdk_version)
├── database_setup_lite.py  # 数据库设置
├── rag_engine.py           # RAG 引擎(已更新 max_tokens: 4000)
└── mock_data.json          # 示例数据

🚀 部署步骤

方法 1: 使用 Git(推荐)

  1. 克隆 HF Space 仓库(如果还没有):

    git clone https://huggingface.co/spaces/curio-lab/GraphRAG_Backend
    cd GraphRAG_Backend
    
  2. 复制所有文件到仓库根目录

    # 从 hf_deploy 目录复制所有文件
    cp ../hf_deploy/* .
    
  3. 提交并推送

    git add .
    git commit -m "Update: Increase max_tokens to 4000"
    git push origin main
    

方法 2: 使用 Web UI

  1. 访问 https://huggingface.co/spaces/curio-lab/GraphRAG_Backend
  2. 点击 "Files and versions" 标签
  3. 点击 "Add file""Upload file"
  4. 依次上传 hf_deploy/ 目录下的所有文件:
    • app.py
    • Dockerfile
    • requirements.txt
    • README.md
    • database_setup_lite.py
    • rag_engine.py
    • mock_data.json

⚠️ 重要提示

  1. 文件必须在根目录:所有文件必须上传到 HF Space 仓库的根目录,不要放在子文件夹中

  2. 环境变量:确保在 HF Spaces Settings → Secrets 中设置了:

    • LLM_API_BASE = https://api.ai-gaochao.cn/v1
    • LLM_API_KEY = sk-你的真实密钥
    • LLM_MODEL = gemini-2.5-flash
    • EMBEDDING_MODEL = text-embedding-3-small
  3. 等待构建:推送后,HF Spaces 会自动构建,通常需要 5-10 分钟

📝 本次更新内容

  • rag_engine.py: 将 max_tokens 从 2000 增加到 4000,避免内容被截断
  • ✅ 所有文件已更新到最新版本