Spaces:
Sleeping
Sleeping
A newer version of the Gradio SDK is available: 6.14.0
metadata
title: Anime Chat
emoji: 🗨️
colorFrom: pink
colorTo: purple
sdk: gradio
sdk_version: 4.44.0
app_file: app.py
pinned: false
Anime Chat 🤖
開啟此頁即可與機器人聊天。支援 OpenAI、Groq、或本地模式(Qwen 0.5B)。
Anime Chat — Hugging Face Spaces 版本
這個專案把你的 Colab 聊天機器人,變成「任何人打開網址就能用」的網站。 你可以用兩種方式運行:
- API 模式(推薦):PROVIDER 設定為
openai/groq/hf-inference,在 Secrets 放 API 金鑰。推理在雲端 API,速度與穩定度較好。 - Local 模式(示範):PROVIDER=
local,在免費 CPU 上載入一個很小的 Transformers 模型(Qwen2.5 0.5B)。速度較慢,僅作展示。
在 Hugging Face Spaces 部署
- 登入 Hugging Face,建立一個 Space,Framework 選 Gradio。
- 把本專案的檔案全部上傳(
app.py,requirements.txt,README.md等)。 - 在 Space 的 Settings → Secrets 設定環境變數:
PROVIDER:openai/groq/hf-inference/local- 若選
openai:設OPENAI_API_KEY - 若選
groq:設GROQ_API_KEY - 若選
hf-inference:設HF_API_KEY與HF_INFERENCE_URL(你的推理端點) - (可選)
MODEL_ID,SYSTEM_PROMPT,MAX_TOKENS,TEMPERATURE
- 等建置完成,Space 會給你一個公開網址,分享出去即可。
提醒:如果使用
local,免費 CPU 速度較慢;如需更快可升級硬體或改用 API 模式。
從 Colab 遷移的小提醒
- Notebook 內的
files.upload()、/content/路徑請移除,改為應用啟動時載入模型。 - 把所有套件依賴寫進
requirements.txt。 - 機密金鑰不要寫在程式碼裡,改放到 Secrets。
- 如果你的模型在 Hugging Face Hub:把
MODEL_ID換成你的模型倉庫名稱即可載入。
本機開發(可選)
pip install -r requirements.txt
# 本機測試 Local 模式
PROVIDER=local python app.py
# 或測 API 模式(以 openai 為例)
set OPENAI_API_KEY=你的金鑰 # Windows
export OPENAI_API_KEY=你的金鑰 # macOS/Linux
PROVIDER=openai python app.py