Spaces:
Sleeping
Sleeping
Upload folder using huggingface_hub
Browse files- app.py +17 -1
- requirements.txt +3 -1
app.py
CHANGED
|
@@ -1,6 +1,8 @@
|
|
| 1 |
import gradio as gr
|
| 2 |
from huggingface_hub import InferenceClient
|
| 3 |
import os
|
|
|
|
|
|
|
| 4 |
|
| 5 |
# Системный промпт для настройки поведения модели
|
| 6 |
SYSTEM_PROMPT = """
|
|
@@ -94,5 +96,19 @@ with gr.Blocks() as demo:
|
|
| 94 |
"""
|
| 95 |
)
|
| 96 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 97 |
if __name__ == "__main__":
|
| 98 |
-
|
|
|
|
| 1 |
import gradio as gr
|
| 2 |
from huggingface_hub import InferenceClient
|
| 3 |
import os
|
| 4 |
+
import fastapi
|
| 5 |
+
import uvicorn
|
| 6 |
|
| 7 |
# Системный промпт для настройки поведения модели
|
| 8 |
SYSTEM_PROMPT = """
|
|
|
|
| 96 |
"""
|
| 97 |
)
|
| 98 |
|
| 99 |
+
# Создаем FastAPI приложение
|
| 100 |
+
app = fastapi.FastAPI()
|
| 101 |
+
|
| 102 |
+
# Добавляем эндпоинт для health check от Hugging Face
|
| 103 |
+
@app.get("/")
|
| 104 |
+
def health_check():
|
| 105 |
+
return {"status": "ok"}
|
| 106 |
+
|
| 107 |
+
# Монтируем Gradio приложение в FastAPI.
|
| 108 |
+
# Hugging Face будет запускать этот объект 'app'.
|
| 109 |
+
app = gr.mount_gradio_app(app, demo, path="/")
|
| 110 |
+
|
| 111 |
+
# Этот блок теперь будет использовать uvicorn для локального запуска,
|
| 112 |
+
# что более точно имитирует среду выполнения Hugging Face.
|
| 113 |
if __name__ == "__main__":
|
| 114 |
+
uvicorn.run(app, host="0.0.0.0", port=7860)
|
requirements.txt
CHANGED
|
@@ -1,2 +1,4 @@
|
|
| 1 |
gradio
|
| 2 |
-
huggingface_hub
|
|
|
|
|
|
|
|
|
| 1 |
gradio
|
| 2 |
+
huggingface_hub
|
| 3 |
+
fastapi
|
| 4 |
+
uvicorn
|