Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -2,21 +2,26 @@ import gradio as gr
|
|
| 2 |
import huggingface_hub
|
| 3 |
from transformers import pipeline
|
| 4 |
|
| 5 |
-
# Загружаем модель для примера (можно заменить на свою)
|
| 6 |
generator = pipeline("text-generation", model="distilgpt2")
|
| 7 |
|
| 8 |
def chat_fn(prompt):
|
| 9 |
-
|
| 10 |
-
return f"🤖 Ответ модели:\n{
|
| 11 |
|
| 12 |
-
# Интерфейс Gradio
|
| 13 |
demo = gr.Interface(
|
| 14 |
fn=chat_fn,
|
| 15 |
inputs="text",
|
| 16 |
outputs="text",
|
| 17 |
title="Eroha AgentAPI — стабильный Space",
|
| 18 |
-
description="Исправленный runtime с
|
| 19 |
)
|
| 20 |
|
| 21 |
if __name__ == "__main__":
|
| 22 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 2 |
import huggingface_hub
|
| 3 |
from transformers import pipeline
|
| 4 |
|
|
|
|
| 5 |
generator = pipeline("text-generation", model="distilgpt2")
|
| 6 |
|
| 7 |
def chat_fn(prompt):
|
| 8 |
+
result = generator(prompt, max_length=60, num_return_sequences=1)[0]["generated_text"]
|
| 9 |
+
return f"🤖 Ответ модели:\n{result}\n\n📦 huggingface-hub версия: {huggingface_hub.__version__}"
|
| 10 |
|
|
|
|
| 11 |
demo = gr.Interface(
|
| 12 |
fn=chat_fn,
|
| 13 |
inputs="text",
|
| 14 |
outputs="text",
|
| 15 |
title="Eroha AgentAPI — стабильный Space",
|
| 16 |
+
description="Исправленный runtime с зафиксированной версией huggingface-hub==0.23.4"
|
| 17 |
)
|
| 18 |
|
| 19 |
if __name__ == "__main__":
|
| 20 |
+
# 🟩 ОБЯЗАТЕЛЬНО: пробрасываем наружу сервер
|
| 21 |
+
demo.launch(
|
| 22 |
+
server_name="0.0.0.0", # слушать все адреса (в контейнере HF)
|
| 23 |
+
server_port=7860, # стандартный порт Hugging Face Spaces
|
| 24 |
+
share=False, # отключаем внешний public tunnel
|
| 25 |
+
show_error=True # логировать ошибки в консоль
|
| 26 |
+
)
|
| 27 |
+
|