Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -8,9 +8,11 @@ MODEL_NAME = "SocialScrape/longformer-my-classifier"
|
|
| 8 |
# Бере токен із секретів Hugging Face Space
|
| 9 |
hf_token = os.getenv("HF_TOKEN")
|
| 10 |
|
|
|
|
| 11 |
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, token=hf_token)
|
| 12 |
model = AutoModelForSequenceClassification.from_pretrained(MODEL_NAME, token=hf_token)
|
| 13 |
|
|
|
|
| 14 |
def classify_text(text):
|
| 15 |
inputs = tokenizer(text, return_tensors="pt", truncation=True)
|
| 16 |
outputs = model(**inputs)
|
|
@@ -22,12 +24,10 @@ def classify_text(text):
|
|
| 22 |
"Ймовірності класів": probabilities.tolist()
|
| 23 |
}
|
| 24 |
|
|
|
|
| 25 |
iface = gr.Interface(
|
| 26 |
fn=classify_text,
|
| 27 |
inputs=gr.Textbox(label="Введіть текст для класифікації"),
|
| 28 |
outputs=gr.JSON(label="Результати класифікації"),
|
| 29 |
title="Longformer UK Text Classifier"
|
| 30 |
-
)
|
| 31 |
-
|
| 32 |
-
iface.launch(share=True)
|
| 33 |
-
|
|
|
|
| 8 |
# Бере токен із секретів Hugging Face Space
|
| 9 |
hf_token = os.getenv("HF_TOKEN")
|
| 10 |
|
| 11 |
+
# Завантаження токенізатора та моделі
|
| 12 |
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, token=hf_token)
|
| 13 |
model = AutoModelForSequenceClassification.from_pretrained(MODEL_NAME, token=hf_token)
|
| 14 |
|
| 15 |
+
# Функція класифікації тексту
|
| 16 |
def classify_text(text):
|
| 17 |
inputs = tokenizer(text, return_tensors="pt", truncation=True)
|
| 18 |
outputs = model(**inputs)
|
|
|
|
| 24 |
"Ймовірності класів": probabilities.tolist()
|
| 25 |
}
|
| 26 |
|
| 27 |
+
# Інтерфейс Gradio
|
| 28 |
iface = gr.Interface(
|
| 29 |
fn=classify_text,
|
| 30 |
inputs=gr.Textbox(label="Введіть текст для класифікації"),
|
| 31 |
outputs=gr.JSON(label="Результати класифікації"),
|
| 32 |
title="Longformer UK Text Classifier"
|
| 33 |
+
)
|
|
|
|
|
|
|
|
|