Spaces:
Sleeping
Sleeping
Update tokenizer loading logic to fallback on fine-tuned model if default fails
Browse files
app.py
CHANGED
|
@@ -13,7 +13,15 @@ device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
|
|
| 13 |
# Load model và tokenizer
|
| 14 |
print("Đang tải model...")
|
| 15 |
model_name = "cochi1706/phobert-vntc-chunk1"
|
| 16 |
-
tokenizer
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 17 |
model = AutoModelForSequenceClassification.from_pretrained(model_name)
|
| 18 |
model.to(device)
|
| 19 |
model.eval()
|
|
|
|
| 13 |
# Load model và tokenizer
|
| 14 |
print("Đang tải model...")
|
| 15 |
model_name = "cochi1706/phobert-vntc-chunk1"
|
| 16 |
+
# Sử dụng tokenizer từ model PhoBERT gốc vì model fine-tuned có thể không có tokenizer config đầy đủ
|
| 17 |
+
tokenizer_name = "vinai/phobert-base" # Hoặc "vinai/phobert-large" nếu model dùng large
|
| 18 |
+
try:
|
| 19 |
+
tokenizer = AutoTokenizer.from_pretrained(tokenizer_name)
|
| 20 |
+
print(f"Đã tải tokenizer từ {tokenizer_name}")
|
| 21 |
+
except Exception as e:
|
| 22 |
+
print(f"Không thể tải tokenizer từ {tokenizer_name}, thử từ model fine-tuned...")
|
| 23 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
| 24 |
+
|
| 25 |
model = AutoModelForSequenceClassification.from_pretrained(model_name)
|
| 26 |
model.to(device)
|
| 27 |
model.eval()
|