cochi1706 commited on
Commit
9cef669
·
1 Parent(s): 45c9bd2

Update tokenizer loading logic to fallback on fine-tuned model if default fails

Browse files
Files changed (1) hide show
  1. app.py +9 -1
app.py CHANGED
@@ -13,7 +13,15 @@ device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
13
  # Load model và tokenizer
14
  print("Đang tải model...")
15
  model_name = "cochi1706/phobert-vntc-chunk1"
16
- tokenizer = AutoTokenizer.from_pretrained(model_name)
 
 
 
 
 
 
 
 
17
  model = AutoModelForSequenceClassification.from_pretrained(model_name)
18
  model.to(device)
19
  model.eval()
 
13
  # Load model và tokenizer
14
  print("Đang tải model...")
15
  model_name = "cochi1706/phobert-vntc-chunk1"
16
+ # Sử dụng tokenizer từ model PhoBERT gốc vì model fine-tuned có thể không có tokenizer config đầy đủ
17
+ tokenizer_name = "vinai/phobert-base" # Hoặc "vinai/phobert-large" nếu model dùng large
18
+ try:
19
+ tokenizer = AutoTokenizer.from_pretrained(tokenizer_name)
20
+ print(f"Đã tải tokenizer từ {tokenizer_name}")
21
+ except Exception as e:
22
+ print(f"Không thể tải tokenizer từ {tokenizer_name}, thử từ model fine-tuned...")
23
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
24
+
25
  model = AutoModelForSequenceClassification.from_pretrained(model_name)
26
  model.to(device)
27
  model.eval()