File size: 1,468 Bytes
d47a7fe
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
from transformers import AutoTokenizer, T5ForConditionalGeneration
from huggingface_hub import HfApi, HfFolder
import os

# 🔐 Токен из переменной окружения
hf_token = os.environ["huggingface"]

# 📁 Локальная директория с моделью
local_model_dir = "./flan-t5-autobatch"

# 🏷️ Репозиторий (ВАЖНО: должен быть в формате 'username/repo_name')
repo_id = "ajkndfjsdfasdf/flan-5-small-bigdataset"

# 🔐 Авторизация
api = HfApi()
HfFolder.save_token(hf_token)

# 🔍 Проверяем наличие репозитория
try:
    api.repo_info(repo_id, token=hf_token)
    print(f"📦 Репозиторий {repo_id} уже существует.")
except:
    print(f"📦 Репозиторий {repo_id} не найден. Создаём...")
    api.create_repo(repo_id=repo_id, token=hf_token, repo_type="model", exist_ok=True)

# 📦 Загружаем модель и токенизатор
model = T5ForConditionalGeneration.from_pretrained(local_model_dir)
tokenizer = AutoTokenizer.from_pretrained(local_model_dir)

# 🚀 Пушим в корень репозитория
model.push_to_hub(repo_id, token=hf_token, commit_message="🚀 Push latest model to root")
tokenizer.push_to_hub(repo_id, token=hf_token, commit_message="🚀 Push latest tokenizer to root")

print(f"✅ Модель загружена в: https://huggingface.co/{repo_id}")