File size: 2,623 Bytes
af11d6b |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 |
import argparse
import sys
from huggingface_hub import HfApi, create_repo
def upload_dataset(token, repo_id, folder_path, private, workers):
"""
Faz o upload de uma pasta grande (Large Folder) como um Dataset para o Hugging Face Hub.
"""
print(f"--- Iniciando processo para Dataset (Large Folder): {repo_id} ---")
try:
# 1. Autenticação
api = HfApi(token=token)
# 2. Criar o repositório se não existir
print(f"Verificando/Criando repositório de dataset '{repo_id}'...")
create_repo(
repo_id=repo_id,
token=token,
private=private,
exist_ok=True,
repo_type="dataset"
)
# 3. Fazer o upload usando upload_large_folder
# Essa função gerencia automaticamente múltiplos commits e tentativas
print(f"Iniciando upload otimizado de '{folder_path}' com {workers} workers...")
print("Isso pode demorar dependendo do tamanho do dataset. O script mostrará o progresso.")
api.upload_large_folder(
folder_path=folder_path,
repo_id=repo_id,
repo_type="dataset",
num_workers=workers, # Define quantas threads simultâneas usar
# upload_large_folder não aceita 'commit_message' único,
# pois ele gera vários commits automaticamente.
)
print(f"\n✅ Sucesso! Dataset sincronizado em: https://huggingface.co/datasets/{repo_id}")
except Exception as e:
print(f"\n❌ Erro durante o upload: {e}")
sys.exit(1)
if __name__ == "__main__":
parser = argparse.ArgumentParser(description="Upload de Grandes Datasets para o Hugging Face Hub")
# Argumentos Obrigatórios
parser.add_argument("--token", type=str, required=True, help="Seu User Access Token do Hugging Face (Write permission)")
parser.add_argument("--repo_id", type=str, required=True, help="ID do repositório (ex: usuario/meu-dataset-grande)")
parser.add_argument("--path", type=str, required=True, help="Caminho local da pasta do dataset")
# Argumentos Opcionais
parser.add_argument("--private", action="store_true", help="Se definido, cria o repositório como privado")
parser.add_argument("--workers", type=int, default=8, help="Número de conexões simultâneas (padrão: 8). Aumente se tiver internet rápida.")
args = parser.parse_args()
upload_dataset(
token=args.token,
repo_id=args.repo_id,
folder_path=args.path,
private=args.private,
workers=args.workers
) |