OpenBHB-Dataset / upload_huggingface.py
freds0's picture
Add files using upload-large-folder tool
af11d6b verified
import argparse
import sys
from huggingface_hub import HfApi, create_repo
def upload_dataset(token, repo_id, folder_path, private, workers):
"""
Faz o upload de uma pasta grande (Large Folder) como um Dataset para o Hugging Face Hub.
"""
print(f"--- Iniciando processo para Dataset (Large Folder): {repo_id} ---")
try:
# 1. Autenticação
api = HfApi(token=token)
# 2. Criar o repositório se não existir
print(f"Verificando/Criando repositório de dataset '{repo_id}'...")
create_repo(
repo_id=repo_id,
token=token,
private=private,
exist_ok=True,
repo_type="dataset"
)
# 3. Fazer o upload usando upload_large_folder
# Essa função gerencia automaticamente múltiplos commits e tentativas
print(f"Iniciando upload otimizado de '{folder_path}' com {workers} workers...")
print("Isso pode demorar dependendo do tamanho do dataset. O script mostrará o progresso.")
api.upload_large_folder(
folder_path=folder_path,
repo_id=repo_id,
repo_type="dataset",
num_workers=workers, # Define quantas threads simultâneas usar
# upload_large_folder não aceita 'commit_message' único,
# pois ele gera vários commits automaticamente.
)
print(f"\n✅ Sucesso! Dataset sincronizado em: https://huggingface.co/datasets/{repo_id}")
except Exception as e:
print(f"\n❌ Erro durante o upload: {e}")
sys.exit(1)
if __name__ == "__main__":
parser = argparse.ArgumentParser(description="Upload de Grandes Datasets para o Hugging Face Hub")
# Argumentos Obrigatórios
parser.add_argument("--token", type=str, required=True, help="Seu User Access Token do Hugging Face (Write permission)")
parser.add_argument("--repo_id", type=str, required=True, help="ID do repositório (ex: usuario/meu-dataset-grande)")
parser.add_argument("--path", type=str, required=True, help="Caminho local da pasta do dataset")
# Argumentos Opcionais
parser.add_argument("--private", action="store_true", help="Se definido, cria o repositório como privado")
parser.add_argument("--workers", type=int, default=8, help="Número de conexões simultâneas (padrão: 8). Aumente se tiver internet rápida.")
args = parser.parse_args()
upload_dataset(
token=args.token,
repo_id=args.repo_id,
folder_path=args.path,
private=args.private,
workers=args.workers
)