import argparse import sys from huggingface_hub import HfApi, create_repo def upload_dataset(token, repo_id, folder_path, private, workers): """ Faz o upload de uma pasta grande (Large Folder) como um Dataset para o Hugging Face Hub. """ print(f"--- Iniciando processo para Dataset (Large Folder): {repo_id} ---") try: # 1. Autenticação api = HfApi(token=token) # 2. Criar o repositório se não existir print(f"Verificando/Criando repositório de dataset '{repo_id}'...") create_repo( repo_id=repo_id, token=token, private=private, exist_ok=True, repo_type="dataset" ) # 3. Fazer o upload usando upload_large_folder # Essa função gerencia automaticamente múltiplos commits e tentativas print(f"Iniciando upload otimizado de '{folder_path}' com {workers} workers...") print("Isso pode demorar dependendo do tamanho do dataset. O script mostrará o progresso.") api.upload_large_folder( folder_path=folder_path, repo_id=repo_id, repo_type="dataset", num_workers=workers, # Define quantas threads simultâneas usar # upload_large_folder não aceita 'commit_message' único, # pois ele gera vários commits automaticamente. ) print(f"\n✅ Sucesso! Dataset sincronizado em: https://huggingface.co/datasets/{repo_id}") except Exception as e: print(f"\n❌ Erro durante o upload: {e}") sys.exit(1) if __name__ == "__main__": parser = argparse.ArgumentParser(description="Upload de Grandes Datasets para o Hugging Face Hub") # Argumentos Obrigatórios parser.add_argument("--token", type=str, required=True, help="Seu User Access Token do Hugging Face (Write permission)") parser.add_argument("--repo_id", type=str, required=True, help="ID do repositório (ex: usuario/meu-dataset-grande)") parser.add_argument("--path", type=str, required=True, help="Caminho local da pasta do dataset") # Argumentos Opcionais parser.add_argument("--private", action="store_true", help="Se definido, cria o repositório como privado") parser.add_argument("--workers", type=int, default=8, help="Número de conexões simultâneas (padrão: 8). Aumente se tiver internet rápida.") args = parser.parse_args() upload_dataset( token=args.token, repo_id=args.repo_id, folder_path=args.path, private=args.private, workers=args.workers )