|
|
import argparse |
|
|
import sys |
|
|
from huggingface_hub import HfApi, create_repo |
|
|
|
|
|
def upload_dataset(token, repo_id, folder_path, private, workers): |
|
|
""" |
|
|
Faz o upload de uma pasta grande (Large Folder) como um Dataset para o Hugging Face Hub. |
|
|
""" |
|
|
print(f"--- Iniciando processo para Dataset (Large Folder): {repo_id} ---") |
|
|
|
|
|
try: |
|
|
|
|
|
api = HfApi(token=token) |
|
|
|
|
|
|
|
|
print(f"Verificando/Criando repositório de dataset '{repo_id}'...") |
|
|
create_repo( |
|
|
repo_id=repo_id, |
|
|
token=token, |
|
|
private=private, |
|
|
exist_ok=True, |
|
|
repo_type="dataset" |
|
|
) |
|
|
|
|
|
|
|
|
|
|
|
print(f"Iniciando upload otimizado de '{folder_path}' com {workers} workers...") |
|
|
print("Isso pode demorar dependendo do tamanho do dataset. O script mostrará o progresso.") |
|
|
|
|
|
api.upload_large_folder( |
|
|
folder_path=folder_path, |
|
|
repo_id=repo_id, |
|
|
repo_type="dataset", |
|
|
num_workers=workers, |
|
|
|
|
|
|
|
|
) |
|
|
|
|
|
print(f"\n✅ Sucesso! Dataset sincronizado em: https://huggingface.co/datasets/{repo_id}") |
|
|
|
|
|
except Exception as e: |
|
|
print(f"\n❌ Erro durante o upload: {e}") |
|
|
sys.exit(1) |
|
|
|
|
|
if __name__ == "__main__": |
|
|
parser = argparse.ArgumentParser(description="Upload de Grandes Datasets para o Hugging Face Hub") |
|
|
|
|
|
|
|
|
parser.add_argument("--token", type=str, required=True, help="Seu User Access Token do Hugging Face (Write permission)") |
|
|
parser.add_argument("--repo_id", type=str, required=True, help="ID do repositório (ex: usuario/meu-dataset-grande)") |
|
|
parser.add_argument("--path", type=str, required=True, help="Caminho local da pasta do dataset") |
|
|
|
|
|
|
|
|
parser.add_argument("--private", action="store_true", help="Se definido, cria o repositório como privado") |
|
|
parser.add_argument("--workers", type=int, default=8, help="Número de conexões simultâneas (padrão: 8). Aumente se tiver internet rápida.") |
|
|
|
|
|
args = parser.parse_args() |
|
|
|
|
|
upload_dataset( |
|
|
token=args.token, |
|
|
repo_id=args.repo_id, |
|
|
folder_path=args.path, |
|
|
private=args.private, |
|
|
workers=args.workers |
|
|
) |