File size: 2,623 Bytes
af11d6b
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
import argparse
import sys
from huggingface_hub import HfApi, create_repo

def upload_dataset(token, repo_id, folder_path, private, workers):
    """
    Faz o upload de uma pasta grande (Large Folder) como um Dataset para o Hugging Face Hub.
    """
    print(f"--- Iniciando processo para Dataset (Large Folder): {repo_id} ---")

    try:
        # 1. Autenticação
        api = HfApi(token=token)
        
        # 2. Criar o repositório se não existir
        print(f"Verificando/Criando repositório de dataset '{repo_id}'...")
        create_repo(
            repo_id=repo_id, 
            token=token, 
            private=private, 
            exist_ok=True, 
            repo_type="dataset"
        )
        
        # 3. Fazer o upload usando upload_large_folder
        # Essa função gerencia automaticamente múltiplos commits e tentativas
        print(f"Iniciando upload otimizado de '{folder_path}' com {workers} workers...")
        print("Isso pode demorar dependendo do tamanho do dataset. O script mostrará o progresso.")
        
        api.upload_large_folder(
            folder_path=folder_path,
            repo_id=repo_id,
            repo_type="dataset",
            num_workers=workers,  # Define quantas threads simultâneas usar
            # upload_large_folder não aceita 'commit_message' único, 
            # pois ele gera vários commits automaticamente.
        )
        
        print(f"\n✅ Sucesso! Dataset sincronizado em: https://huggingface.co/datasets/{repo_id}")

    except Exception as e:
        print(f"\n❌ Erro durante o upload: {e}")
        sys.exit(1)

if __name__ == "__main__":
    parser = argparse.ArgumentParser(description="Upload de Grandes Datasets para o Hugging Face Hub")

    # Argumentos Obrigatórios
    parser.add_argument("--token", type=str, required=True, help="Seu User Access Token do Hugging Face (Write permission)")
    parser.add_argument("--repo_id", type=str, required=True, help="ID do repositório (ex: usuario/meu-dataset-grande)")
    parser.add_argument("--path", type=str, required=True, help="Caminho local da pasta do dataset")

    # Argumentos Opcionais
    parser.add_argument("--private", action="store_true", help="Se definido, cria o repositório como privado")
    parser.add_argument("--workers", type=int, default=8, help="Número de conexões simultâneas (padrão: 8). Aumente se tiver internet rápida.")

    args = parser.parse_args()

    upload_dataset(
        token=args.token,
        repo_id=args.repo_id,
        folder_path=args.path,
        private=args.private,
        workers=args.workers
    )