📚 GigaVerbo Clean — Portuguese Text Cleaning & Dedup Pipeline
Author: Tiago Loeblein Version: v76 Status: Active — production-grade cleaning pipeline for large-scale PT datasets License: Same as the source datasets (inherited)
🧠 Overview
GigaVerbo Clean é um dataset processado a partir do TucanoBR/GigaVerbo, contendo bilhões de tokens em português. Este repositório não é o dataset original, mas sim uma contribuição independente oferecendo:
pipeline robusto de limpeza,
deduplicação exata via SHA-256,
filtragem por idioma,
normalização pesada,
classificação semântica simples,
logs completos e reprodutíveis,
suporte para dezenas de milhões de linhas.
O foco aqui é fornecer dados limpos, consistentes e prontos para treinamento em modelos de linguagem, com garantia de ordenação determinística e remoção eficaz de ruído, duplicatas e lixo textual.
🔗 Dataset Original (Base)
Este projeto utiliza como base o dataset público:
➡️ TucanoBR/GigaVerbo https://huggingface.co/datasets/TucanoBR/GigaVerbo
O README completo, detalhes de licença e estatísticas do dataset original estão na página acima. Não duplicamos o texto do README original aqui para evitar redundância e ambiguidades.
🛠️ Cleaning Pipeline (v76)
O script de limpeza desenvolvido para este projeto é totalmente reproduzível, determinístico e otimizado para rodar em escala, processando arquivos .parquet muito grandes sem perder consistência.
⚙️ Principais funcionalidades
✔ Filtragem por idioma (Lingua) Mantém apenas textos com confiança ≥ 0.80 para português.
✔ Remoção de lixo e metadados
pornografia
spam
padrões de código
headings repetitivos
URLs, e-mails, CPFs, telefones, RGs
conteúdo truncado
✔ Normalização forte
limpeza de whitespace
flatten de múltiplos espaços
remoção de caracteres estranhos
limpeza de prefixos invisíveis
tamanho mínimo de texto (≥ 25 chars)
✔ Classificação rápida por padrão Cria coluna category com:
instruct
question
factual
other
✔ Hashing & deduplicação Gera coluna sha para cada texto → remove duplicatas exatas via .unique(subset=["sha"])
✔ IDs determinísticos sequenciais
IDs crescem de arquivo para arquivo
Baseados em last_id.txt na pasta
Ordem final sempre garantida via sort("id")
✔ Logs extremamente detalhados Para cada arquivo:
lista de IDs removidos por categoria
primeiro e último ID criado
totalizadores por etapa
log individual: train-00005-of-01573_clean.log
✔ Compatível com SPLIT opcional Se ativado:
quebra em sentenças usando BlingFire
mantém id_original
gera SHA e categoria para cada sentença
📦 Estrutura Final dos Arquivos
Cada arquivo de entrada gera:
train-00005-of-01573_clean_full.parquet train-00005-of-01573_clean.log
Opcionalmente:
train-00005-of-01573_clean_full.csv train-00005-of-01573_clean_split.parquet
🧩 Como usar
- Coloque o script v76 na mesma pasta dos parquets
Os arquivos devem seguir o padrão:
train-00005-of-01573.parquet train-00006-of-01573.parquet ...
- Crie o arquivo de controle do ID
last_id.txt:
461860
(Esse é o último ID pós-arquivo 00004.)
- Execute python clean_v76.py
Ele irá:
✔ detectar todos os parquets ✔ ordenar numericamente ✔ processar um por um ✔ gerar IDs na sequência ✔ atualizar o last_id.txt ✔ gerar arquivos limpos + logs
🔍 Motivações
O dataset original contém:
textos excelentes,
textos médios,
textos ruins,
textos traduzidos artificialmente,
duplicatas,
lixo estrutural,
dados sensíveis,
ruído sintático.
O objetivo desta contribuição é oferecer um pipeline controlável e transparente, totalmente ajustável para pesquisadores que desejam modelos de alta qualidade em português.
⚠️ Atenção: limitações
O dataset original pode conter dados pessoais; o script tenta remover, mas não há garantias.
Traduções automáticas presentes no GigaVerbo podem degradar alguns exemplos.
O categorizador instruct/question/factual é heurístico, não anotado manualmente.
Não é um filtro semântico profundo (por design).
A limpeza é agressiva — textos muito curtos ou com ruído estrutural são descartados.
📥 Código
O script completo v76 está neste repositório:
clean_parquet_v76.py
Se quiser, posso gerar também:
versão minimalista,
versão com multithreading,
versão que salva também estatísticas globais.
🤝 Contribuições
Sinta-se à vontade para abrir issues, PRs ou sugerir novos padrões de limpeza. Este repositório é construído com foco em transparência, performance e utilidade prática.
📜 Citação
Se utilizar este pipeline ou o dataset limpo, cite também o trabalho original:
@misc{correa2024tucanoadvancingneuraltext, title={{Tucano: Advancing Neural Text Generation for Portuguese}}, author={Corr{^e}a, Nicholas Kluge and Sen, Aniket and Falk, Sophia and Fatimah, Shiza}, year={2024}, eprint={2411.07854}, archivePrefix={arXiv}, primaryClass={cs.CL}, url={https://arxiv.org/abs/2411.07854}, }