GodVerb / README.md
tiagoloeblein's picture
Create README.md
2150e9e verified

📚 GigaVerbo Clean — Portuguese Text Cleaning & Dedup Pipeline

Author: Tiago Loeblein Version: v76 Status: Active — production-grade cleaning pipeline for large-scale PT datasets License: Same as the source datasets (inherited)

🧠 Overview

GigaVerbo Clean é um dataset processado a partir do TucanoBR/GigaVerbo, contendo bilhões de tokens em português. Este repositório não é o dataset original, mas sim uma contribuição independente oferecendo:

pipeline robusto de limpeza,

deduplicação exata via SHA-256,

filtragem por idioma,

normalização pesada,

classificação semântica simples,

logs completos e reprodutíveis,

suporte para dezenas de milhões de linhas.

O foco aqui é fornecer dados limpos, consistentes e prontos para treinamento em modelos de linguagem, com garantia de ordenação determinística e remoção eficaz de ruído, duplicatas e lixo textual.

🔗 Dataset Original (Base)

Este projeto utiliza como base o dataset público:

➡️ TucanoBR/GigaVerbo https://huggingface.co/datasets/TucanoBR/GigaVerbo

O README completo, detalhes de licença e estatísticas do dataset original estão na página acima. Não duplicamos o texto do README original aqui para evitar redundância e ambiguidades.

🛠️ Cleaning Pipeline (v76)

O script de limpeza desenvolvido para este projeto é totalmente reproduzível, determinístico e otimizado para rodar em escala, processando arquivos .parquet muito grandes sem perder consistência.

⚙️ Principais funcionalidades

✔ Filtragem por idioma (Lingua) Mantém apenas textos com confiança ≥ 0.80 para português.

✔ Remoção de lixo e metadados

pornografia

spam

padrões de código

headings repetitivos

URLs, e-mails, CPFs, telefones, RGs

conteúdo truncado

✔ Normalização forte

limpeza de whitespace

flatten de múltiplos espaços

remoção de caracteres estranhos

limpeza de prefixos invisíveis

tamanho mínimo de texto (≥ 25 chars)

✔ Classificação rápida por padrão Cria coluna category com:

instruct

question

factual

other

✔ Hashing & deduplicação Gera coluna sha para cada texto → remove duplicatas exatas via .unique(subset=["sha"])

✔ IDs determinísticos sequenciais

IDs crescem de arquivo para arquivo

Baseados em last_id.txt na pasta

Ordem final sempre garantida via sort("id")

✔ Logs extremamente detalhados Para cada arquivo:

lista de IDs removidos por categoria

primeiro e último ID criado

totalizadores por etapa

log individual: train-00005-of-01573_clean.log

✔ Compatível com SPLIT opcional Se ativado:

quebra em sentenças usando BlingFire

mantém id_original

gera SHA e categoria para cada sentença

📦 Estrutura Final dos Arquivos

Cada arquivo de entrada gera:

train-00005-of-01573_clean_full.parquet train-00005-of-01573_clean.log

Opcionalmente:

train-00005-of-01573_clean_full.csv train-00005-of-01573_clean_split.parquet

🧩 Como usar

  1. Coloque o script v76 na mesma pasta dos parquets

Os arquivos devem seguir o padrão:

train-00005-of-01573.parquet train-00006-of-01573.parquet ...

  1. Crie o arquivo de controle do ID

last_id.txt:

461860

(Esse é o último ID pós-arquivo 00004.)

  1. Execute python clean_v76.py

Ele irá:

✔ detectar todos os parquets ✔ ordenar numericamente ✔ processar um por um ✔ gerar IDs na sequência ✔ atualizar o last_id.txt ✔ gerar arquivos limpos + logs

🔍 Motivações

O dataset original contém:

textos excelentes,

textos médios,

textos ruins,

textos traduzidos artificialmente,

duplicatas,

lixo estrutural,

dados sensíveis,

ruído sintático.

O objetivo desta contribuição é oferecer um pipeline controlável e transparente, totalmente ajustável para pesquisadores que desejam modelos de alta qualidade em português.

⚠️ Atenção: limitações

O dataset original pode conter dados pessoais; o script tenta remover, mas não há garantias.

Traduções automáticas presentes no GigaVerbo podem degradar alguns exemplos.

O categorizador instruct/question/factual é heurístico, não anotado manualmente.

Não é um filtro semântico profundo (por design).

A limpeza é agressiva — textos muito curtos ou com ruído estrutural são descartados.

📥 Código

O script completo v76 está neste repositório:

clean_parquet_v76.py

Se quiser, posso gerar também:

versão minimalista,

versão com multithreading,

versão que salva também estatísticas globais.

🤝 Contribuições

Sinta-se à vontade para abrir issues, PRs ou sugerir novos padrões de limpeza. Este repositório é construído com foco em transparência, performance e utilidade prática.

📜 Citação

Se utilizar este pipeline ou o dataset limpo, cite também o trabalho original:

@misc{correa2024tucanoadvancingneuraltext, title={{Tucano: Advancing Neural Text Generation for Portuguese}}, author={Corr{^e}a, Nicholas Kluge and Sen, Aniket and Falk, Sophia and Fatimah, Shiza}, year={2024}, eprint={2411.07854}, archivePrefix={arXiv}, primaryClass={cs.CL}, url={https://arxiv.org/abs/2411.07854}, }