Datasets:
metadata
language:
- pt
license: apache-2.0
size_categories:
- 1M<n<10M
task_categories:
- text-generation
- fill-mask
tags:
- portuguese
- brazilian
- pretrain
- slm
- edge-ai
pretty_name: NBR-500 Corpus
dataset_info:
features:
- name: text
dtype: string
splits:
- name: train
num_examples: 3891783
NBR-500 Corpus
🇧🇷 Corpus de pré-treinamento para o modelo NBR-500 - Um Small Language Model de 500M parâmetros otimizado para Português Brasileiro.
📊 Estatísticas
| Métrica | Valor |
|---|---|
| Documentos | 3.89M |
| Tokens | ~1.5B |
| Idioma | Português Brasileiro |
| Formato | Parquet |
🔍 Pipeline de Processamento
O dataset passou por um rigoroso pipeline de qualidade baseado no SmolLM Training Playbook:
Filtragem de Qualidade
- Remoção de textos curtos (< 100 caracteres)
- Remoção de conteúdo repetitivo
- Filtragem de spam e baixa qualidade
Detecção de Idioma
- FastText LID para garantir 100% português
- Threshold de confiança > 0.8
Deduplicação
- MinHash LSH (datasketch)
- Remoção de near-duplicates
📁 Fontes
- Wikipedia PT-BR
- CulturaX Portuguese
- OSCAR Portuguese
- Outros corpora brasileiros
🚀 Uso
from datasets import load_dataset
dataset = load_dataset("limajr/nbr-500-corpus", split="train")
for example in dataset:
print(example["text"][:200])
break
🎯 Propósito
Este corpus foi criado especificamente para treinar o NBR-500, um modelo de linguagem pequeno e eficiente para:
- ✅ Execução em dispositivos de borda (Edge AI)
- ✅ Aplicações em Português Brasileiro
- ✅ Baixa latência e consumo de memória
- ✅ Quantização para GGUF (Q4, Q8)
📦 Modelo Relacionado
- Modelo: limajr/nbr-500
- Tokenizer: BPE nativo com 32k vocabulário (46% mais eficiente que GPT-2 para PT-BR)
📜 Licença
Apache 2.0
🙏 Créditos
Baseado nas práticas do SmolLM Training Playbook da HuggingFace.