Atlantica 1B PT-BR Instruct
Atlantica-1B-PT-BR é um modelo de linguagem instruct com aproximadamente 1 bilhão de parâmetros, ajustado especificamente para português brasileiro por meio de fine-tuning supervisionado.
📌 Informações do Fine-Tuning
- Desenvolvedor: thejpdev
- Modelo base:
unsloth/llama-3.2-1b-instruct-bnb-4bit - Dataset de fine-tuning:
thejpdev/atlantica-dts-572k-pt-br - Tamanho do dataset: ~572k exemplos
- Idioma: Português Brasileiro
- Método: Supervised Fine-Tuning (LoRA / QLoRA)
- Framework: Hugging Face Transformers + Unsloth
O dataset atlantica-dts-572k-pt-br foi construído a partir da agregação, normalização e padronização de múltiplos conjuntos públicos em português, com foco em instruções e respostas.
🧠 Objetivo do Modelo
O Atlantica-1B-PT-BR foi ajustado para:
- Seguir instruções em português brasileiro
- Responder perguntas abertas e contextuais
- Classificação simples de texto
- Tarefas educacionais e benchmarks em PT-BR
- Inferência local leve (ex: LM Studio, GGUF)
Devido ao seu tamanho, o modelo é mais adequado para tarefas gerais e ambientes com recursos limitados.
🧪 Avaliação
O modelo foi avaliado utilizando benchmarks em português, incluindo:
- ENEM (challenge)
- TweetSentBR (análise de sentimentos)
- Bluex
Os resultados indicam desempenho consistente com modelos de pequeno porte treinados especificamente para instruções em português.
💻 Uso Local
Versões convertidas para GGUF estão disponíveis para uso em ferramentas como LM Studio.
Configuração recomendada:
- Contexto máximo: até 2048 tokens
- Temperatura: 0.6 – 0.8
English Version
Atlantica 1B PT-BR Instruct
Atlantica-1B-PT-BR is a 1 billion parameter instruct language model fine-tuned specifically for Brazilian Portuguese.
Although derived from unsloth/llama-3.2-1b-instruct-bnb-4bit, the final behavior has been significantly altered through supervised fine-tuning and should not be considered equivalent to the base model.
Fine-Tuning Details
- Developer: thejpdev
- Base model:
unsloth/llama-3.2-1b-instruct-bnb-4bit - Fine-tuning dataset:
thejpdev/atlantica-dts-572k-pt-br - Dataset size: ~572k samples
- Language: Brazilian Portuguese
- Method: Supervised Fine-Tuning (LoRA / QLoRA)
- Framework: Hugging Face Transformers + Unsloth
Model Purpose
Atlantica-1B-PT-BR is designed for:
- Instruction following in Brazilian Portuguese
- Open-ended question answering
- Basic text classification
- Educational and benchmark-style tasks
- Lightweight local inference (LM Studio / GGUF)
Due to its size, the model is best suited for general-purpose tasks and resource-constrained environments.
- Downloads last month
- 46