Atlantica 1B PT-BR Instruct

Atlantica-1B-PT-BR é um modelo de linguagem instruct com aproximadamente 1 bilhão de parâmetros, ajustado especificamente para português brasileiro por meio de fine-tuning supervisionado.


📌 Informações do Fine-Tuning

  • Desenvolvedor: thejpdev
  • Modelo base: unsloth/llama-3.2-1b-instruct-bnb-4bit
  • Dataset de fine-tuning: thejpdev/atlantica-dts-572k-pt-br
  • Tamanho do dataset: ~572k exemplos
  • Idioma: Português Brasileiro
  • Método: Supervised Fine-Tuning (LoRA / QLoRA)
  • Framework: Hugging Face Transformers + Unsloth

O dataset atlantica-dts-572k-pt-br foi construído a partir da agregação, normalização e padronização de múltiplos conjuntos públicos em português, com foco em instruções e respostas.


🧠 Objetivo do Modelo

O Atlantica-1B-PT-BR foi ajustado para:

  • Seguir instruções em português brasileiro
  • Responder perguntas abertas e contextuais
  • Classificação simples de texto
  • Tarefas educacionais e benchmarks em PT-BR
  • Inferência local leve (ex: LM Studio, GGUF)

Devido ao seu tamanho, o modelo é mais adequado para tarefas gerais e ambientes com recursos limitados.


🧪 Avaliação

O modelo foi avaliado utilizando benchmarks em português, incluindo:

  • ENEM (challenge)
  • TweetSentBR (análise de sentimentos)
  • Bluex

Os resultados indicam desempenho consistente com modelos de pequeno porte treinados especificamente para instruções em português.


💻 Uso Local

Versões convertidas para GGUF estão disponíveis para uso em ferramentas como LM Studio.

Configuração recomendada:

  • Contexto máximo: até 2048 tokens
  • Temperatura: 0.6 – 0.8

English Version

Atlantica 1B PT-BR Instruct

Atlantica-1B-PT-BR is a 1 billion parameter instruct language model fine-tuned specifically for Brazilian Portuguese.

Although derived from unsloth/llama-3.2-1b-instruct-bnb-4bit, the final behavior has been significantly altered through supervised fine-tuning and should not be considered equivalent to the base model.


Fine-Tuning Details

  • Developer: thejpdev
  • Base model: unsloth/llama-3.2-1b-instruct-bnb-4bit
  • Fine-tuning dataset: thejpdev/atlantica-dts-572k-pt-br
  • Dataset size: ~572k samples
  • Language: Brazilian Portuguese
  • Method: Supervised Fine-Tuning (LoRA / QLoRA)
  • Framework: Hugging Face Transformers + Unsloth

Model Purpose

Atlantica-1B-PT-BR is designed for:

  • Instruction following in Brazilian Portuguese
  • Open-ended question answering
  • Basic text classification
  • Educational and benchmark-style tasks
  • Lightweight local inference (LM Studio / GGUF)

Due to its size, the model is best suited for general-purpose tasks and resource-constrained environments.

Downloads last month
46
Safetensors
Model size
1B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for thejpdev/atlantica-1b-pt-br-v1.0

Quantizations
1 model

Dataset used to train thejpdev/atlantica-1b-pt-br-v1.0