Tucano2-qwen-0.5B-Instruct
Model Summary
Tucano2-qwen-0.5B-Instruct is an instruction-tuned Portuguese language model built on top of Tucano2-qwen-0.5B-Base. It has been trained using a combination of one round of supervised fine-tuning (SFT) and one round of Anchored Preference Optimization (APO).
Despite its compact size, the model delivers strong performance across a wide range of Portuguese benchmarks and supports tasks such as retrieval-augmented generation, function calling and tool use, summarization, and structured output generation, among others.
All datasets, source code, and training recipes used to develop the Tucano2 series are fully open and reproducible.
Details
- Architecture: a Transformer-based model (
qwen3) - Size: 490,799,104 parameters
- Context length: 4,096 tokens
- Dataset(s):
- Training time: ~ 16 hours
- Emissions: 12.7 KgCO2 (Germany)
- Total energy consumption: 33 kWh
This repository has the source code used to train this model. The full configuration used for training is available in the following config files:
- Single stage Supervised Fine-Tuning (linear warmup with cosine decay): training_config_sft.yaml
- Single stage Anchored Preference Optimization (linear warmup with cosine decay): training_config_apo.yaml
- Training Logs (loss, lr, rewards, etc.): train_logs_apo.parquet, train_logs_sft.parquet
Intended Uses
The primary intended use Tucano2-qwen-0.5B-Instruct is to serve as foundations for research and development involving Portuguese language modeling. You may also fine-tune and adapt Tucano2-qwen-0.5B-Instruct for deployment if your use follows the Apache 2.0 license. If you decide to use Tucano2-qwen-0.5B-Instruct as a basis for your fine-tuned model, please conduct your own risk and bias assessment.
Basic usage
from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig
import torch
# Load model and tokenizer
model_id = "Polygl0t/Tucano2-qwen-0.5B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
device_map="auto"
)
# Configure generation parameters
generation_config = GenerationConfig(
do_sample=True,
temperature=0.1,
top_k=50,
top_p=1.0,
repetition_penalty=1.2,
max_new_tokens=150,
pad_token_id=tokenizer.eos_token_id,
)
# Prepare chat messages
messages = [
{"role": "user", "content": "Qual é a capital de Moçambique?"}
]
# Apply chat template and generate
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
with torch.no_grad():
outputs = model.generate(**inputs, generation_config=generation_config)
# Decode and print response
response = tokenizer.decode(outputs[0][len(inputs.input_ids[0]):], skip_special_tokens=True)
print(f"🤖 {response}")
Limitations
Like almost all other language models trained on large text datasets scraped from the web, the Tucano2-qwen-0.5B-Instruct shows behavior that does not make it an out-of-the-box solution to many real-world applications, especially those requiring factual, reliable, and nontoxic text generation. Tucano2-qwen-0.5B-Instruct is subject to the following:
Hallucinations: Tucano2-qwen-0.5B-Instruct can produce content that can be mistaken as true facts, but are misleading or entirely false, i.e., hallucination.
Biases and Toxicity: Tucano2-qwen-0.5B-Instruct inherits the social and historical stereotypes from the data used to train it. Given these biases, the model can produce toxic content, i.e., harmful, offensive, or detrimental to individuals, groups, or communities.
Language Limitations: Tucano2-qwen-0.5B-Instruct is primarily designed to interact with Portuguese. Other languages might challenge its comprehension, leading to potential misinterpretations or errors in response.
Repetition and Verbosity: Tucano2-qwen-0.5B-Instruct may get stuck on repetition loops (especially if the repetition penalty during generations is set to a meager value) or produce verbose responses unrelated to the prompt it was given.
Hence, even though Tucano2-qwen-0.5B-Instruct is released with a permissive license, we urge users to perform their risk analysis on them if they intend to use them for real-world applications.
Evaluations
The table below compares the Tucano2 (Instruct variant) series against other chat models of similar size. We divide our evaluations into three sets:
- Knowledge & Reasoning: ARC-Challenge, ENEM, BLUEX, OAB Exams, BELEBELE, MMLU, GSM8K-PT
- Instruction Following: IFEval-PT
- Coding: HumanEval
The NPM (Normalized Performance Metric) provides a balanced view of model performance across tasks, accounting for each task's inherent difficulty by normalizing its evaluation score relative to its random baseline.
| Total Avg. | Knowledge & Reasoning (NPM) | Instruction Following | Coding | |
|---|---|---|---|---|
| Tucano2-qwen-3.7B-Instruct | 53.64 | 56.22 | 41.67 | 47.56 |
| Jurema-7B | 53.03 | 50.66 | 47 | 75.61 |
| Qwen2.5-3B-Instruct | 51.71 | 47.34 | 63.33 | 70.73 |
| Qwen3-4B | 51.36 | 42.33 | 79.33 | 86.59 |
| Gemma-3-Gaia-PT-BR-4b-it | 49.93 | 45 | 70.33 | 64.02 |
| SmolLM3-3B | 49.54 | 43.99 | 69.67 | 68.29 |
| Llama-3.2-3B-Instruct | 45.82 | 43.08 | 62.67 | 48.17 |
| Qwen2.5-1.5B-Instruct | 41.39 | 40.25 | 42 | 48.78 |
| Tucano2-qwen-1.5B-Instruct | 37.54 | 39.61 | 34.33 | 26.22 |
| Qwen3-1.7B | 36.3 | 28.24 | 65 | 64.02 |
| Tucano2-qwen-0.5B-Instruct | 26.08 | 27.77 | 30 | 10.37 |
| Qwen3-0.6B | 22.21 | 15.13 | 55 | 39.02 |
| Llama-3.2-1B-Instruct | 20.14 | 15.37 | 44.33 | 29.27 |
| Qwen2.5-0.5B-Instruct | 17.8 | 14.98 | 31 | 24.39 |
| Tucano-2b4-Instruct | 3.78 | 2.71 | 15 | 0 |
| Tucano-1b1-Instruct | 2.59 | 1.42 | 13.33 | 0 |
| TeenyTinyLlama-460m-Chat | 0.07 | -1.68 | 12.33 | 0 |
Evaluation Suite
| Benchmark | n-shot | Type | Baseline | Metric |
|---|---|---|---|---|
| Knowledge & Reasoning | ||||
| ARC-Challenge | 5-shot | MC-Q&A | 25 | acc_norm |
| ENEM | 3-shot | MC-Q&A | 20 | acc |
| BLUEX | 3-shot | MC-Q&A | 22.5 | acc |
| OAB Exams | 3-shot | MC-Q&A | 25 | acc |
| BELEBELE | 5-shot | MC-Q&A | 25 | acc_norm |
| MMLU | 5-shot | MC-Q&A | 25 | acc |
| GSM8K-PT | 0-shot | Math Problems | 0 | flexible-extract |
| Instruction Following | ||||
| IFEval-PT | 0-shot | Instruction | 0 | prompt_level_loose_acc |
| Coding | ||||
| HumanEval | 0-shot | Coding | 0 | pass@1 |
Individual Benchmarks
| BLUEX | ENEM | OAB | ARC Challenge | BELEBELE | MMLU | IFEval-PT | GSM8K-PT | HumanEval | |
|---|---|---|---|---|---|---|---|---|---|
| Tucano2-qwen-3.7B-Instruct | 64.53 | 72.92 | 54.31 | 60.34 | 85.22 | 64.64 | 41.67 | 53.81 | 47.56 |
| Jurema-7B | 63.42 | 70.96 | 64.97 | 52.56 | 88.44 | 49.91 | 47 | 30.29 | 75.61 |
| Qwen2.5-3B-Instruct | 56.88 | 68.65 | 46.79 | 41.71 | 84 | 58.22 | 63.33 | 51.9 | 70.73 |
| Qwen3-4B | 63.28 | 72.15 | 50.3 | 43.08 | 83.67 | 26.93 | 79.33 | 39.88 | 86.59 |
| Gemma-3-Gaia-PT-BR-4b-it | 50.9 | 64.52 | 43.46 | 54.7 | 78.89 | 51.49 | 70.33 | 51.29 | 64.02 |
| SmolLM3-3B | 53.55 | 64.73 | 41 | 52.74 | 78.67 | 53.23 | 69.67 | 44.44 | 68.29 |
| Llama-3.2-3B-Instruct | 52.02 | 59.13 | 44.97 | 43.93 | 78.56 | 52.14 | 62.67 | 55.1 | 48.17 |
| Qwen2.5-1.5B-Instruct | 52.02 | 61.79 | 44.28 | 39.74 | 76 | 51.91 | 42 | 42.16 | 48.78 |
| Tucano2-qwen-1.5B-Instruct | 52.85 | 62.7 | 43.42 | 50.26 | 77.56 | 52.54 | 34.33 | 19.71 | 26.22 |
| Qwen3-1.7B | 50.49 | 58.64 | 32.62 | 36.67 | 64.89 | 30.56 | 65 | 26.94 | 64.02 |
| Tucano2-qwen-0.5B-Instruct | 40.33 | 53.6 | 40.73 | 38.63 | 62.33 | 41.46 | 30 | 18.49 | 10.37 |
| Qwen3-0.6B | 34.91 | 41.15 | 29.75 | 30.51 | 37.11 | 26.48 | 55 | 31.66 | 39.02 |
| Llama-3.2-1B-Instruct | 30.04 | 34.01 | 30.84 | 32.82 | 41.56 | 35.15 | 44.33 | 26.56 | 29.27 |
| Qwen2.5-0.5B-Instruct | 30.18 | 34.08 | 29.34 | 27.44 | 50.67 | 39.54 | 31 | 14.69 | 24.39 |
| Tucano-2b4-Instruct | 25.87 | 20.01 | 26.74 | 31.97 | 24 | 26.72 | 15 | 2.05 | 0 |
| Tucano-1b1-Instruct | 22.95 | 19.94 | 25.33 | 30 | 24.89 | 25.59 | 13.33 | 1.67 | 0 |
| TeenyTinyLlama-460m-Chat | 17.25 | 18.19 | 19.73 | 26.84 | 22.89 | 26.97 | 12.33 | 2.05 | 0 |
Inference Samples on Various Tasks
Coding
Prompt:
<|im_start|>system
Você é um mentor técnico com foco em programação. Ensine o usuário com exemplos, analogias e linguagem acessível.<|im_end|>
<|im_start|>user
Como eu posso abrir um arquivo CSV em Python usando a biblioteca pandas?<|im_end|>
<|im_start|>assistant
Response:
Para abrir um arquivo CSV utilizando a biblioteca Pandas em Python, você pode seguir os passos abaixo:
1. **Importar Bibliotecas Necessárias**: Primeiro, certifique-se de ter instalado tanto `pandas` quanto `csv`. Caso contrário, instale-os via pip (`pip install pandas`) antes de prosseguirmos. Em seguida, importe as bibliotecas necessárias no início do seu script ou notebook Jupyter:
```python
import pandas as pd
import csv
```
2. **Abrir Arquivo CSV Usando Função read_csv()**: A função `pd.read_csv()` permite ler dados de arquivos CSV diretamente na memória. Aqui está como fazer isso:
```python
df = pd.read_csv('caminho/para/seuarquivo.csv')
print(df) # Imprime todos os registros presentes no DataFrame criado pelo dataframe df
```
3. **Verificar Conteúdo dos Dados Lidos**: Após carregar seus dados num objeto DataFrame, verifique se tudo foi lido corretamente através da exibição das colunas disponíveis nesse DataFrame:
```python
print(df.columns) # Exibe todas as colunas existentes nos dados
```
4. **Fechar O Arquivo Corretamente**: É importante lembrar que após terminar qualquer operação sobre esse arquivo, devemos fechar explicitamente nosso fluxo de trabalho para evitar problemas futuros relacionados à persistência desses recursos. Isso geralmente envolve chamar uma instrução `with`, onde especificamos qual método usar dependendo do contexto (como abrir/ler/gravar):
5. **Manipulação De Erros E Validação Dos Dados** : Dependendo do caso específico, talvez seja necessário validar ainda mais esses dados contra algum esquema pré-definido - por exemplo, verificar valores ausentes, duplicatas etc., além disso também poderiam ser feitas transformações básicas nestes conjuntos de dados conforme necessidades específicas exigidas pela aplicação final desejada.
Essencialmente, essa abordagem garante não só a capacidade básica de leitura mas também manipulação eficiente destes grandes volumes de informação armazenados numa única tabela unificada chamada "DataFrame". Além disto, mantém intacta toda infraestrutura subjacente responsável pelas operações realizadas durante todo este processo desde a localização inicial até mesmo eventual salvamento posterior deste conjunto particular de informações.<|im_end|>
Math
Prompt:
<|im_start|>user
Como eu posso resolver o seguinte problema: 2x + 3 = 11?<|im_end|>
<|im_start|>assistant
Response:
Para resolver a equação linear 2x + 3 = 11, siga estes passos:
Etapa 1: subtraia 3 de ambos os lados da equação. Isso eliminará o termo constante no lado esquerdo e isolará x em um lado da equação.
2x + 3 - 3 = 11 - 3
2x = 8
Passo 2: Divida ambos os lados por 2. Para obter o valor de x, divida cada termo pelo coeficiente do seu lado direito (que é 2).
(2x) / 2 = 8/2
x = 4
Portanto, a solução para a equação 2x + 3 = 11 é x = 4.<|im_end|>
Retrieval
Prompt:
<|im_start|>system
Você é um assistente que utiliza apenas dados extraídos do contexto para responder perguntas. Quando o contexto for insuficiente, diga claramente que não é possível gerar uma resposta com os dados disponíveis.<|im_end|>
<|im_start|>user
De quem o autor to texto abaixo está se referindo?
<context>
Não aceito que o Sr. Deputado Manuel dos Santos ou qualquer outro Deputado desta Câmara me julgue menos sério do que vós. Não aceito isso de ninguém e foi isso o que o Sr. Deputado Manuel dos Santos aqui disse, ao proferir aquele rol de inverdades e de excessos acerca da maioria.
</context><|im_end|>
<|im_start|>assistant
Response:
O autor deste trecho parece estar falando sobre si mesmo (ou possivelmente alguém próximo dele), mas também pode ser referenciado como "Sr." Manuel dos Santos na frase dada. Portanto, a resposta à pergunta seria: Sim, ele está se referindo ao Sr. Manuel dos Santos.<|im_end|>
Structured Output
Prompt:
<|im_start|>system
Sempre responda em formato JSON estruturado conforme solicitado.<|im_end|>
<|im_start|>user
Extraia e resuma as informações principais do e-mail abaixo. Escreva sua resposta (em formato JSON) contendo as seguintes chaves: 'assunto', 'remetente', 'destinatário', 'resumo'. Aqui está o e-mail:
Assunto: RE: Atualização sobre o Projeto de Conservação de Bacias Hidrográfica
Carlos,
Obrigado por enviar o currículo atualizado. Tive a oportunidade de revisá-lo e achei que ficou ótimo! Você fez um excelente trabalho ao tornar as informações acessíveis e envolventes para uma ampla audiência.
Em relação à possível resistência dos membros da comunidade, concordo que devemos estar preparados para abordar suas preocupações. Uma ideia que tive foi incluir alguns exemplos práticos de como o uso indevido das águas no rio Amazonas ou na Baía de Guanabara e o descarte incorreto de resíduos sólidos têm prejudicado essas áreas. Ouvi-los falar diretamente sobre as consequências pode ser muito mais persuasivo do que simplesmente mostrar dados estatísticos.
Além disso, também considero importante destacarmos os ganhos econômicos trazidos pela adoção de práticas mais sustentáveis, como tarifas de água menores e gastos diminutos relacionados à limpeza urbana. No final das contas, as pessoas costumam responder bem quando veem vantagens tangíveis além dos aspectos puramente ambientais.
Diga-me o que você pensa dessas sugestões! Ficarei contente em ajudar a desenvolver ainda mais estratégias para vencer essa resistência e engajar as pessoas nessa nossa jornada.
Atenciosamente,
Helena<|im_end|>
<|im_start|>assistant
Response:
```json
{
"assunto": "RE: Atualização sobre o Projeto de Conservação de Bacias Hidrográficas",
"remetente": "Helena",
"destinatario": "Carlos",
"resumo": "A remetente elogia o novo currículo enviado pelo destinatário, enfocando seu potencial impacto positivo nas comunidades locais através de casos reais de poluição hídrica e redução nos custos urbanos associados."
}
```<|im_end|>
Rewriting
Prompt:
<|im_start|>user
Remova todas as informações irrelevantes da frase a seguir.
"O novo restaurante que abriu no centro da cidade, de propriedade do primo de Jorge, que costumava ser chef de um restaurante em Ipanema, serve uma variedade de cozinhas de todo o mundo."<|im_end|>
<|im_start|>assistant
Response:
O novo restaurante localizado no centro da cidade, de propriedade do primo de Jorge, anteriormente conhecido como chefe de um estabelecimento em Ipanema, oferece diversas culinárias internacionais.<|im_end|>
Function Call / Tool Use
Prompt:
<|im_start|>system
Utilize as ferramentas para resolver as tarefas que o usuário lhe solicitar. Se as ferramentas forem insuficientes, explique ao usuário que não é possível completar a tarefa.
\# Tools / Ferramentas
Você pode chamar uma ou mais funções para auxiliar na consulta do usuário.
Você recebe assinaturas de funções dentro de tags XML <tools></tools>:
<tools>
{"type": "function", "function": {"name": "create_todo", "description": "Cria uma nova tarefa no aplicativo de todo.", "parameters": {"type": "object", "properties": {"task_description": {"type": "string", "description": "Descrição da tarefa a ser criada."}, "due_date": {"type": "string", "description": "Data de entrega da tarefa no formato YYYY-MM-DD."}}, "required": ["task_description", "due_date"]}}}
</tools>
Para cada chamada de função, retorne um objeto json com o nome da função e os argumentos dentro das tags XML <tool_call></tool_call>:
<tool_call>
{"name": <function-name>, "arguments": <args-json-object>}
</tool_call><|im_end|>
<|im_start|>user
Eu preciso criar uma nova tarefa para o meu projeto.<|im_end|>
<|im_start|>assistant
Claro, eu posso ajudar com isso. Você poderia, por favor, me fornecer a descrição da tarefa e a data de entrega?<|im_end|>
<|im_start|>user
A tarefa é finalizar o relatório do projeto e a data de entrega é 2022-03-15.<|im_end|>
<|im_start|>assistant
Response:
<tool_call>
{"name": "create_todo", "arguments": {"task_description": "Finalize the project report", "due_date": "2022-03-15"}}
</tool_call><|im_end|>
System Prompts / Steering
Prompt:
<|im_start|>system
Você é Jack Sparrow, o famoso pirata dos filmes. Responda às perguntas do usuário como se fosse ele, usando seu estilo característico.<|im_end|>
<|im_start|>user
Quais são os melhores lugares para encontrar um tesouro escondido?<|im_end|>
<|im_start|>assistant
Response:
Bem, meu amigo, você está procurando por uma aventura de tesouros, certo? Tudo bem então! Eu tenho algumas dicas que podem te ajudar a descobrir esse suposto tesouro oculto:
1. Ilhas Desabitadas: Essas são geralmente as mais procuradas pelos buscadores de tesouros. Elas estão vazias e intocadas pelo homem civilizado, tornando-as perfeitas para esconder algo valioso ou misterioso.
2. O Mar das Trevas (Deep Blue Sea): Este mar profundo tem sido objeto de muita especulação sobre ser lar de riquezas escondidas. Se estiver interessado nisso, pode querer dar uma olhada nos livros "O Livro da Vida Marinha" ou assistir ao filme "A Ilha Perdida".
3. As Terras Altas Escocesas: Há rumores de haver ouro nas montanhas névoas lá em cima. Mas lembre-se, não há nenhum lugar real onde possa encontrá-lo; apenas lendas urbanas.
4. A Floresta Amazônica: Alguns dizem que existe um lendário baú cheio de moedas de ouro enterrado sob árvores antigas na selva amazônica. Claro, isso só serve pra aumentar suas expectativas... mas quem sabe? Talvez seja verdade algum dia.
5. Os Lagos Mediterrâneos: Dizem estar cheios de pepinos gigantes com pregos no fundo. Embora eles possam parecer bizarros à primeira vista, esses lagos têm histórias próprias e segredos esperando serem descobertos.
Lembre-se, estas são meros contos de fogueiras e nada além disso. Boa sorte nessa busca pela fortuna perdida!<|im_end|>
Similarity Scoring
Prompt:
<|im_start|>user
Frase 1: O artista pintou um quadro inspirado nos campos floridos da primavera.
Frase 2: O criador produziu uma obra que representava paisagens urbanas cinzentas.
Pergunta: Qu\u00e3o similares s\u00e3o as duas frases? D\u00ea uma pontua\u00e7\u00e3o entre 1,0 a 5,0.
Resposta:<|im_end|>
<|im_start|>assistant
Response:
2.5. As duas frases tratam sobre obras de arte, mas diferem significativamente nas descrições - uma fala sobre flores na primavera enquanto outra menciona cidades cinzentas, resultando numa pontuação média de similaridade de 2.5.<|im_end|>
Classification
Prompt:
<|im_start|>user
Classifique o sentimento da seguinte resenha de filme como 'Positiva', 'Negativa' ou 'Neutra':
"O filme foi uma experiência cinematográfica incrível, com atuações excepcionais e uma trama envolvente que me manteve na ponta da cadeira do começo ao fim."<|im_end|>
<|im_start|>assistant
Response:
Sentimento: Positivo.<|im_end|>
Below, we compare the performance of Tucano2-qwen-0.5B-Instruct with Qwen3-0.6B, a strong baseline in the 0.5B parameter range. The percentages represent the absolute difference in performance between the two models on each benchmark. All other plots can be found in the .plots folder.
Tucano2-qwen-0.5B-Instruct vs Qwen3-0.6B
Cite as 🤗
@misc{correa2026tucano2cool,
title={{Tucano 2 Cool: Better Open Source LLMs for Portuguese}},
author={Nicholas Kluge Corr{\^e}a and Aniket Sen and Shiza Fatimah and Sophia Falk and Lennard Landgraf and Julia Kastner and Lucie Flek},
year={2026},
eprint={2603.03543},
archivePrefix={arXiv},
primaryClass={cs.CL},
url={https://arxiv.org/abs/2603.03543},
}
Aknowlegments
Polyglot is a project funded by the Federal Ministry of Education and Research (BMBF) and the Ministry of Culture and Science of the State of North Rhine-Westphalia (MWK) as part of TRA Sustainable Futures (University of Bonn) and the Excellence Strategy of the federal and state governments.
We also gratefully acknowledge the granted access to the Marvin cluster hosted by University of Bonn along with the support provided by its High Performance Computing & Analytics Lab.
License
Tucano2-qwen-0.5B-Instruct is licensed under the Apache License, Version 2.0. For more details, see the LICENSE file.
- Downloads last month
- 31
Model tree for Polygl0t/Tucano2-qwen-0.5B-Instruct
Datasets used to train Polygl0t/Tucano2-qwen-0.5B-Instruct
Collection including Polygl0t/Tucano2-qwen-0.5B-Instruct
Paper for Polygl0t/Tucano2-qwen-0.5B-Instruct
Evaluation results
- Acc-norm on ARC Challengetest set arc_challenge_poly_pt38.630
- Acc on MMLUtest set mmlu_poly_pt41.460
- Acc-norm on BELEBELEtest set belebele_por_Latn62.330
- Acc on BLUEXbluex40.330
- Acc on ENEM Challengeenem_challenge53.600
- Acc on OAB Examsoab_exams40.730
- Acc-loose on IFEvalifeval_pt41.860
- Acc-loose on IFEvalifeval_pt30.000
- Acc-flex on GSM8Ktest set gsm8k_pt18.490
- pass@1 on HumanEvaltest set source10.360


