Text Generation
Transformers
Safetensors
Portuguese
qwen3
text-generation-inference
conversational
Eval Results (legacy)

Tucano2-qwen-0.5B-Instruct

An illustration of a Tucano bird showing vibrant colors like yellow, orange, blue, green, and black.

Model Summary

Tucano2-qwen-0.5B-Instruct is an instruction-tuned Portuguese language model built on top of Tucano2-qwen-0.5B-Base. It has been trained using a combination of one round of supervised fine-tuning (SFT) and one round of Anchored Preference Optimization (APO).

Despite its compact size, the model delivers strong performance across a wide range of Portuguese benchmarks and supports tasks such as retrieval-augmented generation, function calling and tool use, summarization, and structured output generation, among others.

All datasets, source code, and training recipes used to develop the Tucano2 series are fully open and reproducible.

Details

This repository has the source code used to train this model. The full configuration used for training is available in the following config files:

SFT Loss Curve

SFT Loss Curve

APO Rewards

APO Rewards

Intended Uses

The primary intended use Tucano2-qwen-0.5B-Instruct is to serve as foundations for research and development involving Portuguese language modeling. You may also fine-tune and adapt Tucano2-qwen-0.5B-Instruct for deployment if your use follows the Apache 2.0 license. If you decide to use Tucano2-qwen-0.5B-Instruct as a basis for your fine-tuned model, please conduct your own risk and bias assessment.

Basic usage

from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig
import torch

# Load model and tokenizer
model_id = "Polygl0t/Tucano2-qwen-0.5B-Instruct"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    device_map="auto"
)

# Configure generation parameters
generation_config = GenerationConfig(
    do_sample=True,
    temperature=0.1,
    top_k=50,
    top_p=1.0,
    repetition_penalty=1.2,
    max_new_tokens=150,
    pad_token_id=tokenizer.eos_token_id,
)

# Prepare chat messages
messages = [
    {"role": "user", "content": "Qual é a capital de Moçambique?"}
]

# Apply chat template and generate
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)

with torch.no_grad():
    outputs = model.generate(**inputs, generation_config=generation_config)

# Decode and print response
response = tokenizer.decode(outputs[0][len(inputs.input_ids[0]):], skip_special_tokens=True)
print(f"🤖 {response}")

Limitations

Like almost all other language models trained on large text datasets scraped from the web, the Tucano2-qwen-0.5B-Instruct shows behavior that does not make it an out-of-the-box solution to many real-world applications, especially those requiring factual, reliable, and nontoxic text generation. Tucano2-qwen-0.5B-Instruct is subject to the following:

  • Hallucinations: Tucano2-qwen-0.5B-Instruct can produce content that can be mistaken as true facts, but are misleading or entirely false, i.e., hallucination.

  • Biases and Toxicity: Tucano2-qwen-0.5B-Instruct inherits the social and historical stereotypes from the data used to train it. Given these biases, the model can produce toxic content, i.e., harmful, offensive, or detrimental to individuals, groups, or communities.

  • Language Limitations: Tucano2-qwen-0.5B-Instruct is primarily designed to interact with Portuguese. Other languages might challenge its comprehension, leading to potential misinterpretations or errors in response.

  • Repetition and Verbosity: Tucano2-qwen-0.5B-Instruct may get stuck on repetition loops (especially if the repetition penalty during generations is set to a meager value) or produce verbose responses unrelated to the prompt it was given.

Hence, even though Tucano2-qwen-0.5B-Instruct is released with a permissive license, we urge users to perform their risk analysis on them if they intend to use them for real-world applications.

Evaluations

The table below compares the Tucano2 (Instruct variant) series against other chat models of similar size. We divide our evaluations into three sets:

  • Knowledge & Reasoning: ARC-Challenge, ENEM, BLUEX, OAB Exams, BELEBELE, MMLU, GSM8K-PT
  • Instruction Following: IFEval-PT
  • Coding: HumanEval

The NPM (Normalized Performance Metric) provides a balanced view of model performance across tasks, accounting for each task's inherent difficulty by normalizing its evaluation score relative to its random baseline.

Total Avg. Knowledge & Reasoning (NPM) Instruction Following Coding
Tucano2-qwen-3.7B-Instruct 53.64 56.22 41.67 47.56
Jurema-7B 53.03 50.66 47 75.61
Qwen2.5-3B-Instruct 51.71 47.34 63.33 70.73
Qwen3-4B 51.36 42.33 79.33 86.59
Gemma-3-Gaia-PT-BR-4b-it 49.93 45 70.33 64.02
SmolLM3-3B 49.54 43.99 69.67 68.29
Llama-3.2-3B-Instruct 45.82 43.08 62.67 48.17
Qwen2.5-1.5B-Instruct 41.39 40.25 42 48.78
Tucano2-qwen-1.5B-Instruct 37.54 39.61 34.33 26.22
Qwen3-1.7B 36.3 28.24 65 64.02
Tucano2-qwen-0.5B-Instruct 26.08 27.77 30 10.37
Qwen3-0.6B 22.21 15.13 55 39.02
Llama-3.2-1B-Instruct 20.14 15.37 44.33 29.27
Qwen2.5-0.5B-Instruct 17.8 14.98 31 24.39
Tucano-2b4-Instruct 3.78 2.71 15 0
Tucano-1b1-Instruct 2.59 1.42 13.33 0
TeenyTinyLlama-460m-Chat 0.07 -1.68 12.33 0
Evaluation Suite
Benchmark n-shot Type Baseline Metric
Knowledge & Reasoning
ARC-Challenge 5-shot MC-Q&A 25 acc_norm
ENEM 3-shot MC-Q&A 20 acc
BLUEX 3-shot MC-Q&A 22.5 acc
OAB Exams 3-shot MC-Q&A 25 acc
BELEBELE 5-shot MC-Q&A 25 acc_norm
MMLU 5-shot MC-Q&A 25 acc
GSM8K-PT 0-shot Math Problems 0 flexible-extract
Instruction Following
IFEval-PT 0-shot Instruction 0 prompt_level_loose_acc
Coding
HumanEval 0-shot Coding 0 pass@1
Individual Benchmarks
BLUEX ENEM OAB ARC Challenge BELEBELE MMLU IFEval-PT GSM8K-PT HumanEval
Tucano2-qwen-3.7B-Instruct 64.53 72.92 54.31 60.34 85.22 64.64 41.67 53.81 47.56
Jurema-7B 63.42 70.96 64.97 52.56 88.44 49.91 47 30.29 75.61
Qwen2.5-3B-Instruct 56.88 68.65 46.79 41.71 84 58.22 63.33 51.9 70.73
Qwen3-4B 63.28 72.15 50.3 43.08 83.67 26.93 79.33 39.88 86.59
Gemma-3-Gaia-PT-BR-4b-it 50.9 64.52 43.46 54.7 78.89 51.49 70.33 51.29 64.02
SmolLM3-3B 53.55 64.73 41 52.74 78.67 53.23 69.67 44.44 68.29
Llama-3.2-3B-Instruct 52.02 59.13 44.97 43.93 78.56 52.14 62.67 55.1 48.17
Qwen2.5-1.5B-Instruct 52.02 61.79 44.28 39.74 76 51.91 42 42.16 48.78
Tucano2-qwen-1.5B-Instruct 52.85 62.7 43.42 50.26 77.56 52.54 34.33 19.71 26.22
Qwen3-1.7B 50.49 58.64 32.62 36.67 64.89 30.56 65 26.94 64.02
Tucano2-qwen-0.5B-Instruct 40.33 53.6 40.73 38.63 62.33 41.46 30 18.49 10.37
Qwen3-0.6B 34.91 41.15 29.75 30.51 37.11 26.48 55 31.66 39.02
Llama-3.2-1B-Instruct 30.04 34.01 30.84 32.82 41.56 35.15 44.33 26.56 29.27
Qwen2.5-0.5B-Instruct 30.18 34.08 29.34 27.44 50.67 39.54 31 14.69 24.39
Tucano-2b4-Instruct 25.87 20.01 26.74 31.97 24 26.72 15 2.05 0
Tucano-1b1-Instruct 22.95 19.94 25.33 30 24.89 25.59 13.33 1.67 0
TeenyTinyLlama-460m-Chat 17.25 18.19 19.73 26.84 22.89 26.97 12.33 2.05 0
Inference Samples on Various Tasks

Coding

Prompt:

<|im_start|>system
Você é um mentor técnico com foco em programação. Ensine o usuário com exemplos, analogias e linguagem acessível.<|im_end|>
<|im_start|>user
Como eu posso abrir um arquivo CSV em Python usando a biblioteca pandas?<|im_end|>
<|im_start|>assistant

Response:

Para abrir um arquivo CSV utilizando a biblioteca Pandas em Python, você pode seguir os passos abaixo:

1. **Importar Bibliotecas Necessárias**: Primeiro, certifique-se de ter instalado tanto `pandas` quanto `csv`. Caso contrário, instale-os via pip (`pip install pandas`) antes de prosseguirmos. Em seguida, importe as bibliotecas necessárias no início do seu script ou notebook Jupyter:
   ```python

   import pandas as pd
   import csv

   ```

2. **Abrir Arquivo CSV Usando Função read_csv()**: A função `pd.read_csv()` permite ler dados de arquivos CSV diretamente na memória. Aqui está como fazer isso:
   ```python

   df = pd.read_csv('caminho/para/seuarquivo.csv')
   print(df)  # Imprime todos os registros presentes no DataFrame criado pelo dataframe df

   ```

3. **Verificar Conteúdo dos Dados Lidos**: Após carregar seus dados num objeto DataFrame, verifique se tudo foi lido corretamente através da exibição das colunas disponíveis nesse DataFrame:
   ```python

   print(df.columns)  # Exibe todas as colunas existentes nos dados

   ```

4. **Fechar O Arquivo Corretamente**: É importante lembrar que após terminar qualquer operação sobre esse arquivo, devemos fechar explicitamente nosso fluxo de trabalho para evitar problemas futuros relacionados à persistência desses recursos. Isso geralmente envolve chamar uma instrução `with`, onde especificamos qual método usar dependendo do contexto (como abrir/ler/gravar):

5. **Manipulação De Erros E Validação Dos Dados** : Dependendo do caso específico, talvez seja necessário validar ainda mais esses dados contra algum esquema pré-definido - por exemplo, verificar valores ausentes, duplicatas etc., além disso também poderiam ser feitas transformações básicas nestes conjuntos de dados conforme necessidades específicas exigidas pela aplicação final desejada.

Essencialmente, essa abordagem garante não só a capacidade básica de leitura mas também manipulação eficiente destes grandes volumes de informação armazenados numa única tabela unificada chamada "DataFrame". Além disto, mantém intacta toda infraestrutura subjacente responsável pelas operações realizadas durante todo este processo desde a localização inicial até mesmo eventual salvamento posterior deste conjunto particular de informações.<|im_end|>

Math

Prompt:

<|im_start|>user
Como eu posso resolver o seguinte problema: 2x + 3 = 11?<|im_end|>
<|im_start|>assistant

Response:

Para resolver a equação linear 2x + 3 = 11, siga estes passos:

Etapa 1: subtraia 3 de ambos os lados da equação. Isso eliminará o termo constante no lado esquerdo e isolará x em um lado da equação.
2x + 3 - 3 = 11 - 3
2x = 8

Passo 2: Divida ambos os lados por 2. Para obter o valor de x, divida cada termo pelo coeficiente do seu lado direito (que é 2).
(2x) / 2 = 8/2
x = 4

Portanto, a solução para a equação 2x + 3 = 11 é x = 4.<|im_end|>

Retrieval

Prompt:

<|im_start|>system
Você é um assistente que utiliza apenas dados extraídos do contexto para responder perguntas. Quando o contexto for insuficiente, diga claramente que não é possível gerar uma resposta com os dados disponíveis.<|im_end|>
<|im_start|>user
De quem o autor to texto abaixo está se referindo?

<context>
Não aceito que o Sr. Deputado Manuel dos Santos ou qualquer outro Deputado desta Câmara me julgue menos sério do que vós. Não aceito isso de ninguém e foi isso o que o Sr. Deputado Manuel dos Santos aqui disse, ao proferir aquele rol de inverdades e de excessos acerca da maioria.
</context><|im_end|>
<|im_start|>assistant

Response:

O autor deste trecho parece estar falando sobre si mesmo (ou possivelmente alguém próximo dele), mas também pode ser referenciado como "Sr." Manuel dos Santos na frase dada. Portanto, a resposta à pergunta seria: Sim, ele está se referindo ao Sr. Manuel dos Santos.<|im_end|>

Structured Output

Prompt:

<|im_start|>system
Sempre responda em formato JSON estruturado conforme solicitado.<|im_end|>
<|im_start|>user
Extraia e resuma as informações principais do e-mail abaixo. Escreva sua resposta (em formato JSON) contendo as seguintes chaves: 'assunto', 'remetente', 'destinatário', 'resumo'. Aqui está o e-mail:

Assunto: RE: Atualização sobre o Projeto de Conservação de Bacias Hidrográfica

Carlos,

Obrigado por enviar o currículo atualizado. Tive a oportunidade de revisá-lo e achei que ficou ótimo! Você fez um excelente trabalho ao tornar as informações acessíveis e envolventes para uma ampla audiência.

Em relação à possível resistência dos membros da comunidade, concordo que devemos estar preparados para abordar suas preocupações. Uma ideia que tive foi incluir alguns exemplos práticos de como o uso indevido das águas no rio Amazonas ou na Baía de Guanabara e o descarte incorreto de resíduos sólidos têm prejudicado essas áreas. Ouvi-los falar diretamente sobre as consequências pode ser muito mais persuasivo do que simplesmente mostrar dados estatísticos.

Além disso, também considero importante destacarmos os ganhos econômicos trazidos pela adoção de práticas mais sustentáveis, como tarifas de água menores e gastos diminutos relacionados à limpeza urbana. No final das contas, as pessoas costumam responder bem quando veem vantagens tangíveis além dos aspectos puramente ambientais.

Diga-me o que você pensa dessas sugestões! Ficarei contente em ajudar a desenvolver ainda mais estratégias para vencer essa resistência e engajar as pessoas nessa nossa jornada.

Atenciosamente,
Helena<|im_end|>
<|im_start|>assistant

Response:

```json

{
  "assunto": "RE: Atualização sobre o Projeto de Conservação de Bacias Hidrográficas",
  "remetente": "Helena",
  "destinatario": "Carlos",
  "resumo": "A remetente elogia o novo currículo enviado pelo destinatário, enfocando seu potencial impacto positivo nas comunidades locais através de casos reais de poluição hídrica e redução nos custos urbanos associados."
}

```<|im_end|>

Rewriting

Prompt:

<|im_start|>user
Remova todas as informações irrelevantes da frase a seguir.

"O novo restaurante que abriu no centro da cidade, de propriedade do primo de Jorge, que costumava ser chef de um restaurante em Ipanema, serve uma variedade de cozinhas de todo o mundo."<|im_end|>
<|im_start|>assistant

Response:

O novo restaurante localizado no centro da cidade, de propriedade do primo de Jorge, anteriormente conhecido como chefe de um estabelecimento em Ipanema, oferece diversas culinárias internacionais.<|im_end|>

Function Call / Tool Use

Prompt:

<|im_start|>system
Utilize as ferramentas para resolver as tarefas que o usuário lhe solicitar. Se as ferramentas forem insuficientes, explique ao usuário que não é possível completar a tarefa.

\# Tools / Ferramentas

Você pode chamar uma ou mais funções para auxiliar na consulta do usuário.

Você recebe assinaturas de funções dentro de tags XML <tools></tools>:
<tools>
{"type": "function", "function": {"name": "create_todo", "description": "Cria uma nova tarefa no aplicativo de todo.", "parameters": {"type": "object", "properties": {"task_description": {"type": "string", "description": "Descrição da tarefa a ser criada."}, "due_date": {"type": "string", "description": "Data de entrega da tarefa no formato YYYY-MM-DD."}}, "required": ["task_description", "due_date"]}}}
</tools>

Para cada chamada de função, retorne um objeto json com o nome da função e os argumentos dentro das tags XML <tool_call></tool_call>:
<tool_call>
{"name": <function-name>, "arguments": <args-json-object>}
</tool_call><|im_end|>
<|im_start|>user
Eu preciso criar uma nova tarefa para o meu projeto.<|im_end|>
<|im_start|>assistant
Claro, eu posso ajudar com isso. Você poderia, por favor, me fornecer a descrição da tarefa e a data de entrega?<|im_end|>
<|im_start|>user
A tarefa é finalizar o relatório do projeto e a data de entrega é 2022-03-15.<|im_end|>
<|im_start|>assistant

Response:

<tool_call>
{"name": "create_todo", "arguments": {"task_description": "Finalize the project report", "due_date": "2022-03-15"}}
</tool_call><|im_end|>

System Prompts / Steering

Prompt:

<|im_start|>system
Você é Jack Sparrow, o famoso pirata dos filmes. Responda às perguntas do usuário como se fosse ele, usando seu estilo característico.<|im_end|>
<|im_start|>user
Quais são os melhores lugares para encontrar um tesouro escondido?<|im_end|>
<|im_start|>assistant

Response:

Bem, meu amigo, você está procurando por uma aventura de tesouros, certo? Tudo bem então! Eu tenho algumas dicas que podem te ajudar a descobrir esse suposto tesouro oculto:

1. Ilhas Desabitadas: Essas são geralmente as mais procuradas pelos buscadores de tesouros. Elas estão vazias e intocadas pelo homem civilizado, tornando-as perfeitas para esconder algo valioso ou misterioso.

2. O Mar das Trevas (Deep Blue Sea): Este mar profundo tem sido objeto de muita especulação sobre ser lar de riquezas escondidas. Se estiver interessado nisso, pode querer dar uma olhada nos livros "O Livro da Vida Marinha" ou assistir ao filme "A Ilha Perdida".

3. As Terras Altas Escocesas: Há rumores de haver ouro nas montanhas névoas lá em cima. Mas lembre-se, não há nenhum lugar real onde possa encontrá-lo; apenas lendas urbanas.

4. A Floresta Amazônica: Alguns dizem que existe um lendário baú cheio de moedas de ouro enterrado sob árvores antigas na selva amazônica. Claro, isso só serve pra aumentar suas expectativas... mas quem sabe? Talvez seja verdade algum dia.

5. Os Lagos Mediterrâneos: Dizem estar cheios de pepinos gigantes com pregos no fundo. Embora eles possam parecer bizarros à primeira vista, esses lagos têm histórias próprias e segredos esperando serem descobertos.

Lembre-se, estas são meros contos de fogueiras e nada além disso. Boa sorte nessa busca pela fortuna perdida!<|im_end|>

Similarity Scoring

Prompt:

<|im_start|>user
Frase 1: O artista pintou um quadro inspirado nos campos floridos da primavera.
Frase 2: O criador produziu uma obra que representava paisagens urbanas cinzentas.
Pergunta: Qu\u00e3o similares s\u00e3o as duas frases? D\u00ea uma pontua\u00e7\u00e3o entre 1,0 a 5,0.
Resposta:<|im_end|>
<|im_start|>assistant

Response:

2.5. As duas frases tratam sobre obras de arte, mas diferem significativamente nas descrições - uma fala sobre flores na primavera enquanto outra menciona cidades cinzentas, resultando numa pontuação média de similaridade de 2.5.<|im_end|>

Classification

Prompt:

<|im_start|>user
Classifique o sentimento da seguinte resenha de filme como 'Positiva', 'Negativa' ou 'Neutra':

"O filme foi uma experiência cinematográfica incrível, com atuações excepcionais e uma trama envolvente que me manteve na ponta da cadeira do começo ao fim."<|im_end|>
<|im_start|>assistant

Response:

Sentimento: Positivo.<|im_end|>

Below, we compare the performance of Tucano2-qwen-0.5B-Instruct with Qwen3-0.6B, a strong baseline in the 0.5B parameter range. The percentages represent the absolute difference in performance between the two models on each benchmark. All other plots can be found in the .plots folder.

Tucano2-qwen-0.5B-Instruct vs Qwen3-0.6B

Performance Comparison

Cite as 🤗

@misc{correa2026tucano2cool,
      title={{Tucano 2 Cool: Better Open Source LLMs for Portuguese}}, 
      author={Nicholas Kluge Corr{\^e}a and Aniket Sen and Shiza Fatimah and Sophia Falk and Lennard Landgraf and Julia Kastner and Lucie Flek},
      year={2026},
      eprint={2603.03543},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2603.03543}, 
}

Aknowlegments

Polyglot is a project funded by the Federal Ministry of Education and Research (BMBF) and the Ministry of Culture and Science of the State of North Rhine-Westphalia (MWK) as part of TRA Sustainable Futures (University of Bonn) and the Excellence Strategy of the federal and state governments.

We also gratefully acknowledge the granted access to the Marvin cluster hosted by University of Bonn along with the support provided by its High Performance Computing & Analytics Lab.

License

Tucano2-qwen-0.5B-Instruct is licensed under the Apache License, Version 2.0. For more details, see the LICENSE file.

Downloads last month
31
Safetensors
Model size
0.5B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Polygl0t/Tucano2-qwen-0.5B-Instruct

Finetuned
(2)
this model

Datasets used to train Polygl0t/Tucano2-qwen-0.5B-Instruct

Collection including Polygl0t/Tucano2-qwen-0.5B-Instruct

Paper for Polygl0t/Tucano2-qwen-0.5B-Instruct

Evaluation results