Install from WinGet (Windows)
winget install llama.cpp
# Start a local OpenAI-compatible server with a web UI:
llama-server -hf RiosWesley/gemma-3-270M-Model-Router:Q8_0# Run inference directly in the terminal:
llama-cli -hf RiosWesley/gemma-3-270M-Model-Router:Q8_0Use pre-built binary
# Download pre-built binary from:
# https://github.com/ggerganov/llama.cpp/releases# Start a local OpenAI-compatible server with a web UI:
./llama-server -hf RiosWesley/gemma-3-270M-Model-Router:Q8_0# Run inference directly in the terminal:
./llama-cli -hf RiosWesley/gemma-3-270M-Model-Router:Q8_0Build from source code
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
cmake -B build
cmake --build build -j --target llama-server llama-cli# Start a local OpenAI-compatible server with a web UI:
./build/bin/llama-server -hf RiosWesley/gemma-3-270M-Model-Router:Q8_0# Run inference directly in the terminal:
./build/bin/llama-cli -hf RiosWesley/gemma-3-270M-Model-Router:Q8_0Use Docker
docker model run hf.co/RiosWesley/gemma-3-270M-Model-Router:Q8_0Rango Router BR - Gemma 3 270M (GGUF)
Rango Router BR é um modelo Tiny LLM (baseado no Gemma 3 270M) finetunado para atuar como um classificador de intenções (router) extremamente rápido e leve para sistemas de atendimento de delivery no Brasil.
Este modelo foi treinado e convertido para o formato GGUF usando Unsloth.
Funcionalidade
O modelo lê a mensagem do usuário (que pode conter gÃrias, abreviações e linguagem informal brasileira) e classifica a intenção em um formato JSON.
Intenções Suportadas (Output):
O modelo retorna um JSON com uma das três chaves:
INFO_FLOW: O usuário quer informações (cardápio, horário, endereço, pix).ORDER_FLOW: O usuário quer fazer, alterar ou confirmar um pedido.HUMAN_HANDOFF: O usuário está irritado, teve problemas ou pediu um humano.
Configurações de Inferência Recomendadas
Para garantir a melhor consistência no formato JSON e precisão na classificação, recomendamos os seguintes parâmetros:
| Parâmetro | Valor | Motivo |
|---|---|---|
| Temperature | 0.6 |
EquilÃbrio ideal para este modelo de 270M não "alucinar" o JSON, mas entender variações linguÃsticas. |
| Top P | 0.95 |
Nucleus sampling padrão para evitar respostas de baixa probabilidade. |
| Top K | 64 |
Limita o vocabulário de escolha, ajudando a manter o foco nas tags JSON. |
Como rodar
1. Ollama (Recomendado)
Crie um arquivo chamado Modelfile com o seguinte conteúdo (as configurações já estão incluÃdas):
FROM ./gemma-3-270m-it.Q8_0.gguf
# Template de chat padrão do Gemma 3
TEMPLATE "<start_of_turn>user\n{{ .Prompt }}<end_of_turn>\n<start_of_turn>model\n"
# Parâmetros recomendados para o Router
PARAMETER temperature 0.6
PARAMETER top_p 0.95
PARAMETER top_k 64
PARAMETER stop "<end_of_turn>"
Depois crie e rode o modelo:
ollama create rango-router -f Modelfile
ollama run rango-router "Manda o cardápio aà chefia"
2. Llama.cpp (CLI)
Ao rodar via linha de comando, passe as flags correspondentes:
llama-cli --hf RiosWesley/gemma-3-270m-router-br-gguf \
--temp 0.6 \
--top-p 0.95 \
--top-k 64 \
-p "<start_of_turn>user\nO motoboy sumiu, cadê meu lanche?<end_of_turn>\n<start_of_turn>model"
3. Python (Llama-cpp-python)
from llama_cpp import Llama
llm = Llama(
model_path="./gemma-3-270m-it.Q8_0.gguf",
n_ctx=2048
)
output = llm(
"<start_of_turn>user\nQuero pedir uma pizza meia a meia\n<end_of_turn>\n<start_of_turn>model",
max_tokens=128,
temperature=0.6,
top_p=0.95,
top_k=64,
stop=["<end_of_turn>"]
)
print(output['choices'][0]['text'])
Arquivos DisponÃveis
gemma-3-270m-it.Q8_0.gguf: Versão quantizada em 8-bit (Recomendada).
Dados de Treinamento
O modelo foi treinado no dataset RiosWesley/rango-router-BR, contendo frases coloquiais do português brasileiro focadas em contextos de alimentação e restaurantes.
Model finetuned using Unsloth. ```
- Downloads last month
- 16
8-bit
Install from brew
# Start a local OpenAI-compatible server with a web UI: llama-server -hf RiosWesley/gemma-3-270M-Model-Router:Q8_0# Run inference directly in the terminal: llama-cli -hf RiosWesley/gemma-3-270M-Model-Router:Q8_0