🧠 DogeAI-v2.0-4B-Reasoning

📌 Model Details

Model Description

DogeAI-v2.0-4B-Reasoning é um modelo de linguagem focado em raciocínio, pensamento estruturado e respostas analíticas, criado a partir do merge de uma LoRA de reasoning sobre o modelo base Qwen3-4B-Base.

O objetivo principal deste modelo é melhorar a coerência lógica, a capacidade de resolver problemas em múltiplos passos e a clareza explicativa, sem alterar drasticamente o comportamento geral do modelo base.

Este modelo representa a versão merged e final, podendo ser utilizado sem dependência de LoRA externa.

Developed by: AxionLab-Co

Funded by: Independent / Community-driven

Shared by: AxionLab-Co

Model type: Decoder-only Transformer (Causal Language Model)

Language(s) (NLP): Primarily English

License: Apache 2.0 (inherits from base model)

Finetuned from model: Qwen3-4B-Base

🔗 Model Sources

Repository: Hugging Face – AxionLab-Co/DogeAI-v2.0-4B-Reasoning

Base Model: Qwen/Qwen3-4B-Base

Training Platform: Kaggle

Frameworks: PyTorch, Transformers, PEFT

🎯 Uses

Direct Use

Este modelo pode ser utilizado diretamente para:

Raciocínio lógico e analítico

Resolução de problemas em múltiplos passos

Explicações detalhadas (“thinking-style responses”)

Pesquisa, experimentação e aprendizado em IA

Downstream Use

Conversational agents focados em reasoning

Fine-tuning adicional em domínios específicos

Conversão para GGUF e uso em engines como llama.cpp

Pesquisa acadêmica ou experimental

Out-of-Scope Use

Este modelo não é recomendado para:

Decisões médicas, legais ou financeiras

Aplicações críticas de segurança

Uso onde factualidade absoluta é obrigatória

⚠️ Bias, Risks, and Limitations

Pode gerar cadeias de raciocínio excessivas, mesmo quando não necessárias

Herdou possíveis vieses do modelo base e dos dados de treino

Não passou por fine-tuning específico de alinhamento ou safety

Raciocínios gerados não são garantidamente corretos

Recommendations

Usuários devem:

Avaliar criticamente as respostas

Utilizar camadas adicionais de segurança em produção

Evitar confiar cegamente em cadeias de raciocínio

🚀 How to Get Started with the Model

'' from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained( "AxionLab-Co/DogeAI-v2.0-4B-Reasoning", device_map="auto", torch_dtype="auto" )

tokenizer = AutoTokenizer.from_pretrained( "AxionLab-Co/DogeAI-v2.0-4B-Reasoning" )

inputs = tokenizer("Solve this step by step:", return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_new_tokens=256)

print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ''

🏋️ Training Details

Training Data

O modelo foi ajustado utilizando datasets focados em reasoning e chain-of-thought, contendo:

Resolução passo a passo de problemas

Respostas explicativas estruturadas

Prompts analíticos sintéticos e curados

Os dados foram pré-processados manualmente para melhorar qualidade e consistência.

Training Procedure Preprocessing

Tokenização com tokenizer original do Qwen

Filtragem de exemplos inconsistentes ou de baixa qualidade

Training Hyperparameters

Training regime: fp16 mixed precision

Fine-tuning method: LoRA (PEFT)

Optimizer: AdamW

Framework: Transformers + PEFT

Speeds, Sizes, Times

Treinamento realizado em GPU do Kaggle

LoRA mantida propositalmente leve

Merge final realizado via PEFT (merge_and_unload)

📊 Evaluation

Testing Data, Factors & Metrics Testing Data

Prompts manuais de reasoning

Comparação direta com o modelo base

Factors

Clareza do raciocínio

Coerência lógica

Tendência a alucinação

Metrics

Avaliação qualitativa humana

Comparação subjetiva de respostas

Results

O modelo demonstra melhor organização lógica e explicações mais consistentes em comparação direta com o Qwen3-4B-Base.

Summary

DogeAI-v2.0-4B-Reasoning prioriza qualidade de pensamento, não apenas fluência textual.

🌱 Environmental Impact

Hardware Type: NVIDIA GPU (Kaggle)

Hours used: Few hours (single-session fine-tuning + merge)

Cloud Provider: Kaggle

Compute Region: Unknown

Carbon Emitted: Not measured

⚙️ Technical Specifications

Model Architecture and Objective

Decoder-only Transformer

Objetivo: melhorar raciocínio via fine-tuning eficiente

Compute Infrastructure Hardware

NVIDIA GPU (Kaggle environment)

Software

PyTorch

Transformers

PEFT 0.18.1

📚 Citation

Se você utilizar este modelo em pesquisas ou projetos derivados, cite o modelo base e este repositório.

👥 Model Card Authors

AxionLab-Co

📬 Model Card Contact

Para dúvidas, feedback ou colaboração: AxionLab-Co – Hugging Face

Downloads last month
-
Safetensors
Model size
4B params
Tensor type
F32
·
F16
·
U8
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for AxionLab-Co/DogeAI-v2.0-4B-Reasoning

Base model

Qwen/Qwen3-4B-Base
Quantized
(13)
this model

Space using AxionLab-Co/DogeAI-v2.0-4B-Reasoning 1