metadata
license: apache-2.0
base_model: unsloth/Qwen2.5-3B-Instruct-bnb-4bit
tags:
- unsloth
- qwen
- text-generation
- vietnamese
- code-assistant
- evonet
🧬 EvoNet-3B-v0.2 (Full Base)
EvoNet-3B-v0.2 is a specialized language model optimized for Vietnamese language understanding and Coding tasks. Built upon the robust Qwen 2.5 architecture, this model has been fine-tuned to provide concise, accurate, and safe responses.
EvoNet-3B-v0.2 là mô hình ngôn ngữ chuyên biệt được tối ưu hóa cho Tiếng Việt và Lập trình. Được xây dựng trên nền tảng Qwen 2.5, mô hình được tinh chỉnh để đưa ra câu trả lời ngắn gọn, chính xác và an toàn.
👨💻 Author / Tác giả
- Developer: Founder Huỳnh Dương Phong
- Architecture: Qwen 2.5 (3B Parameters)
- Fine-tuned with: Unsloth & TRL
🚀 Key Features / Tính năng nổi bật
- Lightweight / Nhẹ: ~3 Billion parameters, runnable on consumer GPUs (T4, RTX 3060...).
- Vietnamese Optimized / Tối ưu Tiếng Việt: Natural language processing for Vietnamese contexts.
- Coding Expert / Chuyên gia Code: Enhanced capability in Python, JavaScript, and debugging.
📥 How to Use (Python)
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "EvoNet/EvoNet-3B-v0.2-FullBase"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto"
)
# Chat Template (ChatML)
messages = [
{"role": "system", "content": "Bạn là EvoNet, trợ lý AI thông minh chuyên về lập trình."},
{"role": "user", "content": "Viết hàm Python tính tổng 2 số."}
]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))