SHERWYNLUCIAN's picture
Update README.md
78e7105 verified
---
license: apache-2.0
base_model: unsloth/Qwen2.5-3B-Instruct-bnb-4bit
tags:
- unsloth
- qwen
- text-generation
- vietnamese
- code-assistant
- evonet
---
# 🧬 EvoNet-3B-v0.2 (Full Base)
**EvoNet-3B-v0.2** is a specialized language model optimized for **Vietnamese language understanding** and **Coding tasks**. Built upon the robust Qwen 2.5 architecture, this model has been fine-tuned to provide concise, accurate, and safe responses.
**EvoNet-3B-v0.2** là mô hình ngôn ngữ chuyên biệt được tối ưu hóa cho **Tiếng Việt****Lập trình**. Được xây dựng trên nền tảng Qwen 2.5, mô hình được tinh chỉnh để đưa ra câu trả lời ngắn gọn, chính xác và an toàn.
## 👨‍💻 Author / Tác giả
- **Developer:** Founder Huỳnh Dương Phong
- **Architecture:** Qwen 2.5 (3B Parameters)
- **Fine-tuned with:** Unsloth & TRL
## 🚀 Key Features / Tính năng nổi bật
- **Lightweight / Nhẹ:** ~3 Billion parameters, runnable on consumer GPUs (T4, RTX 3060...).
- **Vietnamese Optimized / Tối ưu Tiếng Việt:** Natural language processing for Vietnamese contexts.
- **Coding Expert / Chuyên gia Code:** Enhanced capability in Python, JavaScript, and debugging.
## 📥 How to Use (Python)
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "EvoNet/EvoNet-3B-v0.2-FullBase"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto"
)
# Chat Template (ChatML)
messages = [
{"role": "system", "content": "Bạn là EvoNet, trợ lý AI thông minh chuyên về lập trình."},
{"role": "user", "content": "Viết hàm Python tính tổng 2 số."}
]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))