File size: 2,065 Bytes
3aabed9 9e93c16 3aabed9 9e93c16 3aabed9 9e93c16 78e7105 9e93c16 3aabed9 9e93c16 3aabed9 9e93c16 3aabed9 9e93c16 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 |
---
license: apache-2.0
base_model: unsloth/Qwen2.5-3B-Instruct-bnb-4bit
tags:
- unsloth
- qwen
- text-generation
- vietnamese
- code-assistant
- evonet
---
# 🧬 EvoNet-3B-v0.2 (Full Base)
**EvoNet-3B-v0.2** is a specialized language model optimized for **Vietnamese language understanding** and **Coding tasks**. Built upon the robust Qwen 2.5 architecture, this model has been fine-tuned to provide concise, accurate, and safe responses.
**EvoNet-3B-v0.2** là mô hình ngôn ngữ chuyên biệt được tối ưu hóa cho **Tiếng Việt** và **Lập trình**. Được xây dựng trên nền tảng Qwen 2.5, mô hình được tinh chỉnh để đưa ra câu trả lời ngắn gọn, chính xác và an toàn.
## 👨💻 Author / Tác giả
- **Developer:** Founder Huỳnh Dương Phong
- **Architecture:** Qwen 2.5 (3B Parameters)
- **Fine-tuned with:** Unsloth & TRL
## 🚀 Key Features / Tính năng nổi bật
- **Lightweight / Nhẹ:** ~3 Billion parameters, runnable on consumer GPUs (T4, RTX 3060...).
- **Vietnamese Optimized / Tối ưu Tiếng Việt:** Natural language processing for Vietnamese contexts.
- **Coding Expert / Chuyên gia Code:** Enhanced capability in Python, JavaScript, and debugging.
## 📥 How to Use (Python)
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_name = "EvoNet/EvoNet-3B-v0.2-FullBase"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype=torch.float16,
device_map="auto"
)
# Chat Template (ChatML)
messages = [
{"role": "system", "content": "Bạn là EvoNet, trợ lý AI thông minh chuyên về lập trình."},
{"role": "user", "content": "Viết hàm Python tính tổng 2 số."}
]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |