File size: 2,065 Bytes
3aabed9
9e93c16
 
3aabed9
 
9e93c16
 
 
 
 
3aabed9
 
9e93c16
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
78e7105
9e93c16
 
 
 
 
 
 
3aabed9
9e93c16
 
 
 
 
3aabed9
9e93c16
 
3aabed9
9e93c16
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
---
license: apache-2.0
base_model: unsloth/Qwen2.5-3B-Instruct-bnb-4bit
tags:
- unsloth
- qwen
- text-generation
- vietnamese
- code-assistant
- evonet
---

# 🧬 EvoNet-3B-v0.2 (Full Base)

**EvoNet-3B-v0.2** is a specialized language model optimized for **Vietnamese language understanding** and **Coding tasks**. Built upon the robust Qwen 2.5 architecture, this model has been fine-tuned to provide concise, accurate, and safe responses.

**EvoNet-3B-v0.2** là mô hình ngôn ngữ chuyên biệt được tối ưu hóa cho **Tiếng Việt****Lập trình**. Được xây dựng trên nền tảng Qwen 2.5, mô hình được tinh chỉnh để đưa ra câu trả lời ngắn gọn, chính xác và an toàn.

## 👨‍💻 Author / Tác giả
- **Developer:** Founder Huỳnh Dương Phong
- **Architecture:** Qwen 2.5 (3B Parameters)
- **Fine-tuned with:** Unsloth & TRL

## 🚀 Key Features / Tính năng nổi bật
- **Lightweight / Nhẹ:** ~3 Billion parameters, runnable on consumer GPUs (T4, RTX 3060...).
- **Vietnamese Optimized / Tối ưu Tiếng Việt:** Natural language processing for Vietnamese contexts.
- **Coding Expert / Chuyên gia Code:** Enhanced capability in Python, JavaScript, and debugging.

## 📥 How to Use (Python)

```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_name = "EvoNet/EvoNet-3B-v0.2-FullBase"

tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype=torch.float16,
    device_map="auto"
)

# Chat Template (ChatML)
messages = [
    {"role": "system", "content": "Bạn là EvoNet, trợ lý AI thông minh chuyên về lập trình."},
    {"role": "user", "content": "Viết hàm Python tính tổng 2 số."}
]

text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to("cuda")

outputs = model.generate(**inputs, max_new_tokens=512)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))