--- license: apache-2.0 base_model: unsloth/Qwen2.5-3B-Instruct-bnb-4bit tags: - unsloth - qwen - text-generation - vietnamese - code-assistant - evonet --- # 🧬 EvoNet-3B-v0.2 (Full Base) **EvoNet-3B-v0.2** is a specialized language model optimized for **Vietnamese language understanding** and **Coding tasks**. Built upon the robust Qwen 2.5 architecture, this model has been fine-tuned to provide concise, accurate, and safe responses. **EvoNet-3B-v0.2** là mô hình ngôn ngữ chuyên biệt được tối ưu hóa cho **Tiếng Việt** và **Lập trình**. Được xây dựng trên nền tảng Qwen 2.5, mô hình được tinh chỉnh để đưa ra câu trả lời ngắn gọn, chính xác và an toàn. ## 👨‍💻 Author / Tác giả - **Developer:** Founder Huỳnh Dương Phong - **Architecture:** Qwen 2.5 (3B Parameters) - **Fine-tuned with:** Unsloth & TRL ## 🚀 Key Features / Tính năng nổi bật - **Lightweight / Nhẹ:** ~3 Billion parameters, runnable on consumer GPUs (T4, RTX 3060...). - **Vietnamese Optimized / Tối ưu Tiếng Việt:** Natural language processing for Vietnamese contexts. - **Coding Expert / Chuyên gia Code:** Enhanced capability in Python, JavaScript, and debugging. ## 📥 How to Use (Python) ```python from transformers import AutoModelForCausalLM, AutoTokenizer import torch model_name = "EvoNet/EvoNet-3B-v0.2-FullBase" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.float16, device_map="auto" ) # Chat Template (ChatML) messages = [ {"role": "system", "content": "Bạn là EvoNet, trợ lý AI thông minh chuyên về lập trình."}, {"role": "user", "content": "Viết hàm Python tính tổng 2 số."} ] text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True) inputs = tokenizer(text, return_tensors="pt").to("cuda") outputs = model.generate(**inputs, max_new_tokens=512) print(tokenizer.decode(outputs[0], skip_special_tokens=True))