🔥 EvoNet-3B-v0.1-Beta (Full Weights)

EvoNet Logo Version Author

Một trợ lý AI mạnh mẽ, tối ưu hóa cho Tiếng Việt và Lập Trình, chạy mượt mà trên thiết bị cá nhân.

📖 Giới thiệu (Introduction)

EvoNet-3B-v0.1-Beta là phiên bản nâng cấp toàn diện, được tinh chỉnh (Fine-tune) từ mô hình nền tảng Qwen/Qwen2.5-3B-Instruct.

Mô hình này được phát triển bởi Founder Huỳnh Dương Phong và đội ngũ EvoNet, với mục tiêu tạo ra một AI đủ nhỏ gọn (3 tỷ tham số) để chạy trên máy tính cá nhân (Edge Devices/Mini PC) nhưng vẫn đảm bảo khả năng tư duy logic, viết code và xử lý tiếng Việt tự nhiên.

✨ Điểm nổi bật (Highlights):

  • 🚀 Hiệu năng cao: Kế thừa trí tuệ của Qwen 2.5 nhưng được tối ưu hóa sâu cho ngữ cảnh Việt Nam.
  • 💻 Coding Expert: Khả năng viết code Python, giải thích thuật toán gãy gọn, chính xác (đã qua kiểm nghiệm thực tế).
  • 🔒 Privacy Focused: Kích thước nhỏ gọn, phù hợp để tích hợp vào VS Code Extension hoặc chạy Offline hoàn toàn.

💻 Hướng dẫn sử dụng (Quick Start)

Bạn có thể chạy model này dễ dàng bằng thư viện transformers.

1. Cài đặt thư viện

pip install -U transformers accelerate

2. Chạy với Python

import torch from transformers import AutoTokenizer, AutoModelForCausalLM

model_id = "EvoNet/EvoNet-3B-v0.1-Beta-Full"

tokenizer = AutoTokenizer.from_pretrained(model_id) model = AutoModelForCausalLM.from_pretrained( model_id, torch_dtype=torch.float16, device_map="auto" )

prompt = "Giải thích ngắn gọn Blockchain là gì?" messages = [ {"role": "system", "content": "Bạn là EvoNet, một trợ lý AI hữu ích và thông minh."}, {"role": "user", "content": prompt} ]

text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

generated_ids = model.generate( model_inputs.input_ids, max_new_tokens=512, do_sample=True, temperature=0.7, top_p=0.9 ) generated_ids = [ output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids) ]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response)

🛠️ Thông tin huấn luyện (Training Details)
Base Model: Qwen/Qwen2.5-3B-Instruct

Method: SFT (Supervised Fine-Tuning) + LoRA Merge.

Dataset: EvoNet Internal Dataset (~26k samples conversational & coding).

Infrastructure: Trained on NVIDIA T4 x2 (Kaggle Environment).

Optimization: Gradient Accumulation, Mixed Precision (FP16).

⚠️ Giới hạn (Limitations)

Mặc dù thông minh hơn bản 1.5B, model vẫn có thể gặp hiện tượng "ảo giác" (hallucination) với các kiến thức quá chuyên sâu hoặc ít phổ biến.

Khả năng làm thơ hoặc sáng tác văn học nghệ thuật tiếng Việt chưa thực sự xuất sắc.

Khuyến nghị sử dụng cho các tác vụ: Hỗ trợ code (Copilot), Hỏi đáp kiến thức chung, Tóm tắt văn bản.

👨‍💻 Tác giả (Author)
Huỳnh Dương Phong (Founder @ EvoNet)

Dự án phát triển hệ sinh thái AI cục bộ (Local AI Ecosystem).

Liên hệ: huynhduongphong9@gmail.com

Model này là một phần của dự án EvoNet. Mọi đóng góp và phản hồi đều được hoan nghênh!
Downloads last month
39
Safetensors
Model size
3B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for EvoNet/EvoNet-3B-v0.1-Beta-Full

Base model

Qwen/Qwen2.5-3B
Finetuned
(970)
this model