metadata
language: vi
base_model: meta-llama/Meta-Llama-3-8B-Instruct
tags:
- interview
- conversational
- vietnamese
- llama3
- peft
- lora
license: llama3
pipeline_tag: text-generation
AI Interview Model - Llama 3 8B
Model AI phỏng vấn được fine-tune từ Meta-Llama-3-8B-Instruct sử dụng LoRA/QLoRA, hỗ trợ tiếng Việt.
Model Details
- Base Model: meta-llama/Meta-Llama-3-8B-Instruct
- Training Method: LoRA/QLoRA adapter
- Language: Vietnamese (Tiếng Việt)
- Task: Conversational AI for Job Interviews
Cách sử dụng
Sử dụng với PEFT (Recommended)
from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
import torch
# Load tokenizer
tokenizer = AutoTokenizer.from_pretrained("Mphuc213222/ai-interview")
# Load base model
base_model = AutoModelForCausalLM.from_pretrained(
"meta-llama/Meta-Llama-3-8B-Instruct",
torch_dtype=torch.float16,
device_map="auto"
)
# Load LoRA adapter
model = PeftModel.from_pretrained(base_model, "Mphuc213222/ai-interview")
# Tạo câu hỏi phỏng vấn
messages = [
{"role": "system", "content": "Bạn là một AI interviewer chuyên nghiệp."},
{"role": "user", "content": "Tạo câu hỏi phỏng vấn cho vị trí Python Developer"}
]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt").to(model.device)
outputs = model.generate(inputs, max_length=500, temperature=0.7, top_p=0.9)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
Sử dụng nhanh
from transformers import pipeline
pipe = pipeline(
"text-generation",
model="Mphuc213222/ai-interview",
model_kwargs={"torch_dtype": "float16"},
device_map="auto"
)
result = pipe("Tạo câu hỏi phỏng vấn technical cho vị trí Senior Backend Developer")
print(result[0]['generated_text'])
Training Details
- Training arguments: Xem
adapter_config.json - Tokenizer config: Xem
tokenizer_config.json - Special tokens: Xem
special_tokens_map.json
Use Cases
- Tạo câu hỏi phỏng vấn tự động
- Đánh giá câu trả lời của ứng viên
- Tư vấn career và phỏng vấn
- Simulation phỏng vấn cho ứng viên
Limitations
- Model được fine-tune chủ yếu cho tiếng Việt
- Cần GPU để chạy hiệu quả (8GB+ VRAM recommended)
- LoRA adapter cần base model để hoạt động
License
Model tuân theo Llama 3 Community License Agreement.