--- language: vi base_model: meta-llama/Meta-Llama-3-8B-Instruct tags: - interview - conversational - vietnamese - llama3 - peft - lora license: llama3 pipeline_tag: text-generation --- # AI Interview Model - Llama 3 8B Model AI phỏng vấn được fine-tune từ Meta-Llama-3-8B-Instruct sử dụng LoRA/QLoRA, hỗ trợ tiếng Việt. ## Model Details - **Base Model:** meta-llama/Meta-Llama-3-8B-Instruct - **Training Method:** LoRA/QLoRA adapter - **Language:** Vietnamese (Tiếng Việt) - **Task:** Conversational AI for Job Interviews ## Cách sử dụng ### Sử dụng với PEFT (Recommended) ```python from transformers import AutoTokenizer, AutoModelForCausalLM from peft import PeftModel import torch # Load tokenizer tokenizer = AutoTokenizer.from_pretrained("Mphuc213222/ai-interview") # Load base model base_model = AutoModelForCausalLM.from_pretrained( "meta-llama/Meta-Llama-3-8B-Instruct", torch_dtype=torch.float16, device_map="auto" ) # Load LoRA adapter model = PeftModel.from_pretrained(base_model, "Mphuc213222/ai-interview") # Tạo câu hỏi phỏng vấn messages = [ {"role": "system", "content": "Bạn là một AI interviewer chuyên nghiệp."}, {"role": "user", "content": "Tạo câu hỏi phỏng vấn cho vị trí Python Developer"} ] inputs = tokenizer.apply_chat_template(messages, return_tensors="pt").to(model.device) outputs = model.generate(inputs, max_length=500, temperature=0.7, top_p=0.9) response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(response) ``` ### Sử dụng nhanh ```python from transformers import pipeline pipe = pipeline( "text-generation", model="Mphuc213222/ai-interview", model_kwargs={"torch_dtype": "float16"}, device_map="auto" ) result = pipe("Tạo câu hỏi phỏng vấn technical cho vị trí Senior Backend Developer") print(result[0]['generated_text']) ``` ## Training Details - **Training arguments:** Xem `adapter_config.json` - **Tokenizer config:** Xem `tokenizer_config.json` - **Special tokens:** Xem `special_tokens_map.json` ## Use Cases 1. Tạo câu hỏi phỏng vấn tự động 2. Đánh giá câu trả lời của ứng viên 3. Tư vấn career và phỏng vấn 4. Simulation phỏng vấn cho ứng viên ## Limitations - Model được fine-tune chủ yếu cho tiếng Việt - Cần GPU để chạy hiệu quả (8GB+ VRAM recommended) - LoRA adapter cần base model để hoạt động ## License Model tuân theo Llama 3 Community License Agreement.