ai-interview / README.md
Mphuc213222's picture
Upload README.md with huggingface_hub
1bbd67e verified
metadata
language: vi
base_model: meta-llama/Meta-Llama-3-8B-Instruct
tags:
  - interview
  - conversational
  - vietnamese
  - llama3
  - peft
  - lora
license: llama3
pipeline_tag: text-generation

AI Interview Model - Llama 3 8B

Model AI phỏng vấn được fine-tune từ Meta-Llama-3-8B-Instruct sử dụng LoRA/QLoRA, hỗ trợ tiếng Việt.

Model Details

  • Base Model: meta-llama/Meta-Llama-3-8B-Instruct
  • Training Method: LoRA/QLoRA adapter
  • Language: Vietnamese (Tiếng Việt)
  • Task: Conversational AI for Job Interviews

Cách sử dụng

Sử dụng với PEFT (Recommended)

from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
import torch

# Load tokenizer
tokenizer = AutoTokenizer.from_pretrained("Mphuc213222/ai-interview")

# Load base model
base_model = AutoModelForCausalLM.from_pretrained(
    "meta-llama/Meta-Llama-3-8B-Instruct",
    torch_dtype=torch.float16,
    device_map="auto"
)

# Load LoRA adapter
model = PeftModel.from_pretrained(base_model, "Mphuc213222/ai-interview")

# Tạo câu hỏi phỏng vấn
messages = [
    {"role": "system", "content": "Bạn là một AI interviewer chuyên nghiệp."},
    {"role": "user", "content": "Tạo câu hỏi phỏng vấn cho vị trí Python Developer"}
]

inputs = tokenizer.apply_chat_template(messages, return_tensors="pt").to(model.device)
outputs = model.generate(inputs, max_length=500, temperature=0.7, top_p=0.9)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

Sử dụng nhanh

from transformers import pipeline

pipe = pipeline(
    "text-generation",
    model="Mphuc213222/ai-interview",
    model_kwargs={"torch_dtype": "float16"},
    device_map="auto"
)

result = pipe("Tạo câu hỏi phỏng vấn technical cho vị trí Senior Backend Developer")
print(result[0]['generated_text'])

Training Details

  • Training arguments: Xem adapter_config.json
  • Tokenizer config: Xem tokenizer_config.json
  • Special tokens: Xem special_tokens_map.json

Use Cases

  1. Tạo câu hỏi phỏng vấn tự động
  2. Đánh giá câu trả lời của ứng viên
  3. Tư vấn career và phỏng vấn
  4. Simulation phỏng vấn cho ứng viên

Limitations

  • Model được fine-tune chủ yếu cho tiếng Việt
  • Cần GPU để chạy hiệu quả (8GB+ VRAM recommended)
  • LoRA adapter cần base model để hoạt động

License

Model tuân theo Llama 3 Community License Agreement.