YEJI-4B-Instruct-v9-AWQ
yeji-4b-instruct-v9의 AWQ 4-bit 양자화 버전. vLLM 프로덕션 서빙에 최적화.
Model Description
YEJI는 사주(四柱), 서양 점성술, 타로, 화투 4개 도메인에 특화된 한국어 LLM입니다. 이 모델은 원본 v9 모델을 AWQ (Activation-aware Weight Quantization) 4-bit로 양자화한 버전입니다.
- Original Model: tellang/yeji-4b-instruct-v9
- Quantization: AWQ 4-bit (group_size=128)
- Parameters: ~1.3B (양자화 후)
- Optimized for: vLLM, TGI 등 GPU 서빙 프레임워크
Quantization Details
| Parameter | Value |
|---|---|
| Method | AWQ (Activation-aware Weight Quantization) |
| Bits | 4 |
| Group Size | 128 |
| Original Size | ~8 GB |
| Quantized Size | ~2.5 GB |
| VRAM Required | ~3 GB |
Usage
vLLM (권장)
python -m vllm.entrypoints.openai.api_server \
--model tellang/yeji-4b-instruct-v9-AWQ \
--quantization awq \
--max-model-len 4096
Transformers
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "tellang/yeji-4b-instruct-v9-AWQ"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")
messages = [
{"role": "system", "content": "당신은 전문 타로 상담사입니다."},
{"role": "user", "content": "오늘의 원카드 타로 리딩을 해주세요."}
]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512, temperature=0.7)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Other Formats
| Format | Model | Use Case |
|---|---|---|
| Full (FP16) | yeji-4b-instruct-v9 | 학습, 고정밀 추론 |
| MLX 4-bit | yeji-4b-instruct-v9-mlx-4bit | Apple Silicon |
| GGUF | yeji-4b-gguf | llama.cpp, Ollama |
Limitations
- 한국어 운세/점술 도메인 특화 모델이므로 범용 대화 성능은 제한적입니다.
- AWQ 양자화로 인해 원본 대비 미세한 품질 저하가 있을 수 있습니다.
- 점술 결과는 엔터테인먼트 목적입니다.
- Downloads last month
- 4