YEJI-4B-Instruct-v9-AWQ

yeji-4b-instruct-v9AWQ 4-bit 양자화 버전. vLLM 프로덕션 서빙에 최적화.

Model Description

YEJI는 사주(四柱), 서양 점성술, 타로, 화투 4개 도메인에 특화된 한국어 LLM입니다. 이 모델은 원본 v9 모델을 AWQ (Activation-aware Weight Quantization) 4-bit로 양자화한 버전입니다.

  • Original Model: tellang/yeji-4b-instruct-v9
  • Quantization: AWQ 4-bit (group_size=128)
  • Parameters: ~1.3B (양자화 후)
  • Optimized for: vLLM, TGI 등 GPU 서빙 프레임워크

Quantization Details

Parameter Value
Method AWQ (Activation-aware Weight Quantization)
Bits 4
Group Size 128
Original Size ~8 GB
Quantized Size ~2.5 GB
VRAM Required ~3 GB

Usage

vLLM (권장)

python -m vllm.entrypoints.openai.api_server \
    --model tellang/yeji-4b-instruct-v9-AWQ \
    --quantization awq \
    --max-model-len 4096

Transformers

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "tellang/yeji-4b-instruct-v9-AWQ"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto", device_map="auto")

messages = [
    {"role": "system", "content": "당신은 전문 타로 상담사입니다."},
    {"role": "user", "content": "오늘의 원카드 타로 리딩을 해주세요."}
]

text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512, temperature=0.7)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Other Formats

Format Model Use Case
Full (FP16) yeji-4b-instruct-v9 학습, 고정밀 추론
MLX 4-bit yeji-4b-instruct-v9-mlx-4bit Apple Silicon
GGUF yeji-4b-gguf llama.cpp, Ollama

Limitations

  • 한국어 운세/점술 도메인 특화 모델이므로 범용 대화 성능은 제한적입니다.
  • AWQ 양자화로 인해 원본 대비 미세한 품질 저하가 있을 수 있습니다.
  • 점술 결과는 엔터테인먼트 목적입니다.
Downloads last month
4
Safetensors
Model size
4B params
Tensor type
I64
·
I32
·
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for tellang/yeji-4b-instruct-v9-AWQ

Finetuned
Qwen/Qwen3-4B
Quantized
(2)
this model

Dataset used to train tellang/yeji-4b-instruct-v9-AWQ