Darwin-9B-KOREA

한국어/영어 이중언어 추론에 최적화된 9B 파라미터 모델 (28B-KOREA의 경량 자매 모델)

VIDRAFT Darwin 시리즈의 PERFECT 부모 페어 머지. Darwin-9B-Opus(정) × Darwin-9B-NEG(반) 페어를 per-layer 동적 비율로 결합하여, 28B-KOREA 대비 1/2.7 사이즈로 거의 동등한 한국어 능력을 달성.

부모 모델 (PERFECT Pair)

Role Model Strength
Father FINAL-Bench/Darwin-9B-Opus 영어 reasoning, 한국어 답변
Mother FINAL-Bench/Darwin-9B-NEG Negative SFT, 정/반 합성

페어 호환성: hidden=4096, intermediate=12288, layers=32, vocab=248320 — 100% 일치 PERFECT pair.

머지 방식

  • 알고리즘: Per-layer linear interpolation (float32 → bfloat16)
  • t vector: 32 레이어 동적 가중치 (mean t=0.513)
    • Golden Reasoning Layer (L0): t=0.90 (28B 페어는 L47, 9B는 L0이 입력 직후 가장 reasoning critical)
    • Output Router (L31): t=0.53
  • 챗 템플릿/토크나이저: Father 기준

평가 결과 (35-sample 3-way bench, max_tokens=5120)

평가 항목 Father (9B-Opus) Mother (9B-NEG) KOREA (Child)
정확도 (29개 객관식) 93.1% 93.1% 93.1%
한국어 출력률 (한국어 질문 23개) 91.3% 87.0% 91.3%

Win/Loss: Father vs Child 0:0, Mother vs Child 0:0 — 완전 동률 (자식이 두 부모와 동급)

28B-KOREA 비교: 정확도 -3.5%p (96.6% → 93.1%, 모델 크기 차이), 한국어 출력률 동일 91.3%.

사용 권장

  • 권장 max_tokens: 1024 이상 (chain-of-thought 특성)
  • GPU 메모리: ~20GB BF16 (단일 H100/H200/A100 80GB 충분)
  • 사고 패턴: 영어 reasoning 후 한국어 답변. 답 정확도 우선이면 권장.

Quick Start

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model = AutoModelForCausalLM.from_pretrained(
    "VIDraft/Darwin-9B-KOREA",
    torch_dtype=torch.bfloat16,
    device_map="auto",
    trust_remote_code=True,
)
tok = AutoTokenizer.from_pretrained("VIDraft/Darwin-9B-KOREA", trust_remote_code=True)

msgs = [{"role": "user", "content": "한국 최초 한글 창제 이유를 한 문장으로."}]
inputs = tok.apply_chat_template(msgs, return_tensors="pt", add_generation_prompt=True).to(model.device)
out = model.generate(inputs, max_new_tokens=1024, do_sample=False, pad_token_id=tok.eos_token_id)
print(tok.decode(out[0][inputs.shape[1]:], skip_special_tokens=True))

License

Apache 2.0 (부모 모델 상속).

Related Models


VIDRAFT Darwin Factory — Pair: Darwin-9B-Opus × Darwin-9B-NEG → Darwin-9B-KOREA

Downloads last month
-
Safetensors
Model size
10B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for VIDraft/Darwin-9B-KOREA

Finetuned
(3)
this model