TenOS-Ko-28B

TenAI 한국어 특화 28B 멀티모달 언어 모델 K-AI 리더보드 평가 항목(KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko))에 최적화된 한국어 모델


🎯 모델 소개

TenOS-Ko-28B는 TenAI가 개발한 한국어 특화 28B 파라미터 멀티모달 언어 모델입니다.

K-AI 리더보드 평가 항목들에 대해 한국어 추론·이해 능력을 강화하도록 도메인 SFT(Supervised Fine-Tuning)를 적용하여 만들어진 모델입니다. 한국어 표현, 한국 문화·역사·법률·일반 상식 등에 강점이 있으며, 멀티모달(이미지·비디오) 입력도 지원합니다.


🧬 계보 (Lineage)

Qwen3.5-27B (Alibaba Qwen team)
       |
       v
Darwin family 28B 한국어 특화 2세대 모체
(FINAL-Bench/Darwin-28B-KR — Apache 2.0)
       |
       |  TenAI K-AI 도메인 SFT (LoRA r=16)
       |  대상: KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko)
       v
   TenOS-Ko-28B  <- this model

베이스 모델인 Darwin-28B-KR은 한국어 표현 능력에 특화된 28B 모델로, 그 위에 K-AI 평가 도메인 데이터로 미세조정하여 TenOS-Ko-28B를 완성했습니다.


⚙️ 능력 매트릭스

능력 강도
한국어 이해/생성 ⭐⭐⭐⭐⭐
한국어 추론 (CSAT/PSAT/K-AI 평가) ⭐⭐⭐⭐⭐
한국 문화·역사·법률 지식 ⭐⭐⭐⭐⭐
영어 추론 ⭐⭐⭐⭐
멀티모달 (이미지/비디오) ⭐⭐⭐⭐
영한 코드스위칭 ⭐⭐⭐⭐

📊 K-AI 리더보드 CLIcK 비교

자체 측정 + 공개 리더보드 점수 비교:

모델 CLIcK
QuettaLLMs-27B-Koreasoner-V3 0.794
Rogue-27B-KR 0.791
Darwin-28B-KR (베이스) 0.786
AWAXIS-Think-28B 0.770
TenOS-Ko-28B 0.770

(* 200문제 quick CLIcK 평가 기준. 실제 K-AI 리더보드 정식 평가에서는 ±2pp 변동 가능)

참고: K-AI 리더보드의 진가는 4개 항목(KMMLU-Pro/CLIcK/MuSR/Com2-main) 평균에서 드러나며, TenOS-Ko-28B는 CLIcK 외 항목에서 추가 향상이 기대됩니다.


🛠️ 학습 정보

항목
베이스 모델 FINAL-Bench/Darwin-28B-KR (Apache 2.0)
학습 방법 LoRA (r=16, alpha=32)
LoRA target Attention + Embedding + LM head
학습 데이터 K-AI 도메인 합성 데이터 + 정체성 학습 데이터
학습량 1 epoch (batch 1, grad_accum 16)
Optimizer AdamW (lr=5e-5, cosine schedule)
Format bfloat16

📊 사양

항목
Architecture Qwen3_5ForConditionalGeneration (hybrid full + linear attention)
Parameters ~28B
Hidden size 5120
Layers 64
Vocab size 248,320
Format bfloat16 (~53 GB on disk)
Context 8K~32K (배포 환경 따라)

🚀 사용법

vLLM (권장)

vllm serve TenAI/TenOS-Ko-28B \
    --trust-remote-code \
    --port 8000 \
    --enforce-eager \
    --max-model-len 8192 \
    --gpu-memory-utilization 0.85

OpenAI 호환 클라이언트

from openai import OpenAI

client = OpenAI(base_url="http://localhost:8000/v1", api_key="EMPTY")
response = client.chat.completions.create(
    model="TenAI/TenOS-Ko-28B",
    messages=[
        {"role": "user", "content": "한국의 광복절은 무엇을 기념하는 날인가요?"}
    ],
    max_tokens=2048,
    temperature=0.0,
)
print(response.choices[0].message.content)

transformers (직접 로드)

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model = AutoModelForCausalLM.from_pretrained(
    "TenAI/TenOS-Ko-28B",
    torch_dtype=torch.bfloat16,
    device_map="auto",
    trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("TenAI/TenOS-Ko-28B", trust_remote_code=True)

messages = [{"role": "user", "content": "한국어로 자기소개 해주세요"}]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
outputs = model.generate(inputs, max_new_tokens=512, temperature=0.0)
print(tokenizer.decode(outputs[0][inputs.shape[1]:], skip_special_tokens=True))

🖥️ 하드웨어 요구사항

GPU 시리즈 상태
NVIDIA Blackwell (B200) ✅ Best
NVIDIA Hopper (H100/H200) ✅ 권장
NVIDIA Ada (L40S) ⚠️ 빠듯함 (53GB BF16)
Older Ampere ❌ VRAM 부족

최소 VRAM: ~55 GB (BF16 추론용)


💬 자기소개 예시

모델은 다음과 같이 자신을 소개합니다:

User: 당신은 누구인가요?
TenOS-Ko-28B: 저는 TenAI가 개발한 TenOS-Ko-28B입니다.
              한국어에 특화된 280억 파라미터 규모의 언어 모델로,
              다양한 질문과 대화에 도움을 드릴 수 있습니다.

🌳 활용 예시

  • 한국어 일반 대화 / Q&A
  • 한국 문화·역사·법률 지식 응답
  • K-AI 리더보드 항목 추론 (KMMLU-Pro / CLIcK / MuSR / Com2-main)
  • 영한 번역 / 코드스위칭
  • 이미지/비디오 분석 + 한국어 설명
  • 한국어 글쓰기 / 요약 / 창작

🙏 Credits


📜 License

Apache 2.0 (베이스 모델로부터 상속)


📞 문의

모델에 대한 문의나 협업 제안은 HuggingFace 페이지를 통해 연락 부탁드립니다.

Downloads last month
248
Safetensors
Model size
27B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for honey90/TenOS-Ko-28B

Finetuned
(3)
this model