TenOS-Ko-28B
TenAI 한국어 특화 28B 멀티모달 언어 모델 K-AI 리더보드 평가 항목(KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko))에 최적화된 한국어 모델
🎯 모델 소개
TenOS-Ko-28B는 TenAI가 개발한 한국어 특화 28B 파라미터 멀티모달 언어 모델입니다.
K-AI 리더보드 평가 항목들에 대해 한국어 추론·이해 능력을 강화하도록 도메인 SFT(Supervised Fine-Tuning)를 적용하여 만들어진 모델입니다. 한국어 표현, 한국 문화·역사·법률·일반 상식 등에 강점이 있으며, 멀티모달(이미지·비디오) 입력도 지원합니다.
🧬 계보 (Lineage)
Qwen3.5-27B (Alibaba Qwen team)
|
v
Darwin family 28B 한국어 특화 2세대 모체
(FINAL-Bench/Darwin-28B-KR — Apache 2.0)
|
| TenAI K-AI 도메인 SFT (LoRA r=16)
| 대상: KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko)
v
TenOS-Ko-28B <- this model
베이스 모델인 Darwin-28B-KR은 한국어 표현 능력에 특화된 28B 모델로, 그 위에 K-AI 평가 도메인 데이터로 미세조정하여 TenOS-Ko-28B를 완성했습니다.
⚙️ 능력 매트릭스
| 능력 | 강도 |
|---|---|
| 한국어 이해/생성 | ⭐⭐⭐⭐⭐ |
| 한국어 추론 (CSAT/PSAT/K-AI 평가) | ⭐⭐⭐⭐⭐ |
| 한국 문화·역사·법률 지식 | ⭐⭐⭐⭐⭐ |
| 영어 추론 | ⭐⭐⭐⭐ |
| 멀티모달 (이미지/비디오) | ⭐⭐⭐⭐ |
| 영한 코드스위칭 | ⭐⭐⭐⭐ |
📊 K-AI 리더보드 CLIcK 비교
자체 측정 + 공개 리더보드 점수 비교:
| 모델 | CLIcK |
|---|---|
| QuettaLLMs-27B-Koreasoner-V3 | 0.794 |
| Rogue-27B-KR | 0.791 |
| Darwin-28B-KR (베이스) | 0.786 |
| AWAXIS-Think-28B | 0.770 |
| TenOS-Ko-28B | 0.770 |
(* 200문제 quick CLIcK 평가 기준. 실제 K-AI 리더보드 정식 평가에서는 ±2pp 변동 가능)
참고: K-AI 리더보드의 진가는 4개 항목(KMMLU-Pro/CLIcK/MuSR/Com2-main) 평균에서 드러나며, TenOS-Ko-28B는 CLIcK 외 항목에서 추가 향상이 기대됩니다.
🛠️ 학습 정보
| 항목 | 값 |
|---|---|
| 베이스 모델 | FINAL-Bench/Darwin-28B-KR (Apache 2.0) |
| 학습 방법 | LoRA (r=16, alpha=32) |
| LoRA target | Attention + Embedding + LM head |
| 학습 데이터 | K-AI 도메인 합성 데이터 + 정체성 학습 데이터 |
| 학습량 | 1 epoch (batch 1, grad_accum 16) |
| Optimizer | AdamW (lr=5e-5, cosine schedule) |
| Format | bfloat16 |
📊 사양
| 항목 | 값 |
|---|---|
| Architecture | Qwen3_5ForConditionalGeneration (hybrid full + linear attention) |
| Parameters | ~28B |
| Hidden size | 5120 |
| Layers | 64 |
| Vocab size | 248,320 |
| Format | bfloat16 (~53 GB on disk) |
| Context | 8K~32K (배포 환경 따라) |
🚀 사용법
vLLM (권장)
vllm serve TenAI/TenOS-Ko-28B \
--trust-remote-code \
--port 8000 \
--enforce-eager \
--max-model-len 8192 \
--gpu-memory-utilization 0.85
OpenAI 호환 클라이언트
from openai import OpenAI
client = OpenAI(base_url="http://localhost:8000/v1", api_key="EMPTY")
response = client.chat.completions.create(
model="TenAI/TenOS-Ko-28B",
messages=[
{"role": "user", "content": "한국의 광복절은 무엇을 기념하는 날인가요?"}
],
max_tokens=2048,
temperature=0.0,
)
print(response.choices[0].message.content)
transformers (직접 로드)
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model = AutoModelForCausalLM.from_pretrained(
"TenAI/TenOS-Ko-28B",
torch_dtype=torch.bfloat16,
device_map="auto",
trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("TenAI/TenOS-Ko-28B", trust_remote_code=True)
messages = [{"role": "user", "content": "한국어로 자기소개 해주세요"}]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
outputs = model.generate(inputs, max_new_tokens=512, temperature=0.0)
print(tokenizer.decode(outputs[0][inputs.shape[1]:], skip_special_tokens=True))
🖥️ 하드웨어 요구사항
| GPU 시리즈 | 상태 |
|---|---|
| NVIDIA Blackwell (B200) | ✅ Best |
| NVIDIA Hopper (H100/H200) | ✅ 권장 |
| NVIDIA Ada (L40S) | ⚠️ 빠듯함 (53GB BF16) |
| Older Ampere | ❌ VRAM 부족 |
최소 VRAM: ~55 GB (BF16 추론용)
💬 자기소개 예시
모델은 다음과 같이 자신을 소개합니다:
User: 당신은 누구인가요?
TenOS-Ko-28B: 저는 TenAI가 개발한 TenOS-Ko-28B입니다.
한국어에 특화된 280억 파라미터 규모의 언어 모델로,
다양한 질문과 대화에 도움을 드릴 수 있습니다.
🌳 활용 예시
- 한국어 일반 대화 / Q&A
- 한국 문화·역사·법률 지식 응답
- K-AI 리더보드 항목 추론 (KMMLU-Pro / CLIcK / MuSR / Com2-main)
- 영한 번역 / 코드스위칭
- 이미지/비디오 분석 + 한국어 설명
- 한국어 글쓰기 / 요약 / 창작
🙏 Credits
- Architecture: Qwen3.5 (Alibaba Qwen team)
- Base model: FINAL-Bench/Darwin-28B-KR (Apache 2.0)
- Fine-tuning: TenAI
📜 License
Apache 2.0 (베이스 모델로부터 상속)
📞 문의
모델에 대한 문의나 협업 제안은 HuggingFace 페이지를 통해 연락 부탁드립니다.
- Downloads last month
- 248