KoQweopus-3.5
Collection
🇰🇷 A curated collection of Korean reasoning models distilled from Opus. • 1 item • Updated
한국어 reasoning 능력을 강화한 Qwen3.5-27B SFT 모델.
Qwen/Qwen3.5-27B<think>...</think> 블록으로 모델의 단계별 추론 과정을 노출KORMo-Team/NemoPost-ko-synth 기반 한국어 reasoning 데이터에서 샘플링하여 LoRA SFT.
고품질의 한국어 합성 reasoning 데이터를 공개해주신 KORMo Team 에 감사드립니다. 이 모델은 해당 데이터셋 없이는 만들어질 수 없었습니다.
@misc{KORMo,
author = {Minjun Kim and Hyeonseok Lim and Hangyeol Yoo and Inho Won and Seungwoo Song and Minkyung Cho and Junghun Yuk and Changsu Choi and Dongjae Shin and Huije Lee and Hoyun Song and Alice Oh and KyungTae Lim},
title = {KORMo: Korean Open Reasoning Model for Everyone},
year = {2025},
journal= {Technical Report},
url = {https://arxiv.org/abs/2510.09426}
}
vllm serve jiwon9703/Qwen3.5-KoReason-27B \
--host 0.0.0.0 --port 8000 \
--reasoning-parser qwen3 \
--enable-auto-tool-choice \
--tool-call-parser qwen3_coder
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "jiwon9703/Qwen3.5-KoReason-27B"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype="auto", device_map="auto")
messages = [{"role": "user", "content": "한국이 외환위기를 극복한 과정을 단계별로 설명해주세요."}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
out = model.generate(**inputs, max_new_tokens=2048)
print(tokenizer.decode(out[0], skip_special_tokens=False))
KORMo-Team/NemoPost-ko-synth 의 이용 조건을 따르며, 데이터셋 페이지에 명시된 조항이 있다면 그에 준합니다. 데이터셋 페이지에 명시된 라이센스가 없는 시점에는 원 저자의 의도를 존중하여 연구 및 비상업적 용도를 우선 권장합니다.Base model
Qwen/Qwen3.5-27B