Qwen3.5-KoReason-27B

한국어 reasoning 능력을 강화한 Qwen3.5-27B SFT 모델.

개요

  • Base: Qwen/Qwen3.5-27B
  • 학습: 한국어 reasoning 데이터 기반 LoRA SFT
  • 지원: 한국어·영어, thinking, tool calling, 이미지 입력

주요 특징

  • Thinking mode<think>...</think> 블록으로 모델의 단계별 추론 과정을 노출
  • Tool calling — OpenAI 호환 function calling 지원
  • 한국어 reasoning — 복잡한 한국어 질문에 대해 단계별로 생각한 뒤 답변

학습 데이터

KORMo-Team/NemoPost-ko-synth 기반 한국어 reasoning 데이터에서 샘플링하여 LoRA SFT.

고품질의 한국어 합성 reasoning 데이터를 공개해주신 KORMo Team 에 감사드립니다. 이 모델은 해당 데이터셋 없이는 만들어질 수 없었습니다.

Dataset citation

@misc{KORMo,
  author = {Minjun Kim and Hyeonseok Lim and Hangyeol Yoo and Inho Won and Seungwoo Song and Minkyung Cho and Junghun Yuk and Changsu Choi and Dongjae Shin and Huije Lee and Hoyun Song and Alice Oh and KyungTae Lim},
  title  = {KORMo: Korean Open Reasoning Model for Everyone},
  year   = {2025},
  journal= {Technical Report},
  url    = {https://arxiv.org/abs/2510.09426}
}

사용 예시

vLLM 서빙

vllm serve jiwon9703/Qwen3.5-KoReason-27B \
  --host 0.0.0.0 --port 8000 \
  --reasoning-parser qwen3 \
  --enable-auto-tool-choice \
  --tool-call-parser qwen3_coder

transformers 추론

from transformers import AutoTokenizer, AutoModelForCausalLM

model_id = "jiwon9703/Qwen3.5-KoReason-27B"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id, torch_dtype="auto", device_map="auto")

messages = [{"role": "user", "content": "한국이 외환위기를 극복한 과정을 단계별로 설명해주세요."}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(text, return_tensors="pt").to(model.device)
out = model.generate(**inputs, max_new_tokens=2048)
print(tokenizer.decode(out[0], skip_special_tokens=False))

라이센스 및 이용 조건

  • 모델 weight: 원본 Qwen3.5 라이센스 를 상속합니다 (Apache 2.0 기준).
  • 학습 데이터: KORMo-Team/NemoPost-ko-synth 의 이용 조건을 따르며, 데이터셋 페이지에 명시된 조항이 있다면 그에 준합니다. 데이터셋 페이지에 명시된 라이센스가 없는 시점에는 원 저자의 의도를 존중하여 연구 및 비상업적 용도를 우선 권장합니다.

Base 모델

Downloads last month
1,112
Safetensors
Model size
28B params
Tensor type
BF16
·
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for jiwon9703/KoQweopus-3.5-27B-experimental

Base model

Qwen/Qwen3.5-27B
Finetuned
(259)
this model

Dataset used to train jiwon9703/KoQweopus-3.5-27B-experimental

Collection including jiwon9703/KoQweopus-3.5-27B-experimental

Paper for jiwon9703/KoQweopus-3.5-27B-experimental