LLM-OS-Models/Ouro-2.6B-Thinking-Terminal-SFT
ํฐ๋ฏธ๋ ์์ ์๋ํ๋ฅผ ์ํ Terminal SFT ๋ชจ๋ธ์ ๋๋ค. ์ ๋ ฅ๋ ์์ /์ด์ ํฐ๋ฏธ๋ ์ํ๋ฅผ ๋ณด๊ณ ๋ค์์ ์คํํ ๋ช ๋ น์ JSON ํํ๋ก ์์ฑํ๋ ์ฉ๋๋ก ํ์ตํ์ต๋๋ค.
๋ชจ๋ธ ์์ฝ
- Base model:
ByteDance/Ouro-2.6B-Thinking - Training setup:
Terminal SFT - Evaluation snapshot:
2026-05-09 00:57:17 UTC - Evaluation result id:
ouro_2p6b_thinking_terminal_sft
Quickstart
์ค์น์ ๋ก๊ทธ์ธ:
pip install -U vllm transformers huggingface_hub
huggingface-cli login
๊ด๋ จ ์ฝ๋:
- GitHub: https://github.com/LLM-OS-Models/Terminal
- vLLM ํ๊ฐ ์คํ:
tb2_lite/scripts/replay_eval.py - chat template/fallback ์์ฑ:
tb2_lite/scripts/prompt_builder.py - JSON/command ์ฑ์ :
tb2_lite/scripts/replay_metrics.py
vLLM ์ง์ ์คํ ์์. ํ๊ฐ ์ฝ๋์ ๋์ผํ๊ฒ chat template์ ์ฐ์ ์ฌ์ฉํ๊ณ , template์ด ์์ผ๋ฉด ChatML/Gemma fallback์ ์ฌ์ฉํฉ๋๋ค.
from transformers import AutoTokenizer
from vllm import LLM, SamplingParams
model_id = "LLM-OS-Models/Ouro-2.6B-Thinking-Terminal-SFT"
tp = 1
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
llm = LLM(
model=model_id,
tokenizer=model_id,
trust_remote_code=True,
dtype="bfloat16",
tensor_parallel_size=tp,
max_model_len=49152,
gpu_memory_utilization=0.92,
)
messages = [
{"role": "system", "content": "You are a terminal automation assistant. Return JSON only."},
{"role": "user", "content": "Inspect the current directory and list Python files."},
]
def render_chatml(messages):
parts = []
for message in messages:
role = "assistant" if message["role"] == "assistant" else message["role"]
if role == "tool":
role = "user"
parts.append(f"<|im_start|>{role}\n{message['content']}<|im_end|>\n")
parts.append("<|im_start|>assistant\n")
return "".join(parts)
def render_gemma4_turn(messages, empty_thought_channel=False):
parts = ["<bos>"]
for message in messages:
role = "model" if message["role"] == "assistant" else message["role"]
if role == "tool":
role = "user"
parts.append(f"<|turn>{role}\n{message['content'].strip()}<turn|>\n")
parts.append("<|turn>model\n")
if empty_thought_channel:
parts.append("<|channel>thought\n<channel|>")
return "".join(parts)
def render_prompt(model_id, tokenizer, messages):
model_key = model_id.lower()
if "gemma-4" in model_key:
try:
return tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True,
enable_thinking=False,
)
except Exception:
return render_gemma4_turn(
messages,
empty_thought_channel=("26b" in model_key or "31b" in model_key),
)
try:
return tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
except Exception:
return render_chatml(messages)
prompt = render_prompt(model_id, tokenizer, messages)
sampling = SamplingParams(
temperature=0.0,
top_p=1.0,
max_tokens=1024,
repetition_penalty=1.0,
)
outputs = llm.generate([prompt], sampling_params=sampling)
print(outputs[0].outputs[0].text)
๊ถ์ฅ ์ถ๋ ฅ ํ์:
{
"analysis": "brief reasoning about the next terminal action",
"plan": "short execution plan",
"commands": [
{"keystrokes": "ls -la\n", "duration": 0.1}
],
"task_complete": false
}
ํ๊ฐ์ ๋์ผํ replay ๋ช ๋ น:
python tb2_lite/scripts/replay_eval.py \
--model LLM-OS-Models/Ouro-2.6B-Thinking-Terminal-SFT \
--model-short ouro_2p6b_thinking_terminal_sft \
--eval-path tb2_lite/data/replay_full.jsonl \
--output-dir /home/work/.data/tb2_lite_eval/corrected_readme_models_vllm \
--dtype bfloat16 \
--tp 1 \
--max-model-len 49152 \
--max-tokens 1024 \
--temperature 0.0 \
--top-p 1.0 \
--gpu-memory-utilization 0.92 \
--language-model-only
- ๊ธฐ๋ณธ ๊ถ์ฅ tensor parallel:
1. OOM์ด๋ฉด--tp์tensor_parallel_size๋ฅผ 2/4/8๋ก ์ฌ๋ฆฌ์ธ์. - corrected TB2-lite ํ๊ฐ๋
temperature=0.0,top_p=1.0,max_tokens=1024๋ก ๊ณ ์ ํ์ต๋๋ค. - Gemma 4๋ JSON ์ถ๋ ฅ์ ์ํด
enable_thinking=False๋ฅผ ์ฌ์ฉํ๊ณ , 26B/31B ๊ณ์ด์ ํ๊ฐ ์ฝ๋์์ empty thought channel ์ฒ๋ฆฌ๋ฅผ ์๋ ์ ์ฉํฉ๋๋ค.
ํ๊ฐ ๊ฒฐ๊ณผ
ํ๊ฐ๋ corrected TB2-lite replay set์์ vLLM์ผ๋ก ์ํํ์ต๋๋ค. ์์ ์ ์๋ 100 * avg_command_f1๋ง ์ฌ์ฉํ๊ณ , first_cmd_exact_pct๋ ๋ณด์กฐ ์งํ๋ก๋ง ๋ด
๋๋ค.
- Rank:
14 / 56 - Score:
35.61 - Command F1:
0.3561 - Command precision:
0.4586 - Command recall:
0.3647 - First command exact:
25.1% - Valid JSON:
61.1% - Steps / tasks:
303 / 50 - Sec/step:
3.358 - Load time:
135.3s - Template status:
chat_template - Rank eligible:
True - Eval timestamp:
2026-05-07T22:57:10.191295 - ํ์ฌ ์ง๊ณ๋ ํ๊ฐ ๊ฒฐ๊ณผ ์:
56
Prompt/template audit:
{
"template_status": "chat_template",
"rank_eligible": true,
"steps": 303,
"tasks": 50
}
์ฅ์
- ์ค์์๊ถ ์ ์๋ก, ๊ธฐ๋ณธ์ ์ธ ํฐ๋ฏธ๋ next-action imitation์ ๋น๊ต์ ์์ ์ ์ ๋๋ค.
- ์๋ชป๋ ๋ช ๋ น์ ๋ง์ด ๋ด๊ธฐ๋ณด๋ค ๋ณด์์ ์ผ๋ก ๋ง๋ ๋ช ๋ น์ ๋ด๋ ๊ฒฝํฅ์ด ์์ต๋๋ค.
๋ชจ๋ธ๊ตฐ ํด์
- Ouro ๊ณ์ด์ Thinking SFT ์ชฝ์์ ์ ์๊ฐ ์ ์ฌ๋ผ๊ฐ์ง๋ง, ๊ฐ์ ํ๊ฐ ๊ธฐ์ค์์ LFM/Qwen ๋๋น sec/step์ด ์ปค์ RL ๋๋ ๋ฐ๋ณต์๋ ๋น์ฉ์ด ํฝ๋๋ค.
- ์ ์๋ ์๋ฏธ ์์ผ๋ ์๋ ๋ณ๋ชฉ์ด ์์ด, ์ฃผ๋ ฅ๋ณด๋ค๋ ์์ ํ๋ณด ํ์ธ์ฉ ablation์ ๋ ์ ํฉํฉ๋๋ค.
- ์๋๋
3.358sec/step ์์ค์ ๋๋ค. - RL ํ๋ณด์ฑ: ์ ์๋ ์ถฉ๋ถํ์ง๋ง ์๋ ๋น์ฉ ๋๋ฌธ์ ์๊ท๋ชจ ๋น๊ต ํ๋ณด๋ก ๋๋ ํธ์ด ์์ ํฉ๋๋ค.
ํ๊ณ์ ์ฃผ์์ฌํญ
- recall์ด ์๋์ ์ผ๋ก ๋ฎ์ ํ์ํ ๋ช ๋ น ์ผ๋ถ๋ฅผ ๋น ๋จ๋ฆด ์ ์์ต๋๋ค.
- JSON ํ์ ์คํจ๊ฐ ์์ด ์คํ ์ ์ ํ์ฑ ๊ฒ์ฆ/์ฌ์๋๊ฐ ํ์ํฉ๋๋ค.
- Ouro ๊ณ์ด์ assistant-only masking ๋ฐ prompt template ์ผ์น ์ฌ๋ถ๊ฐ ์ฑ๋ฅ ํด์์ ํฐ ์ํฅ์ ์ค๋๋ค.
- ์ด ๋ชจ๋ธ์ ์๋ ํฐ๋ฏธ๋ ์กฐ์ ๋ณด์กฐ์ฉ SFT ๋ชจ๋ธ์ด๋ฉฐ, ์ผ๋ฐ ๋ํ/๋ฒ์ฉ ์ถ๋ก ์ฑ๋ฅ์ ๋ณด์ฅํ์ง ์์ต๋๋ค.
- ์์ฑ ๋ช ๋ น์ ์ค์ ์คํ ์ ์ sandbox, allowlist, human review ๊ฐ์ ์์ ์ฅ์น๋ฅผ ๊ฑฐ์ณ์ผ ํฉ๋๋ค.
ํด์ ๋ฉ๋ชจ
TB2-lite ์ ์๋ ์ผ๋ฐ ์ง๋ฅ ๋ฒค์น๋งํฌ๊ฐ ์๋๋ผ ํฐ๋ฏธ๋ next-action JSON ์ฌํ ๋ฅ๋ ฅ์ ์ธก์ ํฉ๋๋ค. ๋ฐ๋ผ์ ๋ชจ๋ธ ํฌ๊ธฐ, chat template ์ผ์น, assistant-only masking, tokenizer, ํ์ต ๋ฐ์ดํฐ holdout ์ฌ๋ถ๊ฐ ๋ชจ๋ ์ ์์ ์ํฅ์ ์ค๋๋ค.
README.md์ MODEL_EVALUATION_REPORT.md์ ๊ฐ์ด ๋ ์ต์ ์ด๋ฉด ํด๋น ๊ฐ์ ์ฐ์ ํ์ธํ์ธ์. ์ด ๋ชจ๋ธ์นด๋๋ ์๋ฃ๋ ํ๊ฐ JSON์ ๊ธฐ์ค์ผ๋ก ๊ฐ๋ณ ์ ์ฅ์์ ๋น ๋ฅด๊ฒ ๋ฐ์ํ ์ค๋ ์ท์ ๋๋ค.
- Downloads last month
- 63
Model tree for LLM-OS-Models/Ouro-2.6B-Thinking-Terminal-SFT
Base model
ByteDance/Ouro-2.6B-Thinking