GenX
Collection
5 items
โข
Updated
GenX๋ INTERX Gen.AI ํ์์ ๊ฐ๋ฐํ ์ ์กฐ ํนํ ์ธ์ด ๋ชจ๋ธ์ ๋๋ค.
GenX๋ ์์ฒด ์์งํ ์ ์กฐ ๋๋ฉ์ธ ๋ฐ์ดํฐ๋ฅผ ์ด์ฉํด ํ์ต๋์์ผ๋ฉฐ, ๋ฐ์ด๋ ์ ์กฐ ์ง์์ ๋ฐํ์ผ๋ก ์ฌ์ฉ์์ ๋ฌผ์์ ๋ ๊ธธ๊ณ ์ ํํ๋ฉฐ ์์ธํ ๋ต๋ณ์ ์ ๊ณตํฉ๋๋ค.
| Input | Qwen3-30B-A3B-Instruct-2507 | Qwen3-GenX1.9-30B-A3B-LoRA |
|---|---|---|
| CNC ๊ฐ๊ณต ๊ณต์ ์์ ์น์ ๋ถ๋์ด ๊ฐ์๊ธฐ ์ฆ๊ฐํ์ต๋๋ค. ์ค๋น ์กฐ๊ฑด์ ๋์ผํ๋ฐ ๊ณต๊ตฌ ์ฌ์ฉ ์๊ฐ์ด ๊ธฐ์ค๋ณด๋ค ๊ธธ์ด์ก์ต๋๋ค. ๊ฐ์ฅ ๊ฐ๋ฅ์ฑ ๋์ ์์ธ๊ณผ ์ทจํด์ผํ ์กฐ์น๋ฅผ ์ธ ๋ฌธ์ฅ ๋ด๋ก ๋๋ตํด์ค | ๊ณต๊ตฌ ๋ง๋ชจ๋ก ์ธํ ์น์ ๋ถ๋์ด ๋ฐ์ํ์ ๊ฐ๋ฅ์ฑ์ด ๋์ต๋๋ค. ๊ณต๊ตฌ ์ฌ์ฉ ์๊ฐ์ด ๊ธฐ์ค์ ์ด๊ณผํ์ผ๋ฏ๋ก ์ฆ์ ๊ณต๊ตฌ ๊ต์ฒด๊ฐ ํ์ํฉ๋๋ค. ๊ต์ฒด ํ ๊ณต์ ๊ฒ์ฆ์ ํตํด ์น์ ์์ ์ฑ์ ํ์ธํด์ผ ํฉ๋๋ค. | ๊ณต๊ตฌ ๋ง๋ชจ๊ฐ ์น์ ๋ถ๋์ ๊ฐ์ฅ ๊ฐ๋ฅ์ฑ ๋์ ์์ธ์ ๋๋ค. ์ฆ์ ์ฌ์ฉ ์ค์ธ ๊ณต๊ตฌ๋ฅผ ๊ต์ฒดํ๊ณ , ๋ค์ ๊ณต๊ตฌ์ ๊ต์ฒด ์ฃผ๊ธฐ๋ฅผ 10~20% ๋จ์ถํ์ฌ ์๋ฐฉํด์ผ ํฉ๋๋ค. ๋ํ, ๊ณต๊ตฌ ์์กด ์๊ฐ๊ณผ ์น์ ํ์ง์ ์๊ด ๊ด๊ณ๋ฅผ ๊ธฐ๋กํ์ฌ ํฅํ ํธ๋๋๋ฅผ ๋ถ์ํด์ผ ํฉ๋๋ค. |
| ์ฌ์ถ ์ฑํ ๊ณต์ ์์ ํน์ ๊ต๋์กฐ์์๋ง ์ธ๊ด ๋ถ๋์ด ๋ฐ์ํฉ๋๋ค. ๊ฐ์ฅ ๋จผ์ ์์ฌํด์ผ ํ ์์๋ ๋ฌด์์ธ์ง ํ ๋ง๋๋ก ๋๋ตํ์ธ์. | ์ฌ์ฉ ์ค์ธ ๊ธํ์ด๋ ๋งคํธ๋ฆญ์ค์ ํน์ ์กฐ๊ฑด/๋์/๋ง๋ชจ ์ํ | ๊ต๋์กฐ๋ณ๋ก ๋ฌ๋ผ์ง๋ ์ธ๋ ฅ์ ์์ ์ต๊ด ๋๋ ๊ต์ก ์์ค |
์๋ ์์ ์ฝ๋๋ฅผ ํ์ฉํ๋ฉด GenX๋ฅผ transformers ๊ธฐ๋ฐ์ผ๋ก ๋ถ๋ฌ์ ์ฌ์ฉํ ์ ์์ต๋๋ค.
from transformers import AutoModelForCausalLM, AutoTokenizer
from transformers.generation import GenerationConfig
model_id = "INTERX/Qwen3-GenX1.9-30B-A3B-LoRA"
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", torch_dtype="auto", trust_remote_code=True)
prompt = "์ฌ์ถ์ฑํ์ด ๋ญ๊ฐ์?"
messages = [{"role": "user", "content": prompt}]
tokenized_chat = tokenizer.apply_chat_template(
messages,
tokenizer=True,
add_generation_prompt=True,
return_tensors='pt'
).to(model.device)
generated_ids = model.generate(tokenized_chat, max_new_tokens=512)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(tokenized_chat, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
@misc{qwen3-genx1.9-30b-a3b-lora,
title = {Qwen3-GenX1.9-30B-A3B-LoRA},
url = {https://huggingface.co/INTERX/Qwen3-GenX1.9-30B-A3B-LoRA/main/README.md},
author = {Gen.AI@INTERX},
month = {Dec},
year = {2025}
}
Base model
Qwen/Qwen3-30B-A3B-Instruct-2507