huggingface 통한 inference 시 무한 대기 문제

#9
by kazexd - opened

안녕하세요,
huggingface 통해 non-think mode로 본 모델을 inference 시도하였으나, 수 십분 대기하여도 생성이 완료되지 않고 코드가 무한 실행되는 문제를 겪고 있습니다. (vllm 활용 시에는 문제 없었습니다.)

아래에는 실행한 코드 공유드립니다. (환경: A100 GPU*2)
감사합니다.

from transformers import AutoTokenizer
from transformers import AutoModelForCausalLM

model_path = "naver-hyperclovax/HyperCLOVAX-SEED-Think-14B"

model = AutoModelForCausalLM.from_pretrained(
        model_path,
        torch_dtype="auto",
        device_map="auto",
        trust_remote_code=True
    ).eval()

tokenizer = AutoTokenizer.from_pretrained(model_path)

messages = [
        {
            "role": "system",
            "content": "", # 생략
        },
        {
            "role": "user",
            "content": "", # 생략
        }
    ]

input_text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True, skip_reasoning=True)
model_inputs = tokenizer([input_text], return_tensors="pt").to(model.device)

with torch.no_grad(): 
    generated_ids = model.generate(
        **model_inputs,
        max_new_tokens=2048,
        do_sample=False,
        stop_strings=["<|endofturn|>", "<|stop|>"],
        tokenizer=tokenizer
    )

Sign up or log in to comment