HyperCLOVAX-SEED-32B 모델의 `model_type`을 `hyperclovax_vision_v2`으로 변경 요청드립니다 (transformers PR 연계)
안녕하세요.
현재 Hugging Face Transformers에 naver-hyperclovax/HyperCLOVAX-SEED-Think-32B 모델을 공식 지원하기 위한 PR을 진행 중입니다.
링크: https://github.com/huggingface/transformers/pull/44314
PR 리뷰 과정에서 리뷰어께서 model_type 관련 피드백을 주셨습니다.
현재 vlm 단일 값으로 설정되어 있어서, 다른 VLM 모델들과 구분이 되지 않아 충돌 가능성이 있다고 지적하셨습니다.
(예: Qwen-VL 시리즈도 qwen_vl처럼 접두어를 함께 사용하고 있습니다.)
따라서 모델의 model_type을 hyperclovax_vision_v2으로 변경해 주실 것을 정중히 요청드립니다.
이 변경은:
- 기존에
vlm을 사용하던 코드에 전혀 영향을 주지 않습니다. - transformers 라이브러리에서 모델을 정확히 인식하고 로드할 수 있게 됩니다.
- 향후 vLLM 등 다른 라이브러리 연동 시에도 혼란을 방지할 수 있습니다.
추가로 말씀드리자면,
저는 이 모델을 실제 프로젝트에 적용하려고 여러 실험을 하고 있는데, 현재 업로드된 코드가 상당히 오래된 버전이고 실험적인 부분이 많이 포함되어 있어 디버깅과 유지보수가 매우 어렵습니다.
아마 다른 사용자분들도 같은 불편을 느끼고 계실 것 같습니다.
LG AI, Upstage 등 다른 기업들은 이미 자체 모델에 대해 Transformers와 vLLM에 공식 PR을 제출, 머지한 상태입니다.
HyperCLOVAX도 정부 주도 파운데이션 모델 프로젝트의 결과물인 만큼, 조금만 더 관리되어 사용자들이 쉽게 활용할 수 있게 된다면 좋을 것 같습니다.
저는 이미 transformers PR을 진행하면서 최대한 기여하려고 노력하고 있습니다.
모델 저장소 쪽에서도 model_type만 간단히 업데이트해 주시면 PR을 쉽게 마무리될 수 있을 것 같습니다.
가능하시면 검토 후 변경 부탁드리겠습니다.
필요한 부분이 있거나 추가 설명이 필요하시면 언제든 말씀해 주세요.
감사합니다!