HyperCLOVAX-SEED-32B 모델의 `model_type`을 `hyperclovax_vision_v2`으로 변경 요청드립니다 (transformers PR 연계)

#11
by jp1924 - opened

안녕하세요.

현재 Hugging Face Transformers에 naver-hyperclovax/HyperCLOVAX-SEED-Think-32B 모델을 공식 지원하기 위한 PR을 진행 중입니다.

링크: https://github.com/huggingface/transformers/pull/44314

PR 리뷰 과정에서 리뷰어께서 model_type 관련 피드백을 주셨습니다.
현재 vlm 단일 값으로 설정되어 있어서, 다른 VLM 모델들과 구분이 되지 않아 충돌 가능성이 있다고 지적하셨습니다.
(예: Qwen-VL 시리즈도 qwen_vl처럼 접두어를 함께 사용하고 있습니다.)

따라서 모델의 model_typehyperclovax_vision_v2으로 변경해 주실 것을 정중히 요청드립니다.

이 변경은:

  • 기존에 vlm을 사용하던 코드에 전혀 영향을 주지 않습니다.
  • transformers 라이브러리에서 모델을 정확히 인식하고 로드할 수 있게 됩니다.
  • 향후 vLLM 등 다른 라이브러리 연동 시에도 혼란을 방지할 수 있습니다.

추가로 말씀드리자면,
저는 이 모델을 실제 프로젝트에 적용하려고 여러 실험을 하고 있는데, 현재 업로드된 코드가 상당히 오래된 버전이고 실험적인 부분이 많이 포함되어 있어 디버깅과 유지보수가 매우 어렵습니다.
아마 다른 사용자분들도 같은 불편을 느끼고 계실 것 같습니다.

LG AI, Upstage 등 다른 기업들은 이미 자체 모델에 대해 Transformers와 vLLM에 공식 PR을 제출, 머지한 상태입니다.
HyperCLOVAX도 정부 주도 파운데이션 모델 프로젝트의 결과물인 만큼, 조금만 더 관리되어 사용자들이 쉽게 활용할 수 있게 된다면 좋을 것 같습니다.

저는 이미 transformers PR을 진행하면서 최대한 기여하려고 노력하고 있습니다.
모델 저장소 쪽에서도 model_type만 간단히 업데이트해 주시면 PR을 쉽게 마무리될 수 있을 것 같습니다.

가능하시면 검토 후 변경 부탁드리겠습니다.
필요한 부분이 있거나 추가 설명이 필요하시면 언제든 말씀해 주세요.
감사합니다!

jp1924 changed pull request title from Update config.json to vlm to hyperclovax_vlm
jp1924 changed pull request title from vlm to hyperclovax_vlm to HyperCLOVAX-SEED-32B 모델의 `model_type`을 `hyperclovax_vlm`으로 변경 요청드립니다 (transformers PR 연계)
jp1924 changed pull request title from HyperCLOVAX-SEED-32B 모델의 `model_type`을 `hyperclovax_vlm`으로 변경 요청드립니다 (transformers PR 연계) to HyperCLOVAX-SEED-32B 모델의 `model_type`을 `hyperclovax_vision_v2`으로 변경 요청드립니다 (transformers PR 연계)
Ready to merge
This branch is ready to get merged automatically.

Sign up or log in to comment