How to use zai-org/chatglm2-6b with Transformers:
# Load model directly from transformers import AutoModel model = AutoModel.from_pretrained("zai-org/chatglm2-6b", trust_remote_code=True, dtype="auto")
chatglm和chatglm2结构并不一样,也并不能完全通过config.json区分,但两者config.json里面model type都是chatglm,所以希望model type修改成chatglm2。
· Sign up or log in to comment