How to use zai-org/chatglm-6b with Transformers:
# Load model directly from transformers import AutoModel model = AutoModel.from_pretrained("zai-org/chatglm-6b", trust_remote_code=True, dtype="auto")
运行第3步的时候显示这个错误,我检查了关于加载tokenizer的代码,严格按照示例写的,不知道为啥报这个错。
· Sign up or log in to comment