How to use zai-org/chatglm2-6b with Transformers:
# Load model directly from transformers import AutoModel model = AutoModel.from_pretrained("zai-org/chatglm2-6b", trust_remote_code=True, dtype="auto")
本仓库并没有使用 langchain,请到对应的仓库提问
不好意思 , 贻笑大方了 , 丢人了 , 哈哈哈 自己的问题
· Sign up or log in to comment