Mxode commited on
Commit
65e31b8
·
verified ·
1 Parent(s): 84f5ffb

Update README_zh-CN.md

Browse files
Files changed (1) hide show
  1. README_zh-CN.md +3 -3
README_zh-CN.md CHANGED
@@ -1,4 +1,4 @@
1
- # **NanoTranslator-XS**
2
 
3
  [English](README.md) | 简体中文
4
 
@@ -41,7 +41,7 @@ Prompt 格式如下:
41
  import torch
42
  from transformers import AutoTokenizer, AutoModelForCausalLM
43
 
44
- model_path = 'Mxode/NanoTranslator-XS'
45
 
46
  tokenizer = AutoTokenizer.from_pretrained(model_path)
47
  model = AutoModelForCausalLM.from_pretrained(model_path)
@@ -78,7 +78,7 @@ print(response)
78
 
79
  根据实际测试,使用 ONNX 模型推理会比直接使用 transformers 推理要**快 2~10 倍**。
80
 
81
- 如果希望使用 ONNX 模型,那么你需要手动切换到 [onnx 分支](https://huggingface.co/Mxode/NanoTranslator-XS/tree/onnx)并从本地加载。
82
 
83
  参考文档:
84
 
 
1
+ # **NanoTranslator-L**
2
 
3
  [English](README.md) | 简体中文
4
 
 
41
  import torch
42
  from transformers import AutoTokenizer, AutoModelForCausalLM
43
 
44
+ model_path = 'Mxode/NanoTranslator-L'
45
 
46
  tokenizer = AutoTokenizer.from_pretrained(model_path)
47
  model = AutoModelForCausalLM.from_pretrained(model_path)
 
78
 
79
  根据实际测试,使用 ONNX 模型推理会比直接使用 transformers 推理要**快 2~10 倍**。
80
 
81
+ 如果希望使用 ONNX 模型,那么你需要手动切换到 [onnx 分支](https://huggingface.co/Mxode/NanoTranslator-L/tree/onnx)并从本地加载。
82
 
83
  参考文档:
84