Update README_zh-CN.md
Browse files- README_zh-CN.md +3 -3
README_zh-CN.md
CHANGED
|
@@ -1,4 +1,4 @@
|
|
| 1 |
-
# **NanoTranslator-
|
| 2 |
|
| 3 |
[English](README.md) | 简体中文
|
| 4 |
|
|
@@ -41,7 +41,7 @@ Prompt 格式如下:
|
|
| 41 |
import torch
|
| 42 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
| 43 |
|
| 44 |
-
model_path = 'Mxode/NanoTranslator-
|
| 45 |
|
| 46 |
tokenizer = AutoTokenizer.from_pretrained(model_path)
|
| 47 |
model = AutoModelForCausalLM.from_pretrained(model_path)
|
|
@@ -78,7 +78,7 @@ print(response)
|
|
| 78 |
|
| 79 |
根据实际测试,使用 ONNX 模型推理会比直接使用 transformers 推理要**快 2~10 倍**。
|
| 80 |
|
| 81 |
-
如果希望使用 ONNX 模型,那么你需要手动切换到 [onnx 分支](https://huggingface.co/Mxode/NanoTranslator-
|
| 82 |
|
| 83 |
参考文档:
|
| 84 |
|
|
|
|
| 1 |
+
# **NanoTranslator-L**
|
| 2 |
|
| 3 |
[English](README.md) | 简体中文
|
| 4 |
|
|
|
|
| 41 |
import torch
|
| 42 |
from transformers import AutoTokenizer, AutoModelForCausalLM
|
| 43 |
|
| 44 |
+
model_path = 'Mxode/NanoTranslator-L'
|
| 45 |
|
| 46 |
tokenizer = AutoTokenizer.from_pretrained(model_path)
|
| 47 |
model = AutoModelForCausalLM.from_pretrained(model_path)
|
|
|
|
| 78 |
|
| 79 |
根据实际测试,使用 ONNX 模型推理会比直接使用 transformers 推理要**快 2~10 倍**。
|
| 80 |
|
| 81 |
+
如果希望使用 ONNX 模型,那么你需要手动切换到 [onnx 分支](https://huggingface.co/Mxode/NanoTranslator-L/tree/onnx)并从本地加载。
|
| 82 |
|
| 83 |
参考文档:
|
| 84 |
|