Update README.md
Browse files
README.md
CHANGED
|
@@ -10,8 +10,8 @@ license: apache-2.0
|
|
| 10 |
---
|
| 11 |
|
| 12 |
## Quick Start
|
| 13 |
-
This model is upgraded version of
|
| 14 |
-
Trained on 1500 row clean data
|
| 15 |
|
| 16 |
### 🤗 Hugging Face Transformers
|
| 17 |
|
|
@@ -21,8 +21,8 @@ Here we show a code snippet to show you how to use the chat model with `transfor
|
|
| 21 |
import torch
|
| 22 |
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
|
| 23 |
|
| 24 |
-
model = AutoModelForCausalLM.from_pretrained("thanghf/
|
| 25 |
-
tokenizer = AutoTokenizer.from_pretrained("thanghf/
|
| 26 |
model.eval()
|
| 27 |
streamer = TextStreamer(tokenizer)
|
| 28 |
prompt = """Gieo hai con súc xắc cân đối và đồng chất. Xác suất để tổng số chấm trên mặt xuất hiện của hai con súc xắc bằng 7 là:"""
|
|
|
|
| 10 |
---
|
| 11 |
|
| 12 |
## Quick Start
|
| 13 |
+
This model is upgraded version of demo_math_model.
|
| 14 |
+
Trained on 1500 row clean data instead of raw data
|
| 15 |
|
| 16 |
### 🤗 Hugging Face Transformers
|
| 17 |
|
|
|
|
| 21 |
import torch
|
| 22 |
from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
|
| 23 |
|
| 24 |
+
model = AutoModelForCausalLM.from_pretrained("thanghf/math_model_v1",torch_dtype=torch.bfloat16,device_map='auto')
|
| 25 |
+
tokenizer = AutoTokenizer.from_pretrained("thanghf/math_model_v1")
|
| 26 |
model.eval()
|
| 27 |
streamer = TextStreamer(tokenizer)
|
| 28 |
prompt = """Gieo hai con súc xắc cân đối và đồng chất. Xác suất để tổng số chấm trên mặt xuất hiện của hai con súc xắc bằng 7 là:"""
|