kostyabuh21 commited on
Commit
2c05fa2
·
verified ·
1 Parent(s): f94fa54

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +53 -3
README.md CHANGED
@@ -1,3 +1,53 @@
1
- ---
2
- license: mit
3
- ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ language:
4
+ - ru
5
+ library_name: transformers
6
+ pipeline_tag: text2text-generation
7
+ tags:
8
+ - math
9
+ - normalization
10
+ ---
11
+ ### Описание:
12
+ Модель для преобразование стиля и восстановление разметки для образовательных математических текстов в формат LaTeX.
13
+ Модель является дообученной на переведённом&аугментированном датасете "[Mathematics Stack Exchange API Q&A Data](https://zenodo.org/records/1414384)" версией модели [sshleifer/distilbart-cnn-12-6 ](https://huggingface.co/sshleifer/distilbart-cnn-12-6).
14
+
15
+ Пример использования:
16
+ ---
17
+ Usage example:
18
+ ---
19
+
20
+ ``` python
21
+ import torch
22
+ from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
23
+ from IPython.display import display, Math, Latex
24
+
25
+ model_dir = "kostyabuh21/DistilBART_forLaTeX "
26
+ model = AutoModelForSeq2SeqLM.from_pretrained(model_dir)
27
+ tokenizer = AutoTokenizer.from_pretrained(model_dir)
28
+
29
+ device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
30
+ model.to(device)
31
+
32
+ def get_latex(text):
33
+ inputs = tokenizer(text, return_tensors='pt').to(device)
34
+ with torch.no_grad():
35
+ hypotheses = model.generate(
36
+ **inputs,
37
+ do_sample=True,
38
+ top_p=0.95,
39
+ num_return_sequences=1,
40
+ repetition_penalty=1.2,
41
+ max_length=len(text),
42
+ temperature=0.6,
43
+ min_length=10,
44
+ length_penalty=1.0,
45
+ no_repeat_ngram_size=2
46
+ )
47
+ for h in hypotheses:
48
+ display(Latex(tokenizer.decode(h, skip_special_tokens=True)))
49
+ print(tokenizer.decode(h, skip_special_tokens=True))
50
+
51
+ text = 'интеграл от 3 до 5 по икс dx'
52
+ get_latex(text)
53
+ ```