IkIzma commited on
Commit
7eac112
·
1 Parent(s): ee6b322

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +6 -4
app.py CHANGED
@@ -1,4 +1,5 @@
1
  import streamlit as st
 
2
 
3
  st.markdown("### Hello, world!")
4
  st.markdown("<img width=200px src='https://rozetked.me/images/uploads/dwoilp3BVjlE.jpg'>", unsafe_allow_html=True)
@@ -6,11 +7,12 @@ st.markdown("<img width=200px src='https://rozetked.me/images/uploads/dwoilp3BVj
6
 
7
  text = st.text_area("TEXT HERE")
8
  # ^-- показать текстовое поле. В поле text лежит строка, которая находится там в данный момент
 
 
 
9
 
10
- from transformers import pipeline
11
- pipe = pipeline("ner", "Davlan/distilbert-base-multilingual-cased-ner-hrl")
12
- raw_predictions = pipe(text)
13
  # тут уже знакомый вам код с huggingface.transformers -- его можно заменить на что угодно от fairseq до catboost
14
 
15
- st.markdown(f"{raw_predictions}!")
16
  # выводим результаты модели в текстовое поле, на потеху пользователю
 
1
  import streamlit as st
2
+ from Generate_text import generate, load_tokenizer_and_model
3
 
4
  st.markdown("### Hello, world!")
5
  st.markdown("<img width=200px src='https://rozetked.me/images/uploads/dwoilp3BVjlE.jpg'>", unsafe_allow_html=True)
 
7
 
8
  text = st.text_area("TEXT HERE")
9
  # ^-- показать текстовое поле. В поле text лежит строка, которая находится там в данный момент
10
+ device = "cuda" if torch.cuda.is_available() else "cpu"
11
+ tok, model = load_tokenizer_and_model("models/essays", device)
12
+ generated = generate(model, tok, "<s>Тема: «Как не застрелиться?». (В.Т. Белинский)\nСочинение: ", device, num_beams=10)
13
 
14
+ from Generate_text import
 
 
15
  # тут уже знакомый вам код с huggingface.transformers -- его можно заменить на что угодно от fairseq до catboost
16
 
17
+ st.markdown(f"{generated[0]}!")
18
  # выводим результаты модели в текстовое поле, на потеху пользователю