Sakalti commited on
Commit
f885ee2
·
verified ·
1 Parent(s): 13d5ede

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +15 -13
app.py CHANGED
@@ -2,23 +2,25 @@ import gradio as gr
2
  from transformers import AutoTokenizer
3
 
4
  # トークナイザーの読み込み
5
- tokenizer = AutoTokenizer.from_pretrained("Sakalti/ultiima-32B")
6
 
7
- # エンコード関数
8
- def encode_text(text):
9
- inputs = tokenizer(text, return_tensors="pt")
10
- return inputs['input_ids'].squeeze().tolist()
11
-
12
- # デコード関数
13
- def decode_tokens(tokens):
14
- # トークン列をリストに変換
15
- tokens_list = [int(token) for token in tokens.split(',')]
16
- text = tokenizer.decode(tokens_list)
17
- return text
 
 
18
 
19
  # Gradioインターフェースの定義
20
  iface = gr.Interface(
21
- fn=[encode_text, decode_tokens],
22
  inputs=[
23
  gr.Textbox(label="エンコード用テキスト"),
24
  gr.Textbox(label="デコード用トークン列 (カンマ区切り)")
 
2
  from transformers import AutoTokenizer
3
 
4
  # トークナイザーの読み込み
5
+ tokenizer = AutoTokenizer.from_pretrained("rinna/japanese-gpt2-medium")
6
 
7
+ # エンコードとデコードを行う関数
8
+ def process_text(text, tokens):
9
+ if text:
10
+ inputs = tokenizer(text, return_tensors="pt")
11
+ encoded_tokens = inputs['input_ids'].squeeze().tolist()
12
+ decoded_text = tokenizer.decode(encoded_tokens)
13
+ return encoded_tokens, decoded_text
14
+ elif tokens:
15
+ # トークン列をリストに変換
16
+ tokens_list = [int(token) for token in tokens.split(',')]
17
+ decoded_text = tokenizer.decode(tokens_list)
18
+ return tokens_list, decoded_text
19
+ return [], ""
20
 
21
  # Gradioインターフェースの定義
22
  iface = gr.Interface(
23
+ fn=process_text,
24
  inputs=[
25
  gr.Textbox(label="エンコード用テキスト"),
26
  gr.Textbox(label="デコード用トークン列 (カンマ区切り)")