File size: 865 Bytes
b3a3e45
d224b23
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer

# 加載模型和分詞器
model_name = "AutoArk-AI/GPA"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name).to("cuda")  # 如果使用 GPU

def generate_text(input_text):
    # 將輸入文本進行分詞並生成輸出
    inputs = tokenizer(input_text, return_tensors="pt").to("cuda")  # 如果使用 GPU
    outputs = model.generate(**inputs, max_length=50)
    return tokenizer.decode(outputs[0], skip_special_tokens=True)

# 創建 Gradio 界面
interface = gr.Interface(
    fn=generate_text,
    inputs=gr.Textbox(lines=5, placeholder="輸入你的文本..."),
    outputs="text",
    title="AutoArk-AI/GPA 模型演示",
    description="輸入文本,模型將生成回覆。"
)

# 啟動界面
interface.launch()