File size: 917 Bytes
90cbc87
1f2c4a4
90cbc87
1f2c4a4
 
 
90cbc87
1f2c4a4
 
 
 
 
 
90cbc87
1f2c4a4
 
 
 
 
 
90cbc87
1f2c4a4
 
90cbc87
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer

# Hugging Face Hub'dan modelinizi yükleyin
model = AutoModelForCausalLM.from_pretrained("halil21/lora_model")
tokenizer = AutoTokenizer.from_pretrained("halil21/lora_model")

# Inference fonksiyonunu tanımlama
def generate_response(user_input):
    inputs = tokenizer(user_input, return_tensors="pt").input_ids
    outputs = model.generate(inputs, max_new_tokens=128)
    response = tokenizer.decode(outputs[0], skip_special_tokens=True)
    return response

# Gradio arayüzü tanımlama
interface = gr.Interface(fn=generate_response, 
                         inputs="text", 
                         outputs="text",
                         title="CIED Yönetimi İçin Model",
                         description="Bir klinik durumu değerlendirin ve modelin önerilerini alın.")

# Arayüzü çalıştırma
interface.launch()