File size: 943 Bytes
e023430
b1e9a28
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer

# Hugging Face üzerinde eğittiğiniz modeli ve tokenizer'ı yükleyin
model = AutoModelForCausalLM.from_pretrained("your-huggingface-username/lora_model")
tokenizer = AutoTokenizer.from_pretrained("your-huggingface-username/lora_model")

# Inference fonksiyonunu tanımlama
def generate_response(user_input):
    inputs = tokenizer(user_input, return_tensors="pt").input_ids
    outputs = model.generate(inputs, max_new_tokens=128, do_sample=True)
    response = tokenizer.decode(outputs[0], skip_special_tokens=True)
    return response

# Gradio arayüzü tanımlama
interface = gr.Interface(fn=generate_response, inputs="text", outputs="text",
                         title="CIED Yönetimi İçin Model",
                         description="Bir klinik durumu değerlendirin ve modelin önerilerini alın.")

# Arayüzü çalıştırma
interface.launch()