import gradio as gr from transformers import AutoTokenizer, AutoModelForCausalLM import torch # Nombre del modelo model_name = "RayyanAhmed9477/CPU-Compatible-Mental-Health-Model" # Cargar modelo y tokenizador tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) # Función de respuesta emocional def responder(mensaje): if not mensaje.strip(): return "🫂 Estoy aquí para ti. Cuéntame lo que sientes." inputs = tokenizer(mensaje, return_tensors="pt") with torch.no_grad(): outputs = model.generate( **inputs, max_length=200, pad_token_id=tokenizer.eos_token_id, do_sample=True, temperature=0.7, top_p=0.9 ) respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True) return respuesta.strip() # Interfaz Gradio gr.Interface( fn=responder, inputs=gr.Textbox(label="¿Cómo te sientes hoy?"), outputs=gr.Textbox(label="Respuesta del acompañante emocional"), title="🤖 Asistente de Apoyo Emocional", description="IA empática diseñada para brindar apoyo emocional en momentos difíciles. No sustituye ayuda profesional.", theme="soft" ).launch()