FamilIA / app.py
Israelalcaide's picture
Update app.py
c6b6832 verified
import gradio as gr
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
# Nombre del modelo
model_name = "RayyanAhmed9477/CPU-Compatible-Mental-Health-Model"
# Cargar modelo y tokenizador
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Función de respuesta emocional
def responder(mensaje):
if not mensaje.strip():
return "🫂 Estoy aquí para ti. Cuéntame lo que sientes."
inputs = tokenizer(mensaje, return_tensors="pt")
with torch.no_grad():
outputs = model.generate(
**inputs,
max_length=200,
pad_token_id=tokenizer.eos_token_id,
do_sample=True,
temperature=0.7,
top_p=0.9
)
respuesta = tokenizer.decode(outputs[0], skip_special_tokens=True)
return respuesta.strip()
# Interfaz Gradio
gr.Interface(
fn=responder,
inputs=gr.Textbox(label="¿Cómo te sientes hoy?"),
outputs=gr.Textbox(label="Respuesta del acompañante emocional"),
title="🤖 Asistente de Apoyo Emocional",
description="IA empática diseñada para brindar apoyo emocional en momentos difíciles. No sustituye ayuda profesional.",
theme="soft"
).launch()