import gradio as gr from llama_index.core import VectorStoreIndex, SimpleDirectoryReader from llama_index.core.node_parser import SentenceSplitter from llama_index.embeddings.huggingface import HuggingFaceEmbedding from llama_index.core import Settings # Configurar embeddings gratuitos y parser Settings.node_parser = SentenceSplitter(chunk_size=512, chunk_overlap=50) Settings.embed_model = HuggingFaceEmbedding(model_name="sentence-transformers/all-MiniLM-L6-v2") # Cargar documentos y construir índice documents = SimpleDirectoryReader(input_dir=".", recursive=True, required_exts=[".pdf"]).load_data() index = VectorStoreIndex.from_documents(documents) # Crear motor de consulta query_engine = index.as_query_engine() def responder(pregunta): respuesta = query_engine.query(pregunta) return str(respuesta) iface = gr.Interface(fn=responder, inputs="text", outputs="text", title="Asistente de Bioestadística", description="Haz una pregunta sobre el curso. Responderé basándome en el sílabo y calendario oficial.") iface.launch()