# Chatbot Multi-Modelo LLM con API de Hugging Face ## Descripción Esta aplicación es un chatbot interactivo que utiliza un modelo de lenguaje de Hugging Face para responder preguntas en tiempo real. La interfaz gráfica está construida con Gradio, y permite al usuario seleccionar diferentes acciones, como la generación de respuestas basadas en texto o la generación de imágenes a partir de descripciones. ## Modelo Usado El modelo utilizado en esta aplicación es: - **Modelo:** `microsoft/Phi-3-mini-4k-instruct` - **Fuente:** Hugging Face ## Parámetros en la Petición La aplicación realiza una petición a la API de Hugging Face utilizando los siguientes parámetros: - **`messages`**: Lista de mensajes en formato JSON. Ejemplo: ```json [ {"role": "user", "content": "¿Cuál es la capital de Francia?"} ] ``` - **`max_tokens`**: Número máximo de tokens en la respuesta (500). ## Ejemplo de Uso 1. Ejecuta la aplicación en tu entorno local: ```bash python app.py ``` 2. Abre la interfaz gráfica en tu navegador (por defecto: `http://127.0.0.1:7860`). 3. Ingresa tu pregunta en el cuadro de texto y selecciona "Enviar". ### Ejemplo de Entrada: ```text ¿Cuál es la capital de Francia? ``` ### Ejemplo de Salida: ```text La capital de Francia es París. ``` ## Requisitos - **Python 3.8 o superior** - **Gradio 5.9.1** - **huggingface_hub** ## Instalación 1. Clona el repositorio o copia los archivos del proyecto. ```bash git clone https://huggingface.co/spaces/tu_usuario/tu_space cd tu_space ``` 2. Crea un entorno virtual (opcional pero recomendado): ```bash python3 -m venv venv source venv/bin/activate # En Windows: venv\Scripts\activate ``` 3. Instala las dependencias: ```bash pip install -r requirements.txt ``` 4. Configura tu token de Hugging Face como variable de entorno: ```bash export HF_API_TOKEN=tu_token ``` ## Licencia Este proyecto está bajo la licencia MIT.