PRUEBA / README.md
Katon1's picture
Create README.md
a6f8a0c verified
# Chatbot Multi-Modelo LLM con API de Hugging Face
## Descripción
Esta aplicación es un chatbot interactivo que utiliza un modelo de lenguaje de Hugging Face para responder preguntas en tiempo real. La interfaz gráfica está construida con Gradio, y permite al usuario seleccionar diferentes acciones, como la generación de respuestas basadas en texto o la generación de imágenes a partir de descripciones.
## Modelo Usado
El modelo utilizado en esta aplicación es:
- **Modelo:** `microsoft/Phi-3-mini-4k-instruct`
- **Fuente:** Hugging Face
## Parámetros en la Petición
La aplicación realiza una petición a la API de Hugging Face utilizando los siguientes parámetros:
- **`messages`**: Lista de mensajes en formato JSON. Ejemplo:
```json
[
{"role": "user", "content": "¿Cuál es la capital de Francia?"}
]
```
- **`max_tokens`**: Número máximo de tokens en la respuesta (500).
## Ejemplo de Uso
1. Ejecuta la aplicación en tu entorno local:
```bash
python app.py
```
2. Abre la interfaz gráfica en tu navegador (por defecto: `http://127.0.0.1:7860`).
3. Ingresa tu pregunta en el cuadro de texto y selecciona "Enviar".
### Ejemplo de Entrada:
```text
¿Cuál es la capital de Francia?
```
### Ejemplo de Salida:
```text
La capital de Francia es París.
```
## Requisitos
- **Python 3.8 o superior**
- **Gradio 5.9.1**
- **huggingface_hub**
## Instalación
1. Clona el repositorio o copia los archivos del proyecto.
```bash
git clone https://huggingface.co/spaces/tu_usuario/tu_space
cd tu_space
```
2. Crea un entorno virtual (opcional pero recomendado):
```bash
python3 -m venv venv
source venv/bin/activate # En Windows: venv\Scripts\activate
```
3. Instala las dependencias:
```bash
pip install -r requirements.txt
```
4. Configura tu token de Hugging Face como variable de entorno:
```bash
export HF_API_TOKEN=tu_token
```
## Licencia
Este proyecto está bajo la licencia MIT.