Update README.md
Browse files
README.md
CHANGED
|
@@ -1,3 +1,65 @@
|
|
| 1 |
-
|
| 2 |
-
|
| 3 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
|
| 2 |
+
# Chatbot LLM con API de Hugging Face
|
| 3 |
+
|
| 4 |
+
## Descripción
|
| 5 |
+
Este proyecto es un chatbot interactivo que utiliza un modelo de lenguaje de Hugging Face para responder preguntas en tiempo real. La aplicación está construida con Gradio, lo que permite al usuario interactuar fácilmente con el modelo a través de una interfaz gráfica.
|
| 6 |
+
|
| 7 |
+
## Modelo Utilizado
|
| 8 |
+
- **Modelo:** `microsoft/Phi-3-mini-4k-instruct`
|
| 9 |
+
- **Fuente:** Hugging Face
|
| 10 |
+
|
| 11 |
+
## Parámetros en la Petición
|
| 12 |
+
La aplicación realiza peticiones a la API de Hugging Face utilizando los siguientes parámetros:
|
| 13 |
+
- **`messages`**: Lista de mensajes en formato JSON. Ejemplo:
|
| 14 |
+
```json
|
| 15 |
+
[
|
| 16 |
+
{"role": "user", "content": "¿Cuál es la capital de Francia?"}
|
| 17 |
+
]
|
| 18 |
+
```
|
| 19 |
+
- **`max_tokens`**: Número máximo de tokens en la respuesta (500).
|
| 20 |
+
|
| 21 |
+
## Ejemplo de Uso
|
| 22 |
+
1. Ejecuta la aplicación en tu entorno local:
|
| 23 |
+
```bash
|
| 24 |
+
python app.py
|
| 25 |
+
```
|
| 26 |
+
2. Abre la interfaz gráfica en tu navegador (por defecto: `http://127.0.0.1:7860`).
|
| 27 |
+
3. Ingresa tu pregunta en el cuadro de texto y selecciona "Enviar".
|
| 28 |
+
|
| 29 |
+
### Ejemplo de Entrada:
|
| 30 |
+
```text
|
| 31 |
+
¿Cuál es la capital de Francia?
|
| 32 |
+
```
|
| 33 |
+
|
| 34 |
+
### Ejemplo de Salida:
|
| 35 |
+
```text
|
| 36 |
+
La capital de Francia es París.
|
| 37 |
+
```
|
| 38 |
+
|
| 39 |
+
## Requisitos
|
| 40 |
+
- **Python 3.8 o superior**
|
| 41 |
+
- **Gradio 5.9.1**
|
| 42 |
+
- **huggingface_hub**
|
| 43 |
+
|
| 44 |
+
## Instalación
|
| 45 |
+
1. Clona el repositorio o copia los archivos del proyecto.
|
| 46 |
+
```bash
|
| 47 |
+
git clone https://huggingface.co/spaces/tu_usuario/tu_space
|
| 48 |
+
cd tu_space
|
| 49 |
+
```
|
| 50 |
+
2. Crea un entorno virtual (opcional pero recomendado):
|
| 51 |
+
```bash
|
| 52 |
+
python3 -m venv venv
|
| 53 |
+
source venv/bin/activate # En Windows: venv\Scripts\activate
|
| 54 |
+
```
|
| 55 |
+
3. Instala las dependencias:
|
| 56 |
+
```bash
|
| 57 |
+
pip install -r requirements.txt
|
| 58 |
+
```
|
| 59 |
+
4. Configura tu token de Hugging Face como variable de entorno:
|
| 60 |
+
```bash
|
| 61 |
+
export HF_API_TOKEN=tu_token
|
| 62 |
+
```
|
| 63 |
+
|
| 64 |
+
## Licencia
|
| 65 |
+
Este proyecto está bajo la licencia MIT.
|