Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
|
@@ -3,22 +3,26 @@ import requests
|
|
| 3 |
from huggingface_hub import HfApi
|
| 4 |
import transformers
|
| 5 |
from transformers import AutoModelForSeq2SeqLM
|
|
|
|
| 6 |
# Define la funci贸n para procesar el documento con el prompt
|
| 7 |
def process_document(document, prompt, model_name):
|
| 8 |
-
|
| 9 |
-
|
|
|
|
|
|
|
|
|
|
| 10 |
|
| 11 |
-
|
| 12 |
-
|
| 13 |
|
| 14 |
-
|
| 15 |
-
|
| 16 |
|
| 17 |
-
|
| 18 |
-
|
| 19 |
|
| 20 |
-
|
| 21 |
-
|
| 22 |
|
| 23 |
# Crea la interfaz de usuario de Streamlit
|
| 24 |
st.title("Aplicaci贸n de Procesamiento de Documentos con Prompt")
|
|
@@ -35,20 +39,21 @@ selected_model = st.selectbox("Seleccione un modelo:", model_options)
|
|
| 35 |
|
| 36 |
# Bot贸n para procesar el documento
|
| 37 |
if st.button("Procesar"):
|
| 38 |
-
|
| 39 |
-
|
| 40 |
|
| 41 |
-
|
| 42 |
-
|
| 43 |
-
|
| 44 |
|
| 45 |
# Define la configuraci贸n de la aplicaci贸n
|
| 46 |
app_config = {
|
| 47 |
-
|
| 48 |
-
|
| 49 |
-
|
| 50 |
-
|
| 51 |
}
|
| 52 |
|
| 53 |
# Despliega la aplicaci贸n en Hugging Face Spaces (descomentar para desplegar)
|
| 54 |
# push_to_hub(app=app, config=app_config)
|
|
|
|
|
|
| 3 |
from huggingface_hub import HfApi
|
| 4 |
import transformers
|
| 5 |
from transformers import AutoModelForSeq2SeqLM
|
| 6 |
+
|
| 7 |
# Define la funci贸n para procesar el documento con el prompt
|
| 8 |
def process_document(document, prompt, model_name):
|
| 9 |
+
# Carga el modelo
|
| 10 |
+
model = transformers.AutoModelForSeq2SeqLM.from_pretrained(model_name)
|
| 11 |
+
|
| 12 |
+
# Carga el tokenizer
|
| 13 |
+
tokenizer = transformers.AutoTokenizer.from_pretrained(model_name)
|
| 14 |
|
| 15 |
+
# Tokeniza el texto del documento y del prompt
|
| 16 |
+
input_ids = tokenizer.encode(document + prompt, return_tensors="pt")
|
| 17 |
|
| 18 |
+
# Genera la respuesta del modelo
|
| 19 |
+
response = model.generate(input_ids, max_length=512)
|
| 20 |
|
| 21 |
+
# Decodifica la respuesta en texto
|
| 22 |
+
model_response = tokenizer.decode(response[0], skip_special_tokens=True)
|
| 23 |
|
| 24 |
+
# Devuelve la respuesta del modelo
|
| 25 |
+
return model_response
|
| 26 |
|
| 27 |
# Crea la interfaz de usuario de Streamlit
|
| 28 |
st.title("Aplicaci贸n de Procesamiento de Documentos con Prompt")
|
|
|
|
| 39 |
|
| 40 |
# Bot贸n para procesar el documento
|
| 41 |
if st.button("Procesar"):
|
| 42 |
+
# Procesa el documento con el prompt y el modelo seleccionado
|
| 43 |
+
model_response = process_document(document_input, prompt_input, selected_model)
|
| 44 |
|
| 45 |
+
# Muestra la respuesta del modelo
|
| 46 |
+
st.write("**Respuesta del modelo:**")
|
| 47 |
+
st.write(model_response)
|
| 48 |
|
| 49 |
# Define la configuraci贸n de la aplicaci贸n
|
| 50 |
app_config = {
|
| 51 |
+
"title": "Aplicaci贸n de Procesamiento de Documentos con Prompt",
|
| 52 |
+
"description": "Esta aplicaci贸n permite ingresar un documento, un prompt y enviarlos a un modelo para obtener una respuesta.",
|
| 53 |
+
"keywords": ["procesamiento de lenguaje natural", "prompt", "modelo"],
|
| 54 |
+
"category": "apps",
|
| 55 |
}
|
| 56 |
|
| 57 |
# Despliega la aplicaci贸n en Hugging Face Spaces (descomentar para desplegar)
|
| 58 |
# push_to_hub(app=app, config=app_config)
|
| 59 |
+
|