Update app.py
Browse files
app.py
CHANGED
|
@@ -44,7 +44,7 @@ with gr.Blocks() as demo:
|
|
| 44 |
with gr.Accordion("Información"):
|
| 45 |
with gr.Row():
|
| 46 |
with gr.Column():
|
| 47 |
-
with gr.Accordion("Detalles del proyecto"):
|
| 48 |
gr.Markdown("""El problema principal que resuelve este proyecto es para adquirir información de textos en inglés cuando no se sabe este idioma.\n
|
| 49 |
Esto es un problema bastante comun dado que hay mucha gente en España la cual no sabe inglés y si quiere informarse de cualquier tema el cual no está \
|
| 50 |
muy desarrollado en español tiene que buscarse la vida para poder traducir esos textos a su idioma natal.\n
|
|
@@ -53,14 +53,14 @@ with gr.Blocks() as demo:
|
|
| 53 |
"""
|
| 54 |
)
|
| 55 |
with gr.Column():
|
| 56 |
-
with gr.Accordion("Detalles de los modelos"):
|
| 57 |
gr.Markdown("""#### Helsinki-NLP/opus-mt-en-es (Modelo traductor)
|
| 58 |
Este modelo es el que se usa para traducir el texto de ingles a español. Se usa desde un framework (MarianMT) el cual contiene más de 1000 modelos de lenguaje.\
|
| 59 |
Para usar el modelo específico de traducir de ingles a español se tiene que poner las etiquetas de idioma (en este caso en y es) junto al modelo en si \
|
| 60 |
-
(Helsinki-NLP/opus-mt-{src}-{trg}). El modelo necesita tokenizar el texto para poder traducirlo. Esto se hace con su propio tokenizador el cual es MarianTokenizer.\
|
| 61 |
La duración de la traducción viene dada a la longitud del texto que se quiere traducir por lo que textos más largos tardarán más en traducirse.\n
|
| 62 |
El principal problema del modelo es que para la versión que tenemos solo permite 512 tokens al traducir lo cual limita mucho, por eso traduzco el texto \
|
| 63 |
-
partiendolo en segmentos de misma longitud (100 en este caso)\n
|
| 64 |
#### Falconsai (Modelo que resume)
|
| 65 |
Este modelo es un fine-tuning hecho para resumir de otro modelo llamado T5 Small. Es un modelo muy sencillo el cual puede traducir textos muy extensos \
|
| 66 |
y de forma rápida y sencilla. La forma en la que lo uso es con el pipeline de transformer y dentro de este se le pone los parametros max_lenght y min_length \
|
|
|
|
| 44 |
with gr.Accordion("Información"):
|
| 45 |
with gr.Row():
|
| 46 |
with gr.Column():
|
| 47 |
+
with gr.Accordion("Detalles del proyecto", open = False):
|
| 48 |
gr.Markdown("""El problema principal que resuelve este proyecto es para adquirir información de textos en inglés cuando no se sabe este idioma.\n
|
| 49 |
Esto es un problema bastante comun dado que hay mucha gente en España la cual no sabe inglés y si quiere informarse de cualquier tema el cual no está \
|
| 50 |
muy desarrollado en español tiene que buscarse la vida para poder traducir esos textos a su idioma natal.\n
|
|
|
|
| 53 |
"""
|
| 54 |
)
|
| 55 |
with gr.Column():
|
| 56 |
+
with gr.Accordion("Detalles de los modelos", open = False):
|
| 57 |
gr.Markdown("""#### Helsinki-NLP/opus-mt-en-es (Modelo traductor)
|
| 58 |
Este modelo es el que se usa para traducir el texto de ingles a español. Se usa desde un framework (MarianMT) el cual contiene más de 1000 modelos de lenguaje.\
|
| 59 |
Para usar el modelo específico de traducir de ingles a español se tiene que poner las etiquetas de idioma (en este caso en y es) junto al modelo en si \
|
| 60 |
+
(Helsinki-NLP/opus-mt-{src}-{trg}). El modelo necesita tokenizar el texto para poder traducirlo. Esto se hace con su propio tokenizador el cual es MarianTokenizer.\
|
| 61 |
La duración de la traducción viene dada a la longitud del texto que se quiere traducir por lo que textos más largos tardarán más en traducirse.\n
|
| 62 |
El principal problema del modelo es que para la versión que tenemos solo permite 512 tokens al traducir lo cual limita mucho, por eso traduzco el texto \
|
| 63 |
+
partiendolo en segmentos de misma longitud (100 en este caso)\n
|
| 64 |
#### Falconsai (Modelo que resume)
|
| 65 |
Este modelo es un fine-tuning hecho para resumir de otro modelo llamado T5 Small. Es un modelo muy sencillo el cual puede traducir textos muy extensos \
|
| 66 |
y de forma rápida y sencilla. La forma en la que lo uso es con el pipeline de transformer y dentro de este se le pone los parametros max_lenght y min_length \
|