Horchatas commited on
Commit
725ddf4
·
verified ·
1 Parent(s): cd341c1

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -4
app.py CHANGED
@@ -44,7 +44,7 @@ with gr.Blocks() as demo:
44
  with gr.Accordion("Información"):
45
  with gr.Row():
46
  with gr.Column():
47
- with gr.Accordion("Detalles del proyecto"):
48
  gr.Markdown("""El problema principal que resuelve este proyecto es para adquirir información de textos en inglés cuando no se sabe este idioma.\n
49
  Esto es un problema bastante comun dado que hay mucha gente en España la cual no sabe inglés y si quiere informarse de cualquier tema el cual no está \
50
  muy desarrollado en español tiene que buscarse la vida para poder traducir esos textos a su idioma natal.\n
@@ -53,14 +53,14 @@ with gr.Blocks() as demo:
53
  """
54
  )
55
  with gr.Column():
56
- with gr.Accordion("Detalles de los modelos"):
57
  gr.Markdown("""#### Helsinki-NLP/opus-mt-en-es (Modelo traductor)
58
  Este modelo es el que se usa para traducir el texto de ingles a español. Se usa desde un framework (MarianMT) el cual contiene más de 1000 modelos de lenguaje.\
59
  Para usar el modelo específico de traducir de ingles a español se tiene que poner las etiquetas de idioma (en este caso en y es) junto al modelo en si \
60
- (Helsinki-NLP/opus-mt-{src}-{trg}). El modelo necesita tokenizar el texto para poder traducirlo. Esto se hace con su propio tokenizador el cual es MarianTokenizer.\n
61
  La duración de la traducción viene dada a la longitud del texto que se quiere traducir por lo que textos más largos tardarán más en traducirse.\n
62
  El principal problema del modelo es que para la versión que tenemos solo permite 512 tokens al traducir lo cual limita mucho, por eso traduzco el texto \
63
- partiendolo en segmentos de misma longitud (100 en este caso)\n"
64
  #### Falconsai (Modelo que resume)
65
  Este modelo es un fine-tuning hecho para resumir de otro modelo llamado T5 Small. Es un modelo muy sencillo el cual puede traducir textos muy extensos \
66
  y de forma rápida y sencilla. La forma en la que lo uso es con el pipeline de transformer y dentro de este se le pone los parametros max_lenght y min_length \
 
44
  with gr.Accordion("Información"):
45
  with gr.Row():
46
  with gr.Column():
47
+ with gr.Accordion("Detalles del proyecto", open = False):
48
  gr.Markdown("""El problema principal que resuelve este proyecto es para adquirir información de textos en inglés cuando no se sabe este idioma.\n
49
  Esto es un problema bastante comun dado que hay mucha gente en España la cual no sabe inglés y si quiere informarse de cualquier tema el cual no está \
50
  muy desarrollado en español tiene que buscarse la vida para poder traducir esos textos a su idioma natal.\n
 
53
  """
54
  )
55
  with gr.Column():
56
+ with gr.Accordion("Detalles de los modelos", open = False):
57
  gr.Markdown("""#### Helsinki-NLP/opus-mt-en-es (Modelo traductor)
58
  Este modelo es el que se usa para traducir el texto de ingles a español. Se usa desde un framework (MarianMT) el cual contiene más de 1000 modelos de lenguaje.\
59
  Para usar el modelo específico de traducir de ingles a español se tiene que poner las etiquetas de idioma (en este caso en y es) junto al modelo en si \
60
+ (Helsinki-NLP/opus-mt-{src}-{trg}). El modelo necesita tokenizar el texto para poder traducirlo. Esto se hace con su propio tokenizador el cual es MarianTokenizer.\
61
  La duración de la traducción viene dada a la longitud del texto que se quiere traducir por lo que textos más largos tardarán más en traducirse.\n
62
  El principal problema del modelo es que para la versión que tenemos solo permite 512 tokens al traducir lo cual limita mucho, por eso traduzco el texto \
63
+ partiendolo en segmentos de misma longitud (100 en este caso)\n
64
  #### Falconsai (Modelo que resume)
65
  Este modelo es un fine-tuning hecho para resumir de otro modelo llamado T5 Small. Es un modelo muy sencillo el cual puede traducir textos muy extensos \
66
  y de forma rápida y sencilla. La forma en la que lo uso es con el pipeline de transformer y dentro de este se le pone los parametros max_lenght y min_length \