Buckets:
| <meta charset="utf-8" /><meta name="hf:doc:metadata" content="undefined"> | |
| <link href="/docs/course/pr_1007/es/_app/immutable/assets/0.e3b0c442.css" rel="modulepreload"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/entry/start.8fd82829.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/chunks/scheduler.37c15a92.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/chunks/singletons.acaf2f6a.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/chunks/index.18351ede.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/chunks/paths.b273faae.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/entry/app.854d11e5.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/chunks/index.2bf4358c.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/nodes/0.b36e1b9f.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/chunks/each.e59479a4.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/nodes/10.0f0e89d0.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/chunks/Youtube.1e50a667.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1007/es/_app/immutable/chunks/getInferenceSnippets.acd17970.js"><!-- HEAD_svelte-u9bgzb_START --><meta name="hf:doc:metadata" content="undefined"><!-- HEAD_svelte-u9bgzb_END --> <p></p> <p data-svelte-h="svelte-qpxf01"># Modelos secuencia a secuencia</p> <iframe class="w-full xl:w-4/6 h-80" src="https://www.youtube-nocookie.com/embed/0_4KEb08xrE" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe> <p data-svelte-h="svelte-j9fypa">Los modelos codificador/decodificador (también llamados <em>modelos secuencia a secuencia</em>) usan ambas partes de la arquitectura del Transformador. En cada etapa, las capas de atención del codificador pueden acceder a todas las palabras de la secuencia inicial, mientras que las capas de atención del decodificador sólo pueden acceder a las palabras que se ubican antes de una palabra dada en el texto de entrada.</p> <p data-svelte-h="svelte-1yaxgjp">El preentrenamiento de estos modelos se puede hacer usando los objetivos de los modelos de codificadores o decodificadores, pero usualmente implican algo más complejo. Por ejemplo, <a href="https://huggingface.co/t5-base" rel="nofollow">T5</a> está preentrenado al reemplazar segmentos aleatorios de texto (que pueden contener varias palabras) con una palabra especial que las oculta, y el objetivo es predecir el texto que esta palabra reemplaza.</p> <p data-svelte-h="svelte-r14arb">Los modelos secuencia a secuencia son más adecuados para tareas relacionadas con la generación de nuevas oraciones dependiendo de una entrada dada, como resumir, traducir o responder generativamente preguntas.</p> <p data-svelte-h="svelte-10w8ozo">Algunos miembros de esta familia de modelos son:</p> <ul data-svelte-h="svelte-1lyffe"><li><a href="https://huggingface.co/transformers/model_doc/bart.html" rel="nofollow">BART</a></li> <li><a href="https://huggingface.co/transformers/model_doc/mbart.html" rel="nofollow">mBART</a></li> <li><a href="https://huggingface.co/transformers/model_doc/marian.html" rel="nofollow">Marian</a></li> <li><a href="https://huggingface.co/transformers/model_doc/t5.html" rel="nofollow">T5</a></li></ul> <a class="!text-gray-400 !no-underline text-sm flex items-center not-prose mt-4" href="https://github.com/huggingface/course/blob/main/chapters/es/chapter1/7.mdx" target="_blank"><span data-svelte-h="svelte-1kd6by1"><</span> <span data-svelte-h="svelte-x0xyl0">></span> <span data-svelte-h="svelte-1dajgef"><span class="underline ml-1.5">Update</span> on GitHub</span></a> <p></p> | |
| <script> | |
| { | |
| __sveltekit_o9lqzd = { | |
| assets: "/docs/course/pr_1007/es", | |
| base: "/docs/course/pr_1007/es", | |
| env: {} | |
| }; | |
| const element = document.currentScript.parentElement; | |
| const data = [null,null]; | |
| Promise.all([ | |
| import("/docs/course/pr_1007/es/_app/immutable/entry/start.8fd82829.js"), | |
| import("/docs/course/pr_1007/es/_app/immutable/entry/app.854d11e5.js") | |
| ]).then(([kit, app]) => { | |
| kit.start(app, element, { | |
| node_ids: [0, 10], | |
| data, | |
| form: null, | |
| error: null | |
| }); | |
| }); | |
| } | |
| </script> | |
Xet Storage Details
- Size:
- 4.55 kB
- Xet hash:
- 8f4120e9982c1f6a86fa52bde687157bb640b6518446140ceed7b2bff9d3c22b
·
Xet efficiently stores files, intelligently splitting them into unique chunks and accelerating uploads and downloads. More info.