Buckets:
| <meta charset="utf-8" /><meta name="hf:doc:metadata" content="{"title":"Introdução","local":"introdução","sections":[{"title":"Bem-vindo(a) ao Curso 🤗!","local":"bem-vindoa-ao-curso-","sections":[],"depth":2},{"title":"O que esperar?","local":"o-que-esperar","sections":[],"depth":2},{"title":"Quem nós somos?","local":"quem-nós-somos","sections":[],"depth":2}],"depth":1}"> | |
| <link href="/docs/course/pr_1069/pt/_app/immutable/assets/0.e3b0c442.css" rel="modulepreload"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/entry/start.854f6ddb.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/chunks/scheduler.37c15a92.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/chunks/singletons.5a4db441.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/chunks/index.18351ede.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/chunks/paths.052a2e73.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/entry/app.99d5705b.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/chunks/index.2bf4358c.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/nodes/0.24f28b67.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/chunks/each.e59479a4.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/nodes/3.30664832.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/chunks/Youtube.1e50a667.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/chunks/CourseFloatingBanner.6add7356.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/pt/_app/immutable/chunks/getInferenceSnippets.24b50994.js"><!-- HEAD_svelte-u9bgzb_START --><meta name="hf:doc:metadata" content="{"title":"Introdução","local":"introdução","sections":[{"title":"Bem-vindo(a) ao Curso 🤗!","local":"bem-vindoa-ao-curso-","sections":[],"depth":2},{"title":"O que esperar?","local":"o-que-esperar","sections":[],"depth":2},{"title":"Quem nós somos?","local":"quem-nós-somos","sections":[],"depth":2}],"depth":1}"><!-- HEAD_svelte-u9bgzb_END --> <p></p> <h1 class="relative group"><a id="introdução" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#introdução"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>Introdução</span></h1> <div class="flex space-x-1 absolute z-10 right-0 top-0"><a href="https://discuss.huggingface.co/t/chapter-1-questions" target="_blank"><img alt="Ask a Question" class="!m-0" src="https://img.shields.io/badge/Ask%20a%20question-ffcb4c.svg?logo=data:image/svg+xml;base64,PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciIHZpZXdCb3g9IjAgLTEgMTA0IDEwNiI+PGRlZnM+PHN0eWxlPi5jbHMtMXtmaWxsOiMyMzFmMjA7fS5jbHMtMntmaWxsOiNmZmY5YWU7fS5jbHMtM3tmaWxsOiMwMGFlZWY7fS5jbHMtNHtmaWxsOiMwMGE5NGY7fS5jbHMtNXtmaWxsOiNmMTVkMjI7fS5jbHMtNntmaWxsOiNlMzFiMjM7fTwvc3R5bGU+PC9kZWZzPjx0aXRsZT5EaXNjb3Vyc2VfbG9nbzwvdGl0bGU+PGcgaWQ9IkxheWVyXzIiPjxnIGlkPSJMYXllcl8zIj48cGF0aCBjbGFzcz0iY2xzLTEiIGQ9Ik01MS44NywwQzIzLjcxLDAsMCwyMi44MywwLDUxYzAsLjkxLDAsNTIuODEsMCw1Mi44MWw1MS44Ni0uMDVjMjguMTYsMCw1MS0yMy43MSw1MS01MS44N1M4MCwwLDUxLjg3LDBaIi8+PHBhdGggY2xhc3M9ImNscy0yIiBkPSJNNTIuMzcsMTkuNzRBMzEuNjIsMzEuNjIsMCwwLDAsMjQuNTgsNjYuNDFsLTUuNzIsMTguNEwzOS40LDgwLjE3YTMxLjYxLDMxLjYxLDAsMSwwLDEzLTYwLjQzWiIvPjxwYXRoIGNsYXNzPSJjbHMtMyIgZD0iTTc3LjQ1LDMyLjEyYTMxLjYsMzEuNiwwLDAsMS0zOC4wNSw0OEwxOC44Niw4NC44MmwyMC45MS0yLjQ3QTMxLjYsMzEuNiwwLDAsMCw3Ny40NSwzMi4xMloiLz48cGF0aCBjbGFzcz0iY2xzLTQiIGQ9Ik03MS42MywyNi4yOUEzMS42LDMxLjYsMCwwLDEsMzguOCw3OEwxOC44Niw4NC44MiwzOS40LDgwLjE3QTMxLjYsMzEuNiwwLDAsMCw3MS42MywyNi4yOVoiLz48cGF0aCBjbGFzcz0iY2xzLTUiIGQ9Ik0yNi40Nyw2Ny4xMWEzMS42MSwzMS42MSwwLDAsMSw1MS0zNUEzMS42MSwzMS42MSwwLDAsMCwyNC41OCw2Ni40MWwtNS43MiwxOC40WiIvPjxwYXRoIGNsYXNzPSJjbHMtNiIgZD0iTTI0LjU4LDY2LjQxQTMxLjYxLDMxLjYxLDAsMCwxLDcxLjYzLDI2LjI5YTMxLjYxLDMxLjYxLDAsMCwwLTQ5LDM5LjYzbC0zLjc2LDE4LjlaIi8+PC9nPjwvZz48L3N2Zz4="></a> </div> <h2 class="relative group"><a id="bem-vindoa-ao-curso-" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#bem-vindoa-ao-curso-"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>Bem-vindo(a) ao Curso 🤗!</span></h2> <iframe class="w-full xl:w-4/6 h-80" src="https://www.youtube-nocookie.com/embed/00GKzGyWFEs" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe> <p data-svelte-h="svelte-khlmg1">Esse curso te ensinará sobre processamento de linguagem natural (PLN, ou NLP em inglês) usando as bibliotecas do ecossistema <a href="https://huggingface.co/" rel="nofollow">Hugging Face</a> — <a href="https://github.com/huggingface/transformers" rel="nofollow">🤗 Transformers</a>, <a href="https://github.com/huggingface/datasets" rel="nofollow">🤗 Datasets</a>, <a href="https://github.com/huggingface/tokenizers" rel="nofollow">🤗 Tokenizers</a> e <a href="https://github.com/huggingface/accelerate" rel="nofollow">🤗 Accelerate</a> — assim como a <a href="https://huggingface.co/models" rel="nofollow">Hugging Face Hub</a>. É completamente gratuito e sem anúncios!</p> <h2 class="relative group"><a id="o-que-esperar" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#o-que-esperar"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>O que esperar?</span></h2> <p data-svelte-h="svelte-14h4e5p">Aqui uma visão geral do curso:</p> <div class="flex justify-center" data-svelte-h="svelte-1f838r7"><img class="block dark:hidden" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/summary.svg" alt="Brief overview of the chapters of the course."> <img class="hidden dark:block" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/summary-dark.svg" alt="Brief overview of the chapters of the course."></div> <ul data-svelte-h="svelte-ke9l7v"><li>Capítulos 1 ao 4 dá uma introdução para os principais conceitos da biblioteca Transformers 🤗. No final dessa parte do curso, você se tornará familiar sobre como os modelos Transformers funcionam, saberá como usar o modelo da <a href="https://huggingface.co/models" rel="nofollow">Hugging Face Hub</a>, fazer um ajuste fino em um dataset e compartilhar os resultados no Hub!</li> <li>Capítulo 5 ao 8 ensina o básico dos 🤗 Datasets e 🤗 Tokenizadores antes de mergulhar nas tarefas clássicas de NLP. Ao final dessa parte, você será capaz de resolver por conta própria os problemas mais comuns de NLP. Ao longo do caminho, você aprenderá como construir e compartilhar demonstrações de seus modelos e otimiza-los para ambientes de produção. No final dessa parte, você será capaz de aplicar a 🤗 Transformers para (quase) qualquer problema de aprendizagem de máquina!</li></ul> <p data-svelte-h="svelte-15jge9e">Esse curso:</p> <ul data-svelte-h="svelte-1y2v49s"><li>Requer um bom conhecimento de Python</li> <li>É melhor aproveitado depois de um curso de introdução ao deep learning (aprendizagem profunda), como o da <a href="https://www.fast.ai/" rel="nofollow">fast.ai</a> <a href="https://course.fast.ai/" rel="nofollow">Practical Deep Learning for Coders</a> ou um dos programas desenvolvidos pela <a href="https://www.deeplearning.ai/" rel="nofollow">DeepLearning.AI</a></li> <li>Não se espera nenhum conhecimento prévio em <a href="https://pytorch.org/" rel="nofollow">PyTorch</a> ou em <a href="https://www.tensorflow.org/" rel="nofollow">TensorFlow</a> , ainda que certa familiaridade com ambas as ferramentas seja proveitoso</li></ul> <p data-svelte-h="svelte-qpjc6s">Depois de você ter completado esse curso, nós recomendamos dar uma olhada na especialização da DeepLearning.AI de <a href="https://www.coursera.org/specializations/natural-language-processing?utm_source=deeplearning-ai&utm_medium=institutions&utm_campaign=20211011-nlp-2-hugging_face-page-nlp-refresh" rel="nofollow">Processamento de Linguagem Natural</a>, que cobre uma grande gama de modelos de NLP como naive Bayes e LSTMs que valem bastante a pena ter conhecimento!</p> <h2 class="relative group"><a id="quem-nós-somos" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#quem-nós-somos"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>Quem nós somos?</span></h2> <p data-svelte-h="svelte-zkd8cg">Sobre os autores:</p> <p data-svelte-h="svelte-gwd168"><strong>Matthew Carrigan</strong> é Engenheiro de Machine Learning na Hugging Face. Ele mora em Dublin na Irlanda e anteriormente trabalhou como Engenheiro de ML na Parse.ly e antes disso como pesquisador pós-doc na Trinity College Dublin. Ele não acredita que chegaremos a um rendimento anual bruto corrigido escalando as arquiteturas existentes, mas de qualquer forma ele tem grandes esperanças na imortalidade das máquinas.</p> <p data-svelte-h="svelte-lofxo2"><strong>Lysandre Debut</strong> é um Engenheiro de Machine Learning na Hugging Face e tem trabalhado para a biblioteca 🤗 Transformers desde seus estágios iniciais de desenvolvimento. Seu objetivo é fazer com que a área de NLP se torne acessível para qualquer pessoa através do desenvolvimento de ferramentas com uma API simples.</p> <p data-svelte-h="svelte-1mose0i"><strong>Sylvain Gugger</strong> é um Engenheiro Pesquisador na Hugging Face e um dos principais mantenedores da biblioteca 🤗 Transformers. Anteriormente ele foi Cientista Pesquisador na fast.ai, e co-escreveu <em><a href="https://learning.oreilly.com/library/view/deep-learning-for/9781492045519/" rel="nofollow">Deep Learning for Coders with fastai and PyTorch</a></em> com Jeremy Howard. O principal foco de sua pesquisa está em fazer o deep learning mais acessível, através de desenhos e técnicas de aprimoramento que permitam que modelos sejam treinados mais rápidos e com recursos limitados.</p> <p data-svelte-h="svelte-gz1zsi"><strong>Merve Noyan</strong> é um desenvolvedor e evangelista na Hugging Face, trabalhando no desenvolvimento e construção de conteúdos envolta da temática de democratização do Machine Learning para todas as pessoas.</p> <p data-svelte-h="svelte-19inyq8"><strong>Lucile Saulnier</strong> é uma Engenheira de Machine Learning na Hugging Face, desenvolvendo e apoiando o uso de ferramentas de código aberto. Ela também é ativamente envolvida em muitos projetos de pesquisa no campo do Processamento de Linguagem natural assim como em treinamentos colaborativos e BigScience.</p> <p data-svelte-h="svelte-qv1lv"><strong>Lewis Tunstall</strong> é um Engenheiro de Machine Learning na Hugging Face, focado no desenvolvimento de ferramentas open-source e em fazê-las amplamente acessíveis pela comunidade. Ele também é co-autor do livro que está pra lançar <a href="https://www.oreilly.com/library/view/natural-language-processing/9781098136789/" rel="nofollow">O’Reilly book on Transformers</a>.</p> <p data-svelte-h="svelte-1hzrxqc"><strong>Leandro von Werra</strong> é um Engenheiro de Machine Learning no time de open-source na Hugging Face e também co-autor do livro <a href="https://www.oreilly.com/library/view/natural-language-processing/9781098136789/" rel="nofollow">O’Reilly book on Transformers</a>. Ele tem muitos anos de experiência na indústria trazendo projetos de NLP para produção trabalhando com várias stacks de Machine Learning.</p> <p data-svelte-h="svelte-1k41qni">Está pronto para seguir? Nesse capítulo, você aprenderá:</p> <ul data-svelte-h="svelte-1zk29g"><li>Como usar a função <code>pipeline()</code> para solucionar tarefas de NLP tais como geração de texto e classificação</li> <li>Sobre a arquitetura Transformer</li> <li>Como distinguir entre as arquiteturas encoder, decoder, encoder-decoder e seus casos de uso</li></ul> <a class="!text-gray-400 !no-underline text-sm flex items-center not-prose mt-4" href="https://github.com/huggingface/course/blob/main/chapters/pt/chapter1/1.mdx" target="_blank"><span data-svelte-h="svelte-1kd6by1"><</span> <span data-svelte-h="svelte-x0xyl0">></span> <span data-svelte-h="svelte-1dajgef"><span class="underline ml-1.5">Update</span> on GitHub</span></a> <p></p> | |
| <script> | |
| { | |
| __sveltekit_1ef170a = { | |
| assets: "/docs/course/pr_1069/pt", | |
| base: "/docs/course/pr_1069/pt", | |
| env: {} | |
| }; | |
| const element = document.currentScript.parentElement; | |
| const data = [null,null]; | |
| Promise.all([ | |
| import("/docs/course/pr_1069/pt/_app/immutable/entry/start.854f6ddb.js"), | |
| import("/docs/course/pr_1069/pt/_app/immutable/entry/app.99d5705b.js") | |
| ]).then(([kit, app]) => { | |
| kit.start(app, element, { | |
| node_ids: [0, 3], | |
| data, | |
| form: null, | |
| error: null | |
| }); | |
| }); | |
| } | |
| </script> | |
Xet Storage Details
- Size:
- 16.7 kB
- Xet hash:
- d8d030f757073b855b8cdf6723613a33029c8f0ce1d94e290b94dc1fbc64c541
·
Xet efficiently stores files, intelligently splitting them into unique chunks and accelerating uploads and downloads. More info.