Buckets:
| <meta charset="utf-8" /><meta name="hf:doc:metadata" content="{"title":"Introduction","local":"introduction","sections":[{"title":"Bienvenue au cours 🤗 !","local":"bienvenue-au-cours--","sections":[],"depth":2},{"title":"À quoi s’attendre ?","local":"à-quoi-sattendre-","sections":[],"depth":2},{"title":"Qui sommes-nous ?","local":"qui-sommes-nous-","sections":[],"depth":2},{"title":"FAQ","local":"faq","sections":[],"depth":2},{"title":"C’est parti !","local":"cest-parti-","sections":[],"depth":2}],"depth":1}"> | |
| <link href="/docs/course/pr_1069/fr/_app/immutable/assets/0.e3b0c442.css" rel="modulepreload"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/entry/start.cea6db46.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/scheduler.37c15a92.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/singletons.2b29b91f.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/index.18351ede.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/paths.f6fdf97f.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/entry/app.3f6640b1.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/index.2bf4358c.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/nodes/0.b777de11.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/each.e59479a4.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/nodes/3.7fa0c97e.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/Youtube.1e50a667.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/CodeBlock.4e987730.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/CourseFloatingBanner.6add7356.js"> | |
| <link rel="modulepreload" href="/docs/course/pr_1069/fr/_app/immutable/chunks/getInferenceSnippets.24b50994.js"><!-- HEAD_svelte-u9bgzb_START --><meta name="hf:doc:metadata" content="{"title":"Introduction","local":"introduction","sections":[{"title":"Bienvenue au cours 🤗 !","local":"bienvenue-au-cours--","sections":[],"depth":2},{"title":"À quoi s’attendre ?","local":"à-quoi-sattendre-","sections":[],"depth":2},{"title":"Qui sommes-nous ?","local":"qui-sommes-nous-","sections":[],"depth":2},{"title":"FAQ","local":"faq","sections":[],"depth":2},{"title":"C’est parti !","local":"cest-parti-","sections":[],"depth":2}],"depth":1}"><!-- HEAD_svelte-u9bgzb_END --> <p></p> <h1 class="relative group"><a id="introduction" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#introduction"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>Introduction</span></h1> <div class="flex space-x-1 absolute z-10 right-0 top-0"><a href="https://discuss.huggingface.co/t/chapter-1-questions" target="_blank"><img alt="Ask a Question" class="!m-0" src="https://img.shields.io/badge/Ask%20a%20question-ffcb4c.svg?logo=data:image/svg+xml;base64,PHN2ZyB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciIHZpZXdCb3g9IjAgLTEgMTA0IDEwNiI+PGRlZnM+PHN0eWxlPi5jbHMtMXtmaWxsOiMyMzFmMjA7fS5jbHMtMntmaWxsOiNmZmY5YWU7fS5jbHMtM3tmaWxsOiMwMGFlZWY7fS5jbHMtNHtmaWxsOiMwMGE5NGY7fS5jbHMtNXtmaWxsOiNmMTVkMjI7fS5jbHMtNntmaWxsOiNlMzFiMjM7fTwvc3R5bGU+PC9kZWZzPjx0aXRsZT5EaXNjb3Vyc2VfbG9nbzwvdGl0bGU+PGcgaWQ9IkxheWVyXzIiPjxnIGlkPSJMYXllcl8zIj48cGF0aCBjbGFzcz0iY2xzLTEiIGQ9Ik01MS44NywwQzIzLjcxLDAsMCwyMi44MywwLDUxYzAsLjkxLDAsNTIuODEsMCw1Mi44MWw1MS44Ni0uMDVjMjguMTYsMCw1MS0yMy43MSw1MS01MS44N1M4MCwwLDUxLjg3LDBaIi8+PHBhdGggY2xhc3M9ImNscy0yIiBkPSJNNTIuMzcsMTkuNzRBMzEuNjIsMzEuNjIsMCwwLDAsMjQuNTgsNjYuNDFsLTUuNzIsMTguNEwzOS40LDgwLjE3YTMxLjYxLDMxLjYxLDAsMSwwLDEzLTYwLjQzWiIvPjxwYXRoIGNsYXNzPSJjbHMtMyIgZD0iTTc3LjQ1LDMyLjEyYTMxLjYsMzEuNiwwLDAsMS0zOC4wNSw0OEwxOC44Niw4NC44MmwyMC45MS0yLjQ3QTMxLjYsMzEuNiwwLDAsMCw3Ny40NSwzMi4xMloiLz48cGF0aCBjbGFzcz0iY2xzLTQiIGQ9Ik03MS42MywyNi4yOUEzMS42LDMxLjYsMCwwLDEsMzguOCw3OEwxOC44Niw4NC44MiwzOS40LDgwLjE3QTMxLjYsMzEuNiwwLDAsMCw3MS42MywyNi4yOVoiLz48cGF0aCBjbGFzcz0iY2xzLTUiIGQ9Ik0yNi40Nyw2Ny4xMWEzMS42MSwzMS42MSwwLDAsMSw1MS0zNUEzMS42MSwzMS42MSwwLDAsMCwyNC41OCw2Ni40MWwtNS43MiwxOC40WiIvPjxwYXRoIGNsYXNzPSJjbHMtNiIgZD0iTTI0LjU4LDY2LjQxQTMxLjYxLDMxLjYxLDAsMCwxLDcxLjYzLDI2LjI5YTMxLjYxLDMxLjYxLDAsMCwwLTQ5LDM5LjYzbC0zLjc2LDE4LjlaIi8+PC9nPjwvZz48L3N2Zz4="></a> </div> <h2 class="relative group"><a id="bienvenue-au-cours--" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#bienvenue-au-cours--"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>Bienvenue au cours 🤗 !</span></h2> <iframe class="w-full xl:w-4/6 h-80" src="https://www.youtube-nocookie.com/embed/00GKzGyWFEs" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe> <p data-svelte-h="svelte-1iafdd2">Ce cours vous apprendra à utiliser les bibliothèques de NLP de l’écosystème <a href="https://huggingface.co/" rel="nofollow">Hugging Face</a> : <a href="https://github.com/huggingface/transformers" rel="nofollow">🤗 <em>Transformers</em></a>, <a href="https://github.com/huggingface/datasets" rel="nofollow">🤗 <em>Datasets</em></a>, <a href="https://github.com/huggingface/tokenizers" rel="nofollow">🤗 <em>Tokenizers</em></a> et <a href="https://github.com/huggingface/accelerate" rel="nofollow">🤗 <em>Accelerate</em></a>, ainsi que le <a href="https://huggingface.co/models" rel="nofollow"><em>Hub</em></a>. C’est totalement gratuit et sans publicité.</p> <h2 class="relative group"><a id="à-quoi-sattendre-" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#à-quoi-sattendre-"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>À quoi s’attendre ?</span></h2> <p data-svelte-h="svelte-v76iax">Voici un bref aperçu du cours :</p> <div class="flex justify-center" data-svelte-h="svelte-2ydfz9"><img class="block dark:hidden" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/summary.svg" alt="Bref aperçu du contenu du cours."> <img class="hidden dark:block" src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/summary-dark.svg" alt="Bref aperçu des différents chapitres du cours."></div> <ul data-svelte-h="svelte-bat7s5"><li>Les chapitres 1 à 4 présentent les principaux concepts de la bibliothèque 🤗 <em>Transformers</em>. À la fin de ces chapitres, vous serez familier avec le fonctionnement des <em>transformers</em> et vous saurez comment utiliser un modèle présent sur le <a href="https://huggingface.co/models" rel="nofollow"><em>Hub</em></a>, le <em>finetuner</em> sur un jeu de données, et partager vos résultats sur le <em>Hub</em> !</li> <li>Les chapitres 5 à 8 présentent les bases des librairies 🤗 <em>Datasets</em> et 🤗 <em>Tokenizers</em> ainsi qu’une découverte des problèmes classiques de NLP. À la fin de ce chapitre, vous serez capable de résoudre les problèmes de NLP les plus communs par vous-même.</li> <li>Les chapitres 9 à 12 proposent d’aller plus loin et d’explorer comment les <em>transformers</em> peuvent être utilisés pour résoudre des problèmes de traitement de la parole et de vision par ordinateur. En suivant ces chapitres, vous apprendrez à construire et à partager vos modèles via des démonstrateurs, et vous serez capable d’optimiser ces modèles pour des environnements de production. Enfin, vous serez prêt à appliquer 🤗 <em>Transformers</em> à (presque) n’importe quel problème d’apprentissage automatique !</li></ul> <p data-svelte-h="svelte-143etto">Ce cours :</p> <ul data-svelte-h="svelte-10r9qa7"><li>requiert un bon niveau en Python,</li> <li>se comprend mieux si vous avez déjà suivi un cours d’introduction à l’apprentissage profond comme <a href="https://www.fast.ai/" rel="nofollow">fast.ai’s</a>, <a href="https://course.fast.ai/" rel="nofollow"><em>Practical Deep Learning for Coders</em></a> ou un des cours développés par <a href="https://www.deeplearning.ai/" rel="nofollow"><em>DeepLearning.AI</em></a>,</li> <li>n’attend pas une connaissance appronfondie de <a href="https://pytorch.org/" rel="nofollow">PyTorch</a> ou de <a href="https://www.tensorflow.org/" rel="nofollow">TensorFlow</a>, bien qu’être familiarisé avec l’un d’entre eux peut aider.</li></ul> <p data-svelte-h="svelte-1336vy3">Après avoir terminé ce cours, nous vous recommandons de suivre la <a href="https://www.coursera.org/specializations/natural-language-processing?utm_source=deeplearning-ai&utm_medium=institutions&utm_campaign=20211011-nlp-2-hugging_face-page-nlp-refresh" rel="nofollow">Spécialisation en NLP</a> dispensée par DeepLearning.AI, qui couvre une grande partie des modèles traditionnels de NLP comme le Bayésien naïf et les LSTMs qui sont importants à connaître !</p> <h2 class="relative group"><a id="qui-sommes-nous-" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#qui-sommes-nous-"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>Qui sommes-nous ?</span></h2> <p data-svelte-h="svelte-13fuj67">À propos des auteurs de ce cours :</p> <p data-svelte-h="svelte-17tqd6q"><a href="https://huggingface.co/abidlabs" rel="nofollow"><strong>Abubakar Abid</strong></a> a obtenu son doctorat en apprentissage automatique appliqué à Stanford. Pendant son doctorat, il a fondé <a href="https://github.com/gradio-app/gradio" rel="nofollow">Gradio</a>, une bibliothèque Python <em>open source</em> qui a été utilisée pour construire plus de 600 000 démos d’apprentissage automatique. Gradio a été rachetée par Hugging Face, où Abubakar occupe désormais le poste de responsable de l’équipe d’apprentissage automatique.</p> <p data-svelte-h="svelte-jlu250"><a href="https://huggingface.co/Rocketknight1" rel="nofollow"><strong>Matthew Carrigan</strong></a> est ingénieur en apprentissage machine chez Hugging Face. Il vit à Dublin en Irlande. Il a travaillé auparavant comme ingénieur en apprentissage machine chez Parse.ly et avant cela comme chercheur postdoctoral au Trinity College Dublin. Il ne croit pas que nous arrivions à l’<em>AGI</em> en mettant à l’échelle les architectures existantes mais a tout de même beaucoup d’espoir dans l’immortalité des robots.</p> <p data-svelte-h="svelte-1r5jxub"><a href="https://huggingface.co/lysandre" rel="nofollow"><strong>Lysandre Debut</strong></a> est ingénieur en apprentissage machine chez Hugging Face et a travaillé sur la bibliothèque 🤗 <em>Transformers</em> depuis les premières phases de développement. Son but est de rendre le NLP accessible à tous en développant des outils disposant d’une API très simple.</p> <p data-svelte-h="svelte-1gdwz0e"><a href="https://huggingface.co/sgugger" rel="nofollow"><strong>Sylvain Gugger</strong></a> est ingénieur de recherche chez Hugging Face et un des principaux responsables de la bibliothèque 🤗 <em>Transformers</em>. Avant cela, il était chercheur en apprentissage machine chez fast.ai et a écrit le livre <a href="https://learning.oreilly.com/library/view/deep-learning-for/9781492045519/" rel="nofollow"><em>Deep Learning for Coders with fastai and PyTorch</em></a> avec Jeremy Howard. Son but est de rendre l’apprentissage profond plus accessible en développant et en améliorant des techniques permettant aux modèles d’apprendre rapidement sur des ressources limitées.</p> <p data-svelte-h="svelte-121pd2a"><a href="https://huggingface.co/dawoodkhan82" rel="nofollow"><strong>Dawood Khan</strong></a> est un ingénieur en apprentissage automatique chez Hugging Face. Il vient de New York et est diplômé en informatique de l’Université de New York. Après avoir travaillé comme ingénieur iOS pendant quelques années, Dawood a quitté son poste pour créer Gradio avec ses cofondateurs. Gradio a finalement été acquis par Hugging Face.</p> <p data-svelte-h="svelte-1cjfpjf"><a href="https://huggingface.co/merve" rel="nofollow"><strong>Merve Noyan</strong></a> est développeuse <em>advocate</em> chez Hugging Face et travaille à la création d’outils et de contenus visant à démocratiser l’apprentissage machine pour tous.</p> <p data-svelte-h="svelte-4oza3"><a href="https://huggingface.co/SaulLu" rel="nofollow"><strong>Lucile Saulnier</strong></a> est ingénieure en apprentissage machine chez Hugging Face et travaille au développement et à l’implémentation de nombreux outils <em>open source</em>. Elle est également activement impliquée dans de nombreux projets de recherche dans le domaine du NLP comme l’entraînement collaboratif de modèles et le projet <a href="https://bigscience.huggingface.co/" rel="nofollow">BigScience</a>.</p> <p data-svelte-h="svelte-1htcnob"><a href="https://huggingface.co/lewtun" rel="nofollow"><strong>Lewis Tunstall</strong></a> est ingénieur en apprentissage machine chez Hugging Face et dévoué au développement d’outils <em>open source</em> avec la volonté de les rendre accessibles à une communauté plus large. Il est également co-auteur du livre <a href="https://www.oreilly.com/library/view/natural-language-processing/9781098136789/" rel="nofollow"><em>Natural Language Processing with Transformers</em></a>.</p> <p data-svelte-h="svelte-vsgmor"><a href="https://huggingface.co/lvwerra" rel="nofollow"><strong>Leandro von Werra</strong></a> est ingénieur en apprentissage machine dans l’équipe <em>open source</em> d’Hugging Face et également co-auteur du livre <a href="https://www.oreilly.com/library/view/natural-language-processing/9781098136789/" rel="nofollow"><em>Natural Language Processing with Transformers</em></a>. Il a plusieurs années d’expérience dans l’industrie où il a pu déployer des projets de NLP en production et travailler sur toutes les étapes clefs du déploiement.</p> <h2 class="relative group"><a id="faq" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#faq"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>FAQ</span></h2> <p data-svelte-h="svelte-d1vg63">Voici quelques réponses aux questions fréquemment posées :</p> <ul data-svelte-h="svelte-1ut6zko"><li><p><strong>Suivre ce cours mène-t-il à une certification ?</strong><br> | |
| Actuellement, nous n’avons pas de certification pour ce cours. Cependant, nous travaillons sur un programme de certification pour l’écosystème <em>Hugging Face</em>. Restez à l’écoute !</p></li> <li><p><strong>Combien de temps dois-je consacrer à ce cours ?</strong><br> | |
| Chaque chapitre de ce cours est conçu pour être complété en une semaine, avec environ 6 à 8 heures de travail par semaine. Cependant, vous pouvez prendre tout le temps nécessaire pour le suivre.</p></li> <li><p><strong>Où puis-je poser une question si j’en ai une ?</strong><br> | |
| Si vous avez une question sur l’une des sections du cours, il vous suffit de cliquer sur la bannière « <em>Ask a question</em> » en haut de la page pour être automatiquement redirigé vers la bonne section du <a href="https://discuss.huggingface.co/" rel="nofollow">forum d’<em>Hugging Face</em></a> :</p></li></ul> <img src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/forum-button.png" alt="Link to the Hugging Face forums" width="75%"> <p data-svelte-h="svelte-142k5n4">Notez qu’une liste d’<a href="https://discuss.huggingface.co/c/course/course-event/25" rel="nofollow">idées de projets</a> est également disponible sur le forum si vous souhaitez pratiquer davantage une fois le cours terminé.</p> <ul data-svelte-h="svelte-qz3myq"><li><strong>Où puis-je obtenir le code du cours ?</strong><br> | |
| Pour chaque section, vous pouvez cliquer sur la bannière en haut de la page pour exécuter son code dans <em>Google Colab</em> ou <em>Amazon SageMaker Studio Lab</em> :</li></ul> <img src="https://huggingface.co/datasets/huggingface-course/documentation-images/resolve/main/en/chapter1/notebook-buttons.png" alt="Link to the Hugging Face course notebooks" width="75%"> <p data-svelte-h="svelte-11byry">A noter que pour la version en français du cours, deux choix s’offrent à vous lorsque vous cliquez sur la bannière. Le premier est de sélectionner le <em>notebook</em> utilisant des modèles en anglais. L’intérêt est qu’il s’agit de celui sur lequel sont basées les explications du cours (interprétation des résultats, etc.). Le second est de sélectionner le <em>notebook</em> utilisant des modèles en français. Il s’agit alors d’une proposition d’adaptation (un modèle parmi tous ceux existant en français est utilisé).</p> <p data-svelte-h="svelte-nzisrk">Si vous souhaitez accéder à l’ensemble des <em>notebooks</em> Jupyter du cours, il existe deux possibilités. La première est de cloner le dépôt <a href="https://github.com/huggingface/notebooks" rel="nofollow"><code>huggingface/notebooks</code></a> et de consulter les <em>notebooks</em> contenus dans le dossier <em>course</em>. La seconde est de générer les <em>notebooks</em> localement en suivant les instructions dans le <em>README</em> du dépôt <a href="https://github.com/huggingface/course#-jupyter-notebooks" rel="nofollow"><code>course</code></a> sur GitHub.</p> <ul data-svelte-h="svelte-egun7o"><li><p><strong>Comment puis-je contribuer au cours ?</strong><br> | |
| Il existe de nombreuses façons de contribuer au cours ! Si vous trouvez une coquille ou un bug, veuillez ouvrir une « <em>Issue</em> » sur le dépôt <a href="https://github.com/huggingface/course" rel="nofollow"><code>course</code></a>. Si vous souhaitez aider à traduire le cours dans votre langue maternelle, consultez les instructions <a href="https://github.com/huggingface/course#translating-the-course-into-your-language" rel="nofollow">ici</a>.</p></li> <li><p><strong>Quels ont été les choix retenus pour la traduction ?</strong><br> | |
| Vous pouvez consulter le <a href="https://huggingface.co/course/fr/glossary/1" rel="nofollow">glossaire</a> détaillant les choix retenus pour la traduction vers le français.</p></li> <li><p><strong>Peut-on réutiliser ce cours?</strong><br> | |
| Bien sûr ! Le cours est publié sous la licence <a href="https://www.apache.org/licenses/LICENSE-2.0.html" rel="nofollow">Apache 2 license</a>. Cela signifie que vous devez créditer de manière appropriée, fournir un lien vers la licence et indiquer si des modifications ont été apportées. Vous pouvez le faire de toute manière raisonnable, mais pas d’une façon qui suggère que le distributeur de la licence vous approuve ou approuve votre utilisation. Si vous souhaitez citer le cours, veuillez utiliser le BibTeX suivant :</p></li></ul> <div class="code-block relative "><div class="absolute top-2.5 right-4"><button class="inline-flex items-center relative text-sm focus:text-green-500 cursor-pointer focus:outline-none transition duration-200 ease-in-out opacity-0 mx-0.5 text-gray-600 " title="code excerpt" type="button"><svg class="" xmlns="http://www.w3.org/2000/svg" aria-hidden="true" fill="currentColor" focusable="false" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 32 32"><path d="M28,10V28H10V10H28m0-2H10a2,2,0,0,0-2,2V28a2,2,0,0,0,2,2H28a2,2,0,0,0,2-2V10a2,2,0,0,0-2-2Z" transform="translate(0)"></path><path d="M4,18H2V4A2,2,0,0,1,4,2H18V4H4Z" transform="translate(0)"></path><rect fill="none" width="32" height="32"></rect></svg> <div class="absolute pointer-events-none transition-opacity bg-black text-white py-1 px-2 leading-tight rounded font-normal shadow left-1/2 top-full transform -translate-x-1/2 translate-y-2 opacity-0"><div class="absolute bottom-full left-1/2 transform -translate-x-1/2 w-0 h-0 border-black border-4 border-t-0" style="border-left-color: transparent; border-right-color: transparent; "></div> Copied</div></button></div> <pre class=""><!-- HTML_TAG_START --><span class="language-xml">@misc</span><span class="hljs-template-variable">{huggingfacecourse, | |
| author = {Hugging Face}</span><span class="language-xml">, | |
| title = </span><span class="hljs-template-variable">{The Hugging Face Course, 2022}</span><span class="language-xml">, | |
| howpublished = "\url</span><span class="hljs-template-variable">{https://huggingface.co/course}</span><span class="language-xml">", | |
| year = </span><span class="hljs-template-variable">{2022}</span><span class="language-xml">, | |
| note = "[Online; accessed <span class="hljs-tag"><<span class="hljs-name">today</span>></span>]" | |
| }</span><!-- HTML_TAG_END --></pre></div> <h2 class="relative group"><a id="cest-parti-" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#cest-parti-"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>C’est parti !</span></h2> <p data-svelte-h="svelte-gmalk8">Êtes-vous prêt à commencer ? Dans ce chapitre, vous apprendrez :</p> <ul data-svelte-h="svelte-ymhpkg"><li>à utiliser la fonction <code>pipeline()</code> pour résoudre des problèmes de NLP comme la génération de texte et la classification,</li> <li>l’architecture d’un <em>transformer</em>,</li> <li>comment faire la distinction entre les différentes architectures d’encodeur, de décodeur et d’encodeur-décodeur ainsi que leurs différents cas d’usage.</li></ul> <a class="!text-gray-400 !no-underline text-sm flex items-center not-prose mt-4" href="https://github.com/huggingface/course/blob/main/chapters/fr/chapter1/1.mdx" target="_blank"><span data-svelte-h="svelte-1kd6by1"><</span> <span data-svelte-h="svelte-x0xyl0">></span> <span data-svelte-h="svelte-1dajgef"><span class="underline ml-1.5">Update</span> on GitHub</span></a> <p></p> | |
| <script> | |
| { | |
| __sveltekit_1sfisyd = { | |
| assets: "/docs/course/pr_1069/fr", | |
| base: "/docs/course/pr_1069/fr", | |
| env: {} | |
| }; | |
| const element = document.currentScript.parentElement; | |
| const data = [null,null]; | |
| Promise.all([ | |
| import("/docs/course/pr_1069/fr/_app/immutable/entry/start.cea6db46.js"), | |
| import("/docs/course/pr_1069/fr/_app/immutable/entry/app.3f6640b1.js") | |
| ]).then(([kit, app]) => { | |
| kit.start(app, element, { | |
| node_ids: [0, 3], | |
| data, | |
| form: null, | |
| error: null | |
| }); | |
| }); | |
| } | |
| </script> | |
Xet Storage Details
- Size:
- 28.2 kB
- Xet hash:
- 340d459b76074a5172eb81848c60c97b551516b82dc8a3dfbb8b24ecf53fcc0d
·
Xet efficiently stores files, intelligently splitting them into unique chunks and accelerating uploads and downloads. More info.