Id,English,Burmese,Chinese
1,Welcome to the Hugging Face Course.,Hugging Face သင်တန်းမှ ကြိုဆိုပါတယ်။,"欢迎来到“hugging face”课程。"
2,"This course has been designed to teach you all about the Hugging Face ecosystem, how to use the dataset and model hub as well as all our open-source libraries.",ဒီသင်တန်းကို Hugging Face ရဲ့ ဂေဟစနစ် အကြောင်း၊ dataset နဲ့ model hub တွေကို ဘယ်လိုအသုံးပြုရမလဲ၊ ကျွန်ုပ်တို့ရဲ့ open-source library တွေအားလုံးကို ဘယ်လိုသုံးရမလဲဆိုတာတွေကို သင်ကြားပေးဖို့ ရေးဆွဲထားတာပါ။,本课程旨在向各位传授关于“Hugging Face”、如何使用数据集和模型枢纽以及我们所有开放源码图书馆的知识。
3,Here is the Table of Contents.,ဒီမှာတော့ သင်တန်းရဲ့ အကြောင်းအရာများ အညွှန်း ဖြစ်ပါတယ်။,这是目录。
4,"As you can see, it's divided in three sections which become progressively more advanced.",သင်မြင်တဲ့အတိုင်း ဒီသင်တန်းကို အပိုင်းသုံးပိုင်း ခွဲခြားထားပြီး တစ်ပိုင်းပြီးတစ်ပိုင်း ပိုမိုအဆင့်မြင့်လာမှာ ဖြစ်ပါတယ်။,"如你所见,它分为三个部分, 逐渐更先进。"
5,"At this stage, the first two sections have been released.",ဒီအဆင့်မှာတော့ ပထမဆုံး အပိုင်းနှစ်ပိုင်းကို ထုတ်ပြန်ပြီးပါပြီ။,"在现阶段,前两节已经获释。"
6,"So first, we'll teach you the basics of how to use a Transformer model, fine-tune it on your own data set and share the result with the community.",ပထမဦးစွာ Transformer model ကို ဘယ်လိုအသုံးပြုရမယ်၊ ကိုယ်ပိုင် data set ပေါ်မှာ ဘယ်လို fine-tune လုပ်ရမယ်၊ ပြီးတော့ ရလဒ်ကို အသိုင်းအဝိုင်းနဲ့ ဘယ်လိုမျှဝေရမယ်ဆိုတဲ့ အခြေခံတွေကို သင်ကြားပေးပါမယ်။,"首先,我们将教你们如何使用变形模型的基本原理, 微调它,在你自己的数据集上进行微调, 并与社区分享结果。"
7,"So second, we'll dive deeper into our libraries and teach you how to tackle any NLP task.",ဒုတိယအနေနဲ့ ကျွန်ုပ်တို့ရဲ့ library တွေထဲကို ပိုမိုနက်နက်နဲနဲ လေ့လာပြီး မည်သည့် NLP (သဘာဝဘာသာစကား စီမံဆောင်ရွက်ခြင်း) လုပ်ငန်းကိုမဆို ဖြေရှင်းနိုင်မယ့် နည်းလမ်းတွေကို သင်ပေးပါမယ်။,"第二,我们深入图书馆 教你们如何完成任何NLP任务。"
8,We're actively working on the last one and hope to have it ready for you for the spring of 2022.,နောက်ဆုံးအပိုင်းကိုတော့ ကျွန်ုပ်တို့ တက်ကြွစွာ ဆောင်ရွက်နေပြီး ၂၀၂၂ ခုနှစ် နွေဦးရာသီမှာ အသင့်ဖြစ်အောင် လုပ်ပေးနိုင်လိမ့်မယ်လို့ မျှော်လင့်ပါတယ်။,我们正在积极研究最后一个 希望能在2022年春天为你准备好
9,The first chapter requires no technical knowledge and is a good introduction to learn what Transformers models can do and how it could be of use to you or your company.,ပထမအခန်းအတွက်တော့ နည်းပညာပိုင်းဆိုင်ရာ အသိပညာ မလိုအပ်ပါဘူး၊ Transformer မော်ဒယ်တွေ ဘာတွေလုပ်နိုင်တယ်၊ ဒါတွေက သင် ဒါမှမဟုတ် သင့်ကုမ္ပဏီအတွက် ဘယ်လိုအသုံးဝင်နိုင်တယ်ဆိုတာ လေ့လာဖို့အတွက် ကောင်းမွန်တဲ့ နိဒါန်းတစ်ခု ဖြစ်ပါတယ်။,"第一章不要求技术知识,而是一个很好的介绍,以了解变形模型能够做些什么,以及如何对你或你的公司有用。"
10,The next chapters require a good knowledge of Python and some basic knowledge of Machine Learning and Deep Learning.,နောက်အခန်းတွေအတွက်တော့ Python ကို ကောင်းကောင်းသိဖို့နဲ့ Machine Learning၊ Deep Learning တို့ရဲ့ အခြေခံအသိပညာအချို့ လိုအပ်ပါတယ်။,"下一章需要精通皮顿,并需要掌握机器学习和深层学习的一些基本知识。"
11,"If you don't know what a training and validation set are or what gradient descent means, you should look at an introductory course such as the ones published by deeplearning.ai or fast.ai.",အကယ်၍ training set နဲ့ validation set ဆိုတာဘာလဲ၊ ဒါမှမဟုတ် gradient descent ဆိုတာ ဘာကိုဆိုလိုသလဲဆိုတာ မသိဘူးဆိုရင် deeplearning.ai ဒါမှမဟုတ် fast.ai တို့က ထုတ်ဝေထားတဲ့ နိဒါန်းသင်တန်းတွေလိုမျိုး သင်တန်းတွေကို ကြည့်သင့်ပါတယ်။,"如果你不知道什么是培训和验证组或梯度下降意味着什么,你应该看一看入门课程,例如深层次学习所出版的课程。"
12,"It's also best if you have some basics in one Deep Learning Framework, PyTorch or TensorFlow.",Deep Learning Framework တစ်ခုခုဖြစ်တဲ့ PyTorch ဒါမှမဟုတ် TensorFlow မှာ အခြေခံအချို့ ရှိထားမယ်ဆိုရင် ပိုကောင်းပါတယ်။,"也最好你有一个深学习框架, 即PyTorch或Tensor Flow 中的一些基本知识。"
13,"Each part of the material introduced in this course has a version in both those frameworks, so you will be able to pick the one you are most comfortable with.",ဒီသင်တန်းမှာ မိတ်ဆက်ပေးထားတဲ့ အကြောင်းအရာ အစိတ်အပိုင်းတိုင်းမှာ အဲဒီ framework နှစ်ခုလုံးအတွက် version တွေ ရှိပါတယ်၊ ဒါကြောင့် သင်အကျွမ်းကျင်ဆုံးဖြစ်တဲ့ တစ်ခုကို ရွေးချယ်နိုင်ပါလိမ့်မယ်။,"本课程中介绍的材料的每一部分都有这两个框架中的版本,这样你就可以选择最满意的材料。"
14,This is the team that developed this course.,ဒါကတော့ ဒီသင်တန်းကို ရေးဆွဲခဲ့တဲ့ အဖွဲ့ပဲ ဖြစ်ပါတယ်။,这是开发这个课程的团队。
15,I'll now let each of the speakers introduce themselves briefly.,အခုဆိုရင် စကားပြောမယ့်သူ တစ်ဦးချင်းစီကို သူတို့ကိုယ်သူတို့ အတိုချုံး မိတ်ဆက်ပေးဖို့ ခွင့်ပြုပါမယ်။,"现在,我让每个发言者作简短的自我介绍。"
16,"Hi, my name is Matthew, and I'm a Machine Learning Engineer at Hugging Face.",မင်္ဂလာပါ၊ ကျွန်တော့်နာမည် Matthew ဖြစ်ပြီး Hugging Face မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးပါ။,"嗨,我的名字是马修, 我是机械学习工程师 在Hugging Face。"
17,I work on the open-source team and I'm responsible for maintaining particularly the TensorFlow code there.,ကျွန်တော်ဟာ open-source အဖွဲ့မှာ လုပ်ကိုင်ပြီး အထူးသဖြင့် TensorFlow code တွေကို ထိန်းသိမ်းစောင့်ရှောက်ဖို့ တာဝန်ယူထားပါတယ်။,我为开放源码小组工作 我负责维护这里的 特索佛罗密码
18,"Previously, I was a Machine Learning Engineer at Parsley, who've recently been acquired by Automatic, and I was a postdoctoral researcher before that at Trinity College, Dublin in Ireland working on computational genetics and retinal disease.",အရင်တုန်းကတော့ Automatic က မကြာသေးခင်ကမှ ဝယ်ယူခဲ့တဲ့ Parsley မှာ Machine Learning Engineer အဖြစ် လုပ်ခဲ့ဖူးပါတယ်၊ အဲဒီ့မတိုင်ခင်က အိုင်ယာလန်နိုင်ငံ၊ Dublin ရှိ Trinity College မှာ မျက်ကြည်လွှာရောဂါနဲ့ ကွန်ပျူတာ မျိုးရိုးဗီဇဆိုင်ရာ သုတေသနတွေ လုပ်ခဲ့တဲ့ postdoctoral researcher တစ်ဦး ဖြစ်ခဲ့ပါတယ်။,"以前,我是Parsley的机械学习工程师 最近被自动公司收购 在此之前,我是博士后研究员 在爱尔兰都柏林三一学院研究计算遗传学和视网膜病"
19,"Hi, I'm Lysandre.",မင်္ဂလာပါ၊ ကျွန်တော် Lysandre ပါ။,"嗨,我是莱珊卓"
20,I'm a Machine Learning Engineer at Hugging Face and I'm specifically part of the open-source team.,ကျွန်တော်က Hugging Face မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးဖြစ်ပြီး open-source အဖွဲ့မှာ အထူးပါဝင်သူပါ။,我是Hugging Face的机器学习工程师 我是开放源码团队的一员
21,"I've been at Hugging Face for a few years now and alongside my team members, I've been working on most of the tools that you'll get to see in this course.",ကျွန်တော် Hugging Face မှာ အခုဆိုရင် နှစ်အနည်းငယ်ကြာပြီဖြစ်ပြီး ကျွန်တော့်ရဲ့ အဖွဲ့သားတွေနဲ့အတူ ဒီသင်တန်းမှာ သင်တို့တွေ့မြင်ရမယ့် ကိရိယာအများစုကို တီထွင်ဖန်တီးခဲ့ပါတယ်။,我和我的团队成员 一起工作了几年了 大部分工具都是你们在课程中可以见到的
22,"Hi, I'm Sylvain.",မင်္ဂလာပါ၊ ကျွန်တော် Sylvain ပါ။,"嗨,我是西尔万"
23,I'm a Research Engineer at Hugging Face and one of the main maintainers of the Transformers Library.,ကျွန်တော်က Hugging Face မှာ သုတေသန အင်ဂျင်နီယာတစ်ဦးဖြစ်ပြီး Transformers Library ရဲ့ အဓိက ထိန်းသိမ်းသူတွေထဲက တစ်ယောက်ပါ။,我是Hugging Face的研究工程师 也是变形图书馆的主要维护者之一
24,"Previously, I worked at fast.ai where I helped develop the fast.ai Library as well as the online book.",အရင်တုန်းက fast.ai မှာ အလုပ်လုပ်ခဲ့ပြီး fast.ai Library နဲ့ online စာအုပ်ကို တီထွင်ရာမှာ ကူညီခဲ့ပါတယ်။,"之前我工作很快, 在那里我帮助开发快、快、快、快、快的图书馆和网上书籍。"
25,"Before that, I was a math and computer science teacher in France.",အဲဒီ့မတိုင်ခင်က ပြင်သစ်မှာ သင်္ချာနဲ့ ကွန်ပျူတာသိပ္ပံဆရာတစ်ဦး ဖြစ်ခဲ့ပါတယ်။,"在那之前,我是法国的数学和计算机科学老师"
26,"Hi, my name is Sasha and I'm a Researcher at Hugging Face, working on the ethical, environmental and social impacts of machine learning models.",မင်္ဂလာပါ၊ ကျွန်တော့်နာမည် Sasha ဖြစ်ပြီး Hugging Face မှာ သုတေသီတစ်ဦးပါ၊ စက်သင်ယူမှု မော်ဒယ်တွေရဲ့ ကျင့်ဝတ်၊ သဘာဝပတ်ဝန်းကျင်နဲ့ လူမှုရေးဆိုင်ရာ သက်ရောက်မှုတွေအပေါ် လုပ်ဆောင်နေပါတယ်။,"嗨,我的名字是萨沙,我是 一名研究家在Hugging Face, 研究机器学习模型的伦理、环境和社会影响。"
27,"Previously, I was a postdoctoral researcher at Mila, University in Montreal and I also worked as an Applied AI Researcher for the United Nations Global Pulse.",အရင်တုန်းက Montreal ရှိ Mila တက္ကသိုလ်မှာ postdoctoral researcher အဖြစ်လုပ်ခဲ့ပြီး ကုလသမဂ္ဂ Global Pulse အတွက် Applied AI Researcher အဖြစ်လည်း လုပ်ခဲ့ဖူးပါတယ်။,"以前,我是蒙特利尔大学米拉的博士后研究员,我也是联合国全球脉冲应用AI研究员。"
28,I've been involved in projects such as CodeCarbon and the Machine Learning Impacts Calculator to measure the carbon footprint of machine learning.,စက်သင်ယူမှုရဲ့ ကာဗွန်ခြေရာကို တိုင်းတာဖို့ CodeCarbon နဲ့ Machine Learning Impacts Calculator လိုမျိုး ပရောဂျက်တွေမှာ ပါဝင်ခဲ့ပါတယ်။,我参与过一些项目 比如代码卡本和机器学习影响计算仪 来测量机器学习的碳足迹
29,"Hi, I'm Merve and I'm a Developer Advocate at Hugging Face.",မင်္ဂလာပါ၊ ကျွန်တော် Merve ပါ၊ Hugging Face မှာ Developer Advocate တစ်ဦးပါ။,"嗨 我是Merve 我是""抱抱脸""的 开发商律师"
30,"Previously, I was working as a Machine Learning Engineer building NLP tools and chatbots.",အရင်က NLP ကိရိယာတွေနဲ့ chatbots တွေတည်ဆောက်တဲ့ စက်သင်ယူမှု အင်ဂျင်နီယာအဖြစ် လုပ်ခဲ့ပါတယ်။,"以前,我是机械学习工程师 建造NLP工具和聊天室。"
31,"Currently, I'm working to improve the hub and democratize machine learning.",လက်ရှိမှာတော့ hub ကို တိုးတက်အောင်လုပ်ဖို့နဲ့ စက်သင်ယူမှုကို လူတိုင်းသုံးနိုင်အောင် လုပ်ဆောင်ဖို့ ကြိုးစားနေပါတယ်။,"目前,我正在努力改进中心 和民主化的机器学习。"
32,Hello everyone.,အားလုံးမင်္ဂလာပါ။,"大家好,你们好"
33,My name is Lucile and I'm a Machine Learning Engineer at Hugging Face.,ကျွန်မနာမည် Lucile ဖြစ်ပြီး Hugging Face မှာ စက်သင်ယူမှု အင်ဂျင်နီယာပါ။,我叫Lucile 我是载客脸部的机械学习工程师
34,"To tell you in two sentences who I am, I work on the development and support of open-source tools and I also participate in several research project in the field of Natural Language Processing.",ကျွန်မ ဘယ်သူလဲဆိုတာကို ဝါကျနှစ်ကြောင်းနဲ့ ပြောရရင် open-source ကိရိယာတွေကို တီထွင်တာနဲ့ အထောက်အပံ့ပေးတာတွေ လုပ်ဆောင်ပြီး သဘာဝဘာသာစကား စီမံဆောင်ရွက်ခြင်း (Natural Language Processing) နယ်ပယ်က သုတေသနပရောဂျက်များစွာမှာလည်း ပါဝင်ပါတယ်။,"在两句话中,我要告诉你们我是谁,我致力于开发和支持开放源码工具,我还参加了自然语言处理领域的几个研究项目。"
35,Good day there.,မင်္ဂလာရှိသောနေ့ပါ။,"日安,你好吗?"
36,I'm Lewis and I'm a Machine Learning Engineer in the open-source team at Hugging Face.,ကျွန်တော် Lewis ပါ၊ Hugging Face ရဲ့ open-source အဖွဲ့မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးပါ။,"我是刘易斯,我是机械学习工程师 在Hugging Face的开放源码团队。"
37,I'm passionate about developing tools for the NLP community and you'll see me at many of Hugging Face's outreach activities.,NLP အသိုင်းအဝိုင်းအတွက် ကိရိယာတွေ တီထွင်ရတာကို ဝါသနာပါပြီး Hugging Face ရဲ့ လူထုဆက်သွယ်ရေး လှုပ်ရှားမှုများစွာမှာ ကျွန်တော့်ကို တွေ့ရပါလိမ့်မယ်။,"我热衷于为NLP社区开发工具, 你会看到我参加许多Hugging Face的推广活动。"
38,"Before joining Hugging Face, I spent several years developing machine learning applications for startups and enterprises in the domains of NLP, topological data analysis and time series.",Hugging Face မှာ မဝင်ခင်က NLP၊ topological data analysis နဲ့ time series တို့လို နယ်ပယ်တွေမှာ start-up တွေနဲ့ လုပ်ငန်းကြီးတွေအတွက် စက်သင်ယူမှု applications တွေကို နှစ်ပေါင်းများစွာ တီထွင်ခဲ့ဖူးပါတယ်။,"在加入Hugging Face之前,我花了几年时间为新创办企业和企业开发机器学习应用程序,这些应用程序包括国家实验室方案、地形数据分析和时间序列。"
39,"In a former life, I was a theoretical physicist, where I researched particle collisions at the Large Hadron Collider and so.",အရင်ဘဝတုန်းက ကျွန်တော်က သီအိုရီဆိုင်ရာ ရူပဗေဒပညာရှင်ဖြစ်ပြီး Large Hadron Collider မှာ အမှုန်တိုက်မှုတွေကို သုတေသနလုပ်ခဲ့ပါတယ်။,"在前世,我是一个理论物理学家, 在那里我研究粒子碰撞 在大型强子对撞机等等。"
40,"Hey, I'm Leandro and I'm a Machine Learning Engineer in the open-source team at Hugging Face.",ဟေး၊ ကျွန်တော် Leandro ပါ၊ Hugging Face ရဲ့ open-source အဖွဲ့မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးပါ။,"嘿,我是莱安德罗,我是机器学习工程师 在Hugging Face的开放源码团队。"
41,"Before joining Hugging Face, I worked as a Data Scientist in Switzerland and have taught Data Science at University.",Hugging Face ကို မဝင်ခင်က ဆွစ်ဇာလန်မှာ Data Scientist အဖြစ် လုပ်ကိုင်ခဲ့ပြီး တက္ကသိုလ်မှာ ဒေတာသိပ္ပံ ကို သင်ကြားခဲ့ဖူးပါတယ်။,"我在瑞士当数据科学家, 在大学教授数据科学。"
42,The pipeline function.,pipeline လုပ်ဆောင်ချက်။,管道功能。
43,The pipeline function is the most high level API of the Transformers library.,pipeline လုပ်ဆောင်ချက်သည် Transformers library ၏ အမြင့်ဆုံး အဆင့်ရှိ API တစ်ခု ဖြစ်သည်။,输油管功能是变压器图书馆中最高水平的API。
44,It regroups together all the steps to go from raw texts to usable predictions.,၎င်းသည် မူရင်းစာသားများမှ အသုံးပြုနိုင်သော ခန့်မှန်းချက်များအထိ ရောက်ရှိရန် လိုအပ်သည့် အဆင့်အားလုံးကို စုစည်းပေးထားသည်။,它集中了从原始文本到可用预测的所有步骤。
45,"The model used is at the core of a pipeline, but the pipeline also include all the necessary pre-processing, since the model does not expect texts, but number, as well as some post-processing, to make the output of the model human-readable.",အသုံးပြုထားသည့် မော်ဒယ်သည် pipeline၏ အဓိကဖြစ်သော်လည်း၊ မော်ဒယ်သည် စာသားများအစား နံပါတ်များကိုသာ လက်ခံသောကြောင့် လိုအပ်သည့် ကြိုတင်စီမံဆောင်ရွက်မှုများအားလုံးနှင့် မော်ဒယ်၏ အထွက်ကို လူသားများ ဖတ်ရှုနားလည်နိုင်စေရန် နောက်ဆက်တွဲ စီမံဆောင်ရွက်မှုအချို့ကိုလည်း pipelineတွင် ပါဝင်စေသည်။,"所使用的模型是管道的核心,但管道也包括所有必要的预处理,因为模型并不期望文本,而是要数字,以及一些后处理,使模型的产出可以人读。"
46,Let's look at a first example with the sentiment analysis pipeline.,ခံစားချက် ခွဲခြမ်းစိတ်ဖြာခြင်း pipelineဖြင့် ပထမဆုံး ဥပမာတစ်ခုကို ကြည့်ကြရအောင်။,让我们看看第一个关于情绪分析管道的例子。
47,This pipeline performs text classification on a given input and determines if it's positive or negative.,ဤpipelineသည် ပေးထားသော ထည့်သွင်းစာသားပေါ်တွင် စာသားခွဲခြားသတ်မှတ်ခြင်းကို လုပ်ဆောင်ပြီး အပြုသဘောဆောင်ခြင်း သို့မဟုတ် အနုတ်သဘောဆောင်ခြင်း ရှိမရှိ ဆုံးဖြတ်သည်။,"此管道对给定输入进行文本分类, 并确定是正是负。"
48,"Here, it attributed the positive label on the given text, with a confidence of 95%.",ဤတွင်၊ ၎င်းသည် ပေးထားသော စာသားပေါ်မှာ ၉၅% ယုံကြည်မှုနှင့်အတူ အပြုသဘော label ကို သတ်မှတ်ပေးခဲ့သည်။,"在此,它将肯定的标签标在给定文本上,信任度达到95%。"
49,"You can pass multiple texts to the same pipeline, which will be processed and passed through the model together as a batch.",pipelineတစ်ခုတည်းသို့ စာသားများစွာ ပေးပို့နိုင်ပြီး ၎င်းတို့ကို အစုလိုက် စီမံဆောင်ရွက်ပြီး မော်ဒယ်မှတစ်ဆင့် ပေးပို့ပါမည်။,"您可以将多个文本传送到同一管道,该管道将作为一个批量处理和通过模型。"
50,The output is a list of individual results in the same order as the input texts.,အထွက်ရလဒ်သည် ထည့်သွင်းစာသားများနှင့် တူညီသော အစီအစဉ်အတိုင်း တစ်ဦးချင်းရလဒ်များ၏ စာရင်းဖြစ်သည်။,"输出是个人结果的清单,顺序与输入文本相同。"
51,"Here we find the same label and score for the first text, and the second text is judged negative with a confidence of 99.9%.",ဤတွင် ပထမစာသားအတွက် တူညီသော label နှင့် score ကို တွေ့ရပြီး ဒုတိယစာသားကို ၉၉.၉% ယုံကြည်မှုဖြင့် အနုတ်သဘောဆောင်သည်ဟု ဆုံးဖြတ်ခဲ့သည်။,"在这里,我们找到相同的标签和第一个文本的得分,第二个文本被评为否定,信任度为99.9%。"
52,"The zero-shot classification pipeline is a more general text-classification pipeline, it allows you to provide the labels you want.",zero-shot classification pipeline သည် ပိုမိုယေဘုယျကျသော စာသားခွဲခြားသတ်မှတ်ခြင်း pipelineတစ်ခုဖြစ်ပြီး သင်လိုချင်သော label များကို ပေးပို့နိုင်ရန် ခွင့်ပြုသည်။,"零光分类管道是一种更一般的文本分类管道, 它允许您提供您想要的标签 。"
53,"Here we want to classify our input text along the labels, education, politics, and business.",ဤတွင် ကျွန်ုပ်တို့သည် ထည့်သွင်းစာသားကို ပညာရေး၊ နိုင်ငံရေးနှင့် စီးပွားရေး စသည့် label များအတိုင်း ခွဲခြားသတ်မှတ်လိုသည်။,"在这里,我们要按照标签、教育、政治和商业分类我们的投入文本。"
54,"The pipeline successfully recognizes it's more about education than the other labels, with a confidence of 84%.",၈၄% ယုံကြည်မှုဖြင့် ၎င်းသည် အခြားသော label များထက် ပညာရေးနှင့် ပိုမိုပတ်သက်ကြောင်းကို pipelineက အောင်မြင်စွာ သိရှိနိုင်ခဲ့သည်။,输油管成功确认 教育比其他标签更重要 信任度是84%
55,"Moving on to other tasks, the text generation pipeline will auto-complete a given prompt.",အခြားလုပ်ငန်းများဆီသို့ ဆက်သွားပါက စာသားထုတ်လုပ်မှု pipelineသည် ပေးထားသော စာသားကို အလိုအလျောက် ဖြည့်စွက်ပေးပါလိမ့်မည်။,"关于其他任务,文本生成管道将自动完成给定时间。"
56,"The output is generated with a bit of randomness, so it changes each time you call the generator object on a given prompt.",အထွက်ရလဒ်သည် အနည်းငယ် ကျပန်းဖြစ်မှုဖြင့် ထုတ်လုပ်ထားသောကြောင့် ပေးထားသော စာသားတစ်ခုအတွက် generator ကို ခေါ်ဆိုသည့် အကြိမ်တိုင်း ပြောင်းလဲသွားသည်။,"输出是随机生成的, 所以每次您按给定提示调用生成对象时都会更改 。"
57,"Up until now, we've used the the pipeline API with the default model associated to each task, but you can use it with any model that has been pretrained or fine-tuned on this task.",ယခုအချိန်အထိ ကျွန်ုပ်တို့သည် လုပ်ငန်းတစ်ခုစီနှင့် သက်ဆိုင်သော မူလမော်ဒယ်ဖြင့် pipeline API ကို အသုံးပြုခဲ့သော်လည်း ဤလုပ်ငန်းအတွက် ကြိုတင်လေ့ကျင့်ထားသော သို့မဟုတ် fine-tune လုပ်ထားသော မည်သည့်မော်ဒယ်နှင့်မဆို ၎င်းကို အသုံးပြုနိုင်သည်။,"到目前为止,我们一直使用输油管API 与每个任务相关的默认模式, 但是您可以使用任何已经经过预先培训或微调的模型来使用它。"
58,"Going on the model hub, huggingface.co/models you can filter the available models by task.",huggingface.co/models ရှိ model hub သို့ ဝင်ရောက်ပြီး ရရှိနိုင်သော မော်ဒယ်များကို လုပ်ငန်းအလိုက် စစ်ထုတ်နိုင်သည်။,"在模型枢纽上, 拥抱面。 co/ models 您可以按任务过滤可用模型 。"
59,"The default model used in our previous example was gpt2, but there are many more models available, and not just in English.",ကျွန်ုပ်တို့၏ ယခင်ဥပမာတွင် အသုံးပြုခဲ့သော မူလမော်ဒယ်မှာ gpt2 ဖြစ်သော်လည်း အင်္ဂလိပ်ဘာသာအပြင် အခြားမော်ဒယ်များစွာကိုလည်း ရရှိနိုင်သည်။,"我们前一个例子中使用的默认模式是 gpt2, 但还有更多的模型, 而不仅仅是英语。"
60,"Let's go back to the text generation pipeline and load it with another model, distilgpt2.",စာသားထုတ်လုပ်မှု pipelineသို့ ပြန်သွားပြီး distilgpt2 ဟူသော အခြားမော်ဒယ်ဖြင့် တင်ကြည့်ရအောင်။,"让我们回到文本生成管道 装上另一个模型,提款机2"
61,This is a lighter version of gpt2 created by the Hugging Face team.,၎င်းသည် Hugging Face အဖွဲ့မှ ဖန်တီးထားသော gpt2 ၏ ပိုမိုပေါ့ပါးသည့် ဗားရှင်းတစ်ခု ဖြစ်သည်။,这是一个较轻版本的 gpt2 由 抱抱脸团队创建 。
62,"When applying the pipeline to a given prompt, we can specify several arguments such as the maximum length of the generated texts, or the number of sentences we want to return, since there is some randomness in the generation.",pipelineကို ပေးထားသော စာသားတစ်ခုပေါ်တွင် အသုံးချသည့်အခါ ထုတ်လုပ်မည့် စာသားများ၏ အများဆုံးအရှည် သို့မဟုတ် ပြန်လိုချင်သော စာကြောင်းအရေအတွက် စသည့် ကန့်သတ်ချက်များစွာကို သတ်မှတ်နိုင်သည်။ အဘယ်ကြောင့်ဆိုသော် ထုတ်လုပ်မှုတွင် ကျပန်းဖြစ်မှုအချို့ ပါဝင်သောကြောင့် ဖြစ်သည်။,"在将管道应用于给定时间时,我们可以具体说明若干论点,例如所生成文本的最长长度,或我们希望返回的句子数目,因为一代人有一些随机性。"
63,Generating texts by guessing the next word in a sentence was the pretraining objective of GPT-2.,ဝါကျတစ်ကြောင်းရှိ နောက်လာမည့် စကားလုံးကို ခန့်မှန်းခြင်းဖြင့် စာသားများ ထုတ်လုပ်ခြင်းသည် GPT-2 ၏ ကြိုတင်လေ့ကျင့်မှု ရည်မှန်းချက်ဖြစ်သည်။,通过猜测一句中的下一个词来生成文本是GPT-2的训练前目标。
64,"The fill mask pipeline is the pretraining objective of BERT, which is to guess the value of masked word.",fill mask pipeline သည် ဖုံးကွယ်ထားသော စကားလုံး၏ တန်ဖိုးကို ခန့်မှန်းရန်ဖြစ်သည့် BERT ၏ ကြိုတင်လေ့ကျင့်မှု ရည်မှန်းချက်ဖြစ်သည်။,"填充面罩管道是BERT的训练前目标,即猜测蒙面字的价值。"
65,"In this case, we ask the two most likely values for the missing words, according to the model, and get mathematical or computational as possible answers.",ဤကိစ္စတွင်၊ ကျွန်ုပ်တို့သည် ပျောက်ဆုံးနေသော စကားလုံးများအတွက် မော်ဒယ်၏ အဆိုအရ ဖြစ်နိုင်ခြေအများဆုံး တန်ဖိုးနှစ်ခုကို တောင်းဆိုခဲ့ရာ အဖြေများအဖြစ် mathematical သို့မဟုတ် computational တို့ကို ရရှိခဲ့သည်။,"在此情况下,我们根据模型,对缺失的单词要求两个最可能的值,并获得数学或计算法的可能答案。"
66,Another task Transformers model can perform is to classify each word in the sentence instead of the sentence as a whole.,Transformer မော်ဒယ်များ လုပ်ဆောင်နိုင်သည့် အခြားလုပ်ငန်းတစ်ခုမှာ ဝါကျတစ်ခုလုံးအစား ဝါကျအတွင်းရှိ စကားလုံးတစ်လုံးချင်းစီကို ခွဲခြားသတ်မှတ်ခြင်း ဖြစ်သည်။,另一个变换器模式可以完成的工作是将句子中的每个字而不是整个句子分类。
67,"One example of this is Named Entity Recognition, which is the task of identifying entities, such as persons, organizations or locations in a sentence.",၎င်း၏ ဥပမာတစ်ခုမှာ Named Entity Recognition ဖြစ်ပြီး ဝါကျတစ်ခုအတွင်းရှိ လူပုဂ္ဂိုလ်များ၊ အဖွဲ့အစည်းများ သို့မဟုတ် တည်နေရာများကဲ့သို့သော အဖွဲ့အစည်းများကို ဖော်ထုတ်ခြင်းလုပ်ငန်း ဖြစ်သည်။,"这方面的一个例子是名称为实体的承认,这就是在句子中查明个人、组织或地点等实体的任务。"
68,"Here, the model correctly finds the person, Sylvain, the organization, Hugging Face, as well as the location, Brooklyn, inside the input text.",ဤတွင်၊ မော်ဒယ်သည် ထည့်သွင်းစာသားအတွင်းရှိ ပုဂ္ဂိုလ် Sylvain၊ အဖွဲ့အစည်း Hugging Face နှင့် တည်နေရာ Brooklyn တို့ကို မှန်ကန်စွာ ရှာဖွေတွေ့ရှိခဲ့သည်။,"在这里,模型正确地找到了 人,西尔万,组织, 抱抱脸, 以及位置,布鲁克林, 在输入文本中。"
69,"The grouped_entities=True argument used is to make the pipeline group together the different words linked to the same entity, such as Hugging and Face here.",အသုံးပြုထားသော grouped_entities=True argument သည် Hugging နှင့် Face ကဲ့သို့ တူညီသောအဖွဲ့အစည်းနှင့် ချိတ်ဆက်ထားသည့် စကားလုံးအမျိုးမျိုးကို pipelineတစ်ခုတည်းအဖြစ် စုစည်းပေးရန် ဖြစ်သည်။,"分组实体 = True 的参数是使管道组组合成为与同一实体相联系的不同词组,如 Hugging 和 Face 。"
70,Another task available with the pipeline API is extractive question answering.,pipeline API ဖြင့် ရရှိနိုင်သော အခြားလုပ်ငန်းတစ်ခုမှာ မေးခွန်းထုတ်ယူဖြေကြားခြင်း ဖြစ်သည်။,输油管API的另一项任务就是解答采掘问题。
71,"Providing a context and a question, the model will identify the span of text in the context containing the answer to the question.",အကြောင်းအရာနှင့် မေးခွန်းတစ်ခုကို ပေးပို့လိုက်ပါက မော်ဒယ်သည် မေးခွန်း၏ အဖြေပါရှိသော အကြောင်းအရာအတွင်းရှိ စာသားအပိုင်းအစကို ဖော်ထုတ်ပေးပါလိမ့်မည်။,"提供上下文和问题,该模型将在载有问题答案的上下文中确定案文的范围。"
72,"Getting short summaries of very long articles is also something the Transformers library can help with, with the summarization pipeline.",အလွန်ရှည်လျားသော ဆောင်းပါးများကို အတိုချုံးချုပ်ရိုးချုပ်ခြင်းသည်လည်း summarization pipeline ဖြင့် Transformers library က ကူညီပေးနိုင်သော လုပ်ငန်းတစ်ခုဖြစ်သည်။,"变换者图书馆也可以帮助收集长篇文章的简短摘要,"
73,"Finally, the last task supported by the pipeline API is translation.",နောက်ဆုံးအနေနဲ့ pipeline API က ပံ့ပိုးပေးတဲ့ နောက်ဆုံးလုပ်ငန်းကတော့ ဘာသာပြန်ခြင်း ဖြစ်သည်။,"最后,由输油管API支持的最后一项任务是翻译。"
74,Here we use a French/English model found on the model hub to get the English version of our input text.,ဤတွင် ကျွန်ုပ်တို့၏ ထည့်သွင်းစာသားကို အင်္ဂလိပ်ဘာသာသို့ ပြောင်းလဲရန်အတွက် model hub တွင် တွေ့ရှိရသော ပြင်သစ်/အင်္ဂလိပ် မော်ဒယ်ကို အသုံးပြုထားသည်။,"在此,我们使用在模型枢纽上找到的法文/英文模型,获取我们输入文本的英文版。"
75,Here is a brief summary of all the tasks we've looked into in this video.,ဤဗီဒီယိုတွင် ကျွန်ုပ်တို့ လေ့လာခဲ့သည့် လုပ်ငန်းများအားလုံးကို အကျဉ်းချုပ် ဖော်ပြထားသည်။,以下是我们在这段影片中研究的所有任务的摘要。
76,Try then out through the inference widgets in the model hub.,ထိုလုပ်ငန်းများကို model hub ရှိ inference widgets များမှတစ်ဆင့် စမ်းသပ်ကြည့်ပါ။,然后尝试通过模型枢纽的推论部件。
77,So let's talk about the carbon footprint of transformers.,Transformer များ၏ ကာဗွန်ခြေရာအကြောင်း ပြောကြည့်ရအောင်။,"因此,让我们来谈谈变压器的碳足迹。"
78,Maybe you've seen headlines such as this one that training a single AI model can emit as much carbon as five cars in their lifetimes.,AI မော်ဒယ်တစ်ခုတည်းကို လေ့ကျင့်ပေးခြင်းက ကားငါးစီး၏ သက်တမ်းတစ်လျှောက် ထုတ်လွှတ်သော ကာဗွန်ပမာဏနှင့် ညီမျှနိုင်သည်ဟူသော ခေါင်းစီးမျိုး သင်တွေ့ဖူးပေမည်။,"也许你看过头条新闻,比如这个 训练单一的人工智能模型 在他们一生中 排放的碳 和五辆汽车一样多。"
79,So when is this true and is it always true?,ဒါဆို ဒါက ဘယ်အချိန်မှာ မှန်သလဲ၊ အမြဲတမ်း မှန်သလား။,"那么,什么时候是真实的,什么时候总是真实的呢?"
80,"Well, it actually depends on several things.",တကယ်တော့ ဒါက အချက်များစွာပေါ် မူတည်သည်။,"事实上,这取决于一些事情。"
81,"Most importantly, it depends on the type of energy you're using.",အရေးအကြီးဆုံးကတော့ သင်အသုံးပြုနေသည့် စွမ်းအင်အမျိုးအစားပေါ် မူတည်သည်။,"最重要的是,这取决于你使用的能源类型。"
82,"If you're using renewable energy such as solar, wind, hydroelectricity, you're really not emitting any carbon at all, very, very little.",နေရောင်ခြည်၊ လေအား၊ ရေအားလျှပ်စစ် စသည့် ပြန်လည်ပြည့်ဖြိုးမြဲစွမ်းအင်ကို အသုံးပြုနေပါက ကာဗွန် လုံးဝနီးပါး သို့မဟုတ် အနည်းငယ်သာ ထုတ်လွှတ်သည်။,"如果你使用太阳能、风能、水电等可再生能源, 你真的没有排放任何碳,非常,非常少。"
83,If you're using non-renewable energy sources such as coal then their carbon footprint is a lot higher 'cuz essentially you are emitting a lot of greenhouse gases.,ကျောက်မီးသွေးကဲ့သို့ ပြန်လည်မပြည့်ဖြိုးနိုင်သော စွမ်းအင်အရင်းအမြစ်များကို အသုံးပြုပါက ဖန်လုံအိမ်ဓာတ်ငွေ့များစွာကို ထုတ်လွှတ်နေသောကြောင့် ၎င်းတို့၏ ကာဗွန်ခြေရာသည် များစွာ ပိုမြင့်သည်။,如果你使用煤等不可再生的能源 那么它们的碳足迹就更高了
84,Another aspect is training time.,နောက်တစ်ချက်ကတော့ လေ့ကျင့်ချိန် ဖြစ်သည်။,另一个方面是培训时间。
85,"So the longer you train, the more energy you use the more energy you use, the more carbon you emit, right?",ဒါကြောင့် သင်ကြာကြာ လေ့ကျင့်လေလေ၊ စွမ်းအင်ပိုသုံးလေလေ၊ ကာဗွန်ပိုထုတ်လွှတ်လေလေ ဖြစ်သည်။,"所以,你训练的时间越长,你用得越多, 能量就越多,你用得越多, 你排放的碳越多,对吗?"
86,So this really adds up especially if you're training large models for for hours and days and weeks.,ဒါကြောင့် ဒါတွေက အထူးသဖြင့် ကြီးမားတဲ့ မော်ဒယ်တွေကို နာရီများစွာ၊ ရက်ပေါင်းများစွာနဲ့ ရက်သတ္တပတ်တွေအထိ လေ့ကျင့်တဲ့အခါ တကယ်ကို စုပုံလာနိုင်သည်။,"所以,这真的加起来, 特别是当你训练大型模型 数小时、数天和数周。"
87,"The hardware you use also matters because some GPUs, for example, are more efficient than others and utilizing efficiency use properly.",သင်အသုံးပြုသည့် ဟာ့ဒ်ဝဲလည်း အရေးကြီးသည်၊ အဘယ်ကြောင့်ဆိုသော် ဥပမာအားဖြင့် GPU အချို့ဟာ တခြား GPU တွေထက် ပိုမိုစွမ်းဆောင်ရည်မြင့်မားပြီး စွမ်းဆောင်ရည်ကို ကောင်းစွာအသုံးချနိုင်သောကြောင့် ဖြစ်သည်။,"您使用的硬件也很重要,因为例如,有些GPU比其他GPU效率更高,并且适当利用效率。"
88,So using them a hundred percent all the time can really reduce the energy consumption that you have.,ဒါကြောင့် ၎င်းတို့ကို အချိန်ပြည့် ၁၀၀ ရာခိုင်နှုန်း အသုံးပြုခြင်းက သင့်ရဲ့ စွမ်းအင်သုံးစွဲမှုကို တကယ်ပဲ လျှော့ချနိုင်သည်။,"因此,百分之百地使用它们 能够真正减少你的能源消耗。"
89,"And then once again, reduce your carbon footprint.",အဲဒီအခါမှာ သင့်ရဲ့ ကာဗွန်ခြေရာကို ထပ်မံလျှော့ချနိုင်မှာ ဖြစ်သည်။,然后再次 减少碳足迹
90,"There's also other aspects such as IO such as data, et cetera, et cetera.",IO နှင့် ဒေတာ စသည့် အခြားကဏ္ဍများလည်း ရှိပါသေးသည်။,"还有其他方面,如IO,例如数据,等等等等。"
91,But these are the main three that you should focus on.,သို့သော် ဤသုံးချက်ကတော့ သင်အဓိက အာရုံစိုက်သင့်သည့် အချက်များ ဖြစ်သည်။,但这些是你们应该关注的主要三点。
92,So when I talk about energy sources and carbon intensity what does that really mean?,ဒါဆို ကျွန်တော် စွမ်းအင်အရင်းအမြစ်တွေနဲ့ ကာဗွန်ပြင်းအားအကြောင်း ပြောတဲ့အခါ အဲဒါက တကယ်တော့ ဘာကိုဆိုလိုသလဲ။,"所以当我谈论能源与碳密度时, 这到底意味着什么?"
93,"So if you look at the top of the screen you have a carbon footprint of a cloud computing instance in Mumbai, India which emits 920 grams of CO2 per kilowatt hour.",မျက်နှာပြင်ရဲ့ ထိပ်မှာ ကြည့်မယ်ဆိုရင် အိန္ဒိယနိုင်ငံ မွန်ဘိုင်းရှိ cloud computing instance တစ်ခုရဲ့ ကာဗွန်ခြေရာကို တွေ့ရမှာပါ၊ ၎င်းသည် တစ်နာရီ ကီလိုဝပ်လျှင် CO2 ၉၂၀ ဂရမ် ထုတ်လွှတ်သည်။,"所以如果你看看屏幕的顶部, 你有一个云计算实例的碳足迹, 在印度孟买,每千瓦时排放920克二氧化碳。"
94,This is almost one kilogram of CO2 per kilowatt hour of electricity used.,ဒါက အသုံးပြုတဲ့ လျှပ်စစ်ဓာတ်အား တစ်နာရီ ကီလိုဝပ်လျှင် CO2 တစ်ကီလိုဂရမ် နီးပါးရှိသည်။,这几乎是每千瓦小时用电1千克二氧化碳。
95,"If you compare that with Canada, Montreal where I am right now, 20 grams of CO2 per kilo hour.",ဒါကို ကျွန်တော် ခုရောက်နေတဲ့ ကနေဒါနိုင်ငံ၊ Montreal နဲ့ နှိုင်းယှဉ်ကြည့်ရင် တစ်နာရီ ကီလိုဝပ်လျှင် CO2 ၂၀ ဂရမ်ပဲ ရှိသည်။,"如果你把它和加拿大蒙特利尔比较一下, 我现在在蒙特利尔, 每千小时20克二氧化碳。"
96,"So that's a really, really big difference.",ဒါဟာ တကယ်ကို ကြီးမားတဲ့ ကွာခြားချက်တစ်ခု ဖြစ်သည်။,"所以,这是一个非常, 非常大的区别。"
97,Almost more than 40 times more carbon emitted in Mumbai versus Montreal.,Montreal နဲ့ယှဉ်ရင် မွန်ဘိုင်းမှာ ကာဗွန်ထုတ်လွှတ်မှုက အဆ ၄၀ ကျော် ပိုများသည်။,孟买和蒙特利尔的碳排放量 几乎是孟买和蒙特利尔的40倍以上
98,"And so this can really, really add up.",ဒါကြောင့် ဒါတွေက တကယ်ပဲ စုပုံလာနိုင်သည်။,"所以,这可以真的,真的加起来。"
99,"If you're training a model for weeks, for example you're multiplying times 40 the carbon that you're emitting.",ဥပမာအားဖြင့် သင်က မော်ဒယ်တစ်ခုကို ရက်သတ္တပတ်တွေအထိ လေ့ကျင့်နေမယ်ဆိုရင် သင်ထုတ်လွှတ်တဲ့ ကာဗွန်ကို အဆ ၄၀ နဲ့ မြှောက်နေတာနှင့် တူသည်။,"如果你训练模型数周, 比如说,你乘以你排放的碳的40倍。"
100,So choosing the right instance choosing a low carbon compute instance is really the most impactful thing that you can do.,ဒါကြောင့် သင့်တော်တဲ့ instance ကို ရွေးချယ်တာ၊ ကာဗွန်နည်းတဲ့ compute instance ကို ရွေးချယ်တာဟာ သင်လုပ်ဆောင်နိုင်တဲ့ အကျိုးသက်ရောက်မှု အရှိဆုံးအရာ ဖြစ်သည်။,"所以选择一个选择低碳计算实例的正确实例, 确实是你能做的最具影响力的事情。"
101,And this is where it can really add up if you're training in a very intensive in a very carbon intensive region.,ကာဗွန်ပြင်းအားမြင့်မားတဲ့ ဒေသတစ်ခုမှာ သင်လေ့ကျင့်နေမယ်ဆိုရင် ဒီနေရာမှာ ပမာဏတွေ များလာနိုင်သည်။,"如果你在一个非常密集的碳密集地区 进行非常密集的训练的话,这就是它能够真正相加的地方。"
102,"Other elements to consider, for example using pre-trained models that's the machine learning equivalent of recycling.",ထည့်သွင်းစဉ်းစားရမည့် အခြားအချက်များ ဥပမာအားဖြင့်၊ ကြိုတင်လေ့ကျင့်ထားသော မော်ဒယ်များကို အသုံးပြုခြင်းသည် စက်သင်ယူမှုတွင် ပြန်လည်အသုံးပြုခြင်းနှင့် ညီမျှသည်။,"需要考虑的其他要素,例如,使用预先培训的模型,这些模型相当于回收的机器学习。"
103,"When you have pre-trained models available using them you're not emitting any carbon at all, right?",သင့်မှာ ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်တွေ ရှိနေတဲ့အခါ ၎င်းတို့ကို အသုံးပြုခြင်းက ကာဗွန်ကို လုံးဝ ထုတ်လွှတ်ခြင်း မရှိဘူး မဟုတ်လား။,"当你有训练前模型使用时 你根本没有排放任何碳,对吧?"
104,You're not retraining anything.,သင်ဘာမှ ပြန်လည်လေ့ကျင့်စရာ မလိုဘူး။,你什么都不是再训练
105,So that's also doing your homework and kind of looking around what already exists.,ဒါဟာ သင်ရဲ့ အိမ်စာလုပ်ခြင်းနှင့် ရှိပြီးသားအရာတွေကို လေ့လာကြည့်ခြင်း ဖြစ်သည်။,所以这也是在做你的功课 研究已经存在的东西。
106,Fine tuning instead of training from scratch.,အစကနေ လေ့ကျင့်တာထက် fine tuning လုပ်ပါ။,做微调 而不是从头开始训练
107,"So once again, if you find a model that is almost what you need but not quite fine tuning the last couple of layers making it really fit your purpose instead of training a large transformer from scratch can really help.",ဒါကြောင့် သင်လိုအပ်တဲ့ မော်ဒယ်ကို ရှာတွေ့ပေမယ့် အတိအကျ မဟုတ်ဘူးဆိုရင်၊ အစကနေ ကြီးမားတဲ့ transformer တစ်ခုကို လေ့ကျင့်မယ့်အစား နောက်ဆုံး အလွှာအချို့ကို fine tuning လုပ်ပြီး သင့်ရည်ရွယ်ချက်နဲ့ ကိုက်ညီအောင် ပြုလုပ်ခြင်းက တကယ်ကို အထောက်အကူ ဖြစ်စေသည်။,"再一次,如果你找到一个模型, 它几乎就是你需要的, 但不完全精细地调整最后几层, 让它真正适合你的目的, 而不是从零开始训练一个大的变压器, 这真的可以帮助你。"
108,Starting with smaller experiments and debugging as you go.,စမ်းသပ်မှု သေးသေးလေးတွေနဲ့ စတင်ပြီး လုပ်ဆောင်ရင်းနဲ့ အမှားရှာပြင်သွားပါ။,从较小的实验和调试开始
109,"So that means, for example, training figuring out data encoding, figuring out, you know making sure that there's no small bugs, that you'll you'll realize, you know, 16 hours into training starting small and really making sure that what you're doing, what your code is, is stable.",ဆိုလိုသည်မှာ ဥပမာအားဖြင့်၊ ဒေတာ ကုဒ်သွင်းခြင်း၊ သေးငယ်သော bug များမရှိစေရန် သေချာစေခြင်း စသည်တို့ကို လေ့ကျင့်ခြင်းဟု ဆိုလိုသည်၊ ထို့ကြောင့် လေ့ကျင့်မှု ၁၆ နာရီအကြာမှာမှ သင်သိလိုက်ရမည့် bug မျိုး မဖြစ်အောင် သေးငယ်စွာ စတင်ပြီး သင်၏ code တည်ငြိမ်ကြောင်း သေချာအောင် လုပ်ပါ။,"这意味着,比如说, 训练找出数据编码, 弄清楚,你知道 确保没有小虫子, 你会意识到,你知道, 16个小时的训练开始的小, 真正确保你正在做的, 你的代码是稳定的。"
110,And then finally doing a literature review to choose hyper parameter ranges and then following up with a random search instead of a grid search.,နောက်ဆုံးအနေနဲ့ hyper parameter အပိုင်းအခြားတွေကို ရွေးချယ်ဖို့ စာပေသုံးသပ်ချက် ပြုလုပ်ပြီး grid search အစား random search ကို အသုံးပြုပါ။,最终进行文献审查 选择超强参数范围 然后继续随机搜索 而不是网格搜索
111,So random searches for hyper parameters combinations have actually shown to be as efficient in finding the optimal configuration as grid search.,hyper parameter ပေါင်းစပ်မှုများအတွက် random search များသည် grid search ကဲ့သို့ အကောင်းဆုံး configuration ကို ရှာဖွေရာတွင် စွမ်းဆောင်ရည် ရှိကြောင်း ပြသခဲ့သည်။,因此随机搜索超强参数组合实际上显示在找到与网格搜索一样最佳配置方面的效率。
112,But obviously you're not trying all possible combinations you're only trying a subset of them.,ဒါပေမယ့် ရှင်းနေတာကတော့ သင်က ဖြစ်နိုင်တဲ့ ပေါင်းစပ်မှုအားလုံးကို စမ်းစရာမလိုဘဲ ၎င်းတို့ထဲက အစုငယ်လေးတစ်ခုကိုသာ စမ်းသပ်နေခြင်း ဖြစ်သည်။,但显然你不是在尝试所有可能的组合 你只是在尝试其中的一个子集
113,So this can really help as well.,ဒါကလည်း တကယ်ကို အထောက်အကူ ဖြစ်စေသည်။,"因此,这也确实可以起到帮助作用。"
114,So now if we go back to the original paper by Strubell et all in 2019 the infamous five cars in their lifetimes paper.,"ကဲ အခု Strubell နှင့် အဖွဲ့၏ ၂၀၁၉ ခုနှစ်က ထုတ်ဝေခဲ့သည့် နာမည်ကြီး ""ကားငါးစီး၏ သက်တမ်းတစ်လျှောက်"" စာတမ်းကို ပြန်ကြည့်ရအောင်။",如果我们回到2019年 Strubell 和所有 2019年的原始报纸上... ...他们毕生的报纸上 有五辆臭名昭著的汽车
115,"If you just look at a transformer of 200 million perimeter transformer it is carbon footprint is around 200 pounds of CO2 which is significant but it's nowhere near five cars, right?",သန်း ၂၀၀ အကွာအဝေးရှိ transformer တစ်ခုကိုသာ ကြည့်မယ်ဆိုရင် ၎င်းရဲ့ ကာဗွန်ခြေရာက CO2 ပေါင် ၂၀၀ လောက်ပဲ ရှိပါတယ်၊ ဒါက အရေးပါပေမယ့် ကားငါးစီးနဲ့တော့ လုံးဝမနီးစပ်ပါဘူး၊ ဟုတ်တယ်မလား။,如果你看看有2亿个周边变压器的变压器 碳足迹大约是200磅二氧化碳 很重要 但离5辆车还差不到5辆车 对吧?
116,It's not even a transatlantic flight.,transatlantic လေယာဉ်ခရီးစဉ်လောက်တောင် မရှိပါဘူး။,它甚至不是 跨大西洋飞行。
117,"How it really adds up is when you're doing neural architecture search when you're doing hyper parameter tuning, and this is trying all possible combinations et cetera, et cetera.",ဒါက ဘယ်လိုတကယ် စုပုံလာတာလဲဆိုတော့ သင် neural architecture search လုပ်တဲ့အခါ၊ hyper parameter tuning လုပ်တဲ့အခါ၊ ဒါက ဖြစ်နိုင်တဲ့ ပေါင်းစပ်မှုအားလုံးကို စမ်းသပ်တဲ့အခါ စသည်ဖြင့် ဖြစ်သည်။,"当你在做超强参数调试时 正在做神经结构搜索, 这实际上是如何加起来的, 当你在做超强参数调试的时候, 这正在尝试所有可能的组合等等,等等。"
118,"And this is where like the 600,000 pounds of CO2 came from.",ဒီကနေ CO2 ပေါင် ၆၀၀၀၀၀ လောက် ထွက်လာတာ ဖြစ်သည်။,"这就是600,000磅二氧化碳的来源。"
119,So this is really where things add up.,ဒီနေရာမှာ တကယ်ကို ပမာဏတွေ များလာခြင်း ဖြစ်သည်။,所以这就是事情的交汇点。
120,"So, but if you're doing things mindfully and conscientiously then your carbon footprint wont be as big as, as the paper implied.",ဒါကြောင့် သင်က သတိရှိရှိနဲ့ တာဝန်သိစွာ လုပ်ဆောင်မယ်ဆိုရင် သင့်ရဲ့ ကာဗွန်ခြေရာက စာတမ်းမှာ ဖော်ပြထားသလို ကြီးမားမှာ မဟုတ်ပါ။,"所以,如果你在认真谨慎地做一些事情 那么你的碳足迹就不会像报纸所暗示的那么大"
121,Some tools to figure out how much CO2 exactly you're emitting.,CO2 ကို ဘယ်လောက်အတိအကျ ထုတ်လွှတ်နေလဲဆိုတာ သိဖို့ ကိရိယာအချို့ ရှိသည်။,有些工具可以弄清楚 你到底排放了多少二氧化碳
122,"There's a web-based tool called machine learning submissions calculator, which allows you to manually input, for example, which hardware you used how many hours you used it for where it was located locally or in the cloud.",machine learning submissions calculator လို့ခေါ်တဲ့ ဝဘ်အခြေပြု ကိရိယာတစ်ခုရှိပါတယ်၊ ဥပမာအားဖြင့် သင်အသုံးပြုခဲ့တဲ့ ဟာ့ဒ်ဝဲ၊ ဘယ်နှစ်နာရီ အသုံးပြုခဲ့လဲ၊ ပြည်တွင်းမှာလား ဒါမှမဟုတ် ကလောက်တွင်လား စတဲ့ အချက်အလက်တွေကို ကိုယ်တိုင် ထည့်သွင်းနိုင်ပါတယ်။,"有一个网络工具叫做机器学习提交文件计算器, 它能让您手动输入, 比如,您使用哪种硬件 来使用它, 有多少小时, 它位于本地或云中。"
123,And then it's gonna give you an estimate of how much CO2 you emitted.,အဲဒီနောက် သင်ထုတ်လွှတ်တဲ့ CO2 ပမာဏကို ခန့်မှန်းပေးပါလိမ့်မည်။,然后它会给你一个估计 你排放了多少二氧化碳。
124,"Another tool that does this programmatically, is called code carbon.",ဒီလိုလုပ်ဆောင်ချက်ကို ပရိုဂရမ်နဲ့ လုပ်ဆောင်ပေးတဲ့ နောက်ထပ်ကိရိယာတစ်ခုကတော့ code carbon ဖြစ်သည်။,另一个在方案上这样做的工具叫做碳代码。
125,"So you can PIP install it, you can, you can go to the GitHub and essentially it runs in parallel to your code.",ဒါကို PIP install လုပ်နိုင်ပါတယ်၊ GitHub ကို သွားနိုင်ပါတယ်၊ ၎င်းက သင့် code နှင့် တစ်ပြိုင်နက်တည်း အလုပ်လုပ်သည်။,"所以您可以安装 PIP, 您可以, 您可以, 您可以去 GitHub , 基本上它与您的代码平行运行 。"
126,So essentially you call it and then you do all your training.,ဆိုလိုတာက သင်ခေါ်လိုက်ပြီး သင့်ရဲ့ လေ့ကျင့်မှုအားလုံးကို လုပ်ဆောင်နိုင်ပါသည်။,"所以基本上你叫它,然后你做你所有的训练。"
127,And then at the end it's gonna give you an estimate a CSV file with an estimate of your emissions.,ပြီးရင် နောက်ဆုံးမှာတော့ သင်ထုတ်လွှတ်မှုရဲ့ ခန့်မှန်းခြေပါတဲ့ CSV ဖိုင်ကို ပေးပါလိမ့်မည်။,最后它会给你一份CSV文件的估算 并附有一份排放估算
128,And it's gonna give you some comparisons.,၎င်းသည် နှိုင်းယှဉ်ချက်အချို့ကိုလည်း ပေးပါလိမ့်မည်။,它会给你一些比较。
129,It's got a visual UI where you can really look at how this compares to driving a car or watching TV.,၎င်းတွင် ကားမောင်းခြင်း သို့မဟုတ် တီဗီကြည့်ခြင်းတို့နှင့် နှိုင်းယှဉ်ကြည့်နိုင်သော မြင်ကွင်းအသုံးပြုသူမျက်နှာပြင် ပါရှိသည်။,它有一个视觉UI 在那里你可以真正地看 这如何比得上开车或看电视。
130,So it can give you an idea of the scope of your emissions as well.,ဒါကြောင့် သင့်ရဲ့ ထုတ်လွှတ်မှုအတိုင်းအတာကိုလည်း စိတ်ကူးရစေနိုင်ပါသည်။,这样它也能让你了解 你的排放范围。
131,"And actually, code carbon is already integrated into auto and LP and hopefully people will be using it out of the box and easily tracking their emissions all through training and deploying transformers.",တကယ်တော့ code carbon ကို auto နှင့် LP ထဲမှာ ပေါင်းစပ်ပြီးသားဖြစ်ပြီး လူတွေဟာ ၎င်းကို အလွယ်တကူ အသုံးပြုနိုင်ကာ transformer တွေ လေ့ကျင့်ချိန်နဲ့ ဖြန့်ကျက်ချိန်တစ်လျှောက်လုံး သူတို့ရဲ့ ထုတ်လွှတ်မှုတွေကို အလွယ်တကူ ခြေရာခံနိုင်မယ်လို့ မျှော်လင့်ပါသည်။,"实际上,碳代码已经融入了汽车和液化电路, 希望人们会从盒子里用它, 并且通过培训和部署变压器, 方便地追踪他们的排放量。"
132,What is transfer learning?,Transfer Learning ဆိုတာ ဘာလဲ။,什么是转移学习?
133,The idea of transfer learning is to leverage the knowledge acquired by a model trained with lots of data on another task.,Transfer Learning ရဲ့ အဓိက အယူအဆကတော့ ဒေတာအများကြီးနဲ့ လေ့ကျင့်ထားတဲ့ မော်ဒယ်တစ်ခုက ရရှိထားတဲ့ အသိပညာတွေကို တခြားလုပ်ငန်းတစ်ခုအတွက် အသုံးချဖို့ ဖြစ်ပါတယ်။,"转让学习的理念是利用经过培训的模型获得的知识,该模型拥有关于另一项任务的大量数据。"
134,The model A will be trained specifically for task A.,Model A ကို လုပ်ငန်း A အတွက် အထူးလေ့ကျင့်ထားမှာ ဖြစ်တယ်။,将专门为任务A对模式A进行培训。
135,Now let's say you want to train a model B for a different task.,အခု လုပ်ငန်းတစ်ခုအတွက် Model B ကို လေ့ကျင့်ချင်တယ်လို့ စဉ်းစားကြည့်ရအောင်။,假设你想训练一个B型模型 来完成不同的任务
136,One option would be to train the model from scratch.,နည်းလမ်းတစ်ခုကတော့ အစကနေ မော်ဒယ်ကို လုံးဝ လေ့ကျင့်ယူဖို့ ဖြစ်နိုင်တယ်။,一种选择是从零开始对模型进行培训。
137,"This could take lots of computation, time and data.",ဒါက တွက်ချက်မှု၊ အချိန်နဲ့ ဒေတာ အများကြီး ယူနိုင်တယ်။,这可能需要大量计算、时间和数据。
138,"Instead, we could initialize model B with the same weights as model A, transferring the knowledge of model A on task B.",ဒီလိုလုပ်မယ့်အစား Model B ကို Model A ရဲ့ အလေးချိန်တွေအတိုင်း အစပြုနိုင်ပြီး Model A ရဲ့ အသိပညာကို လုပ်ငန်း B ဆီ လွှဲပြောင်းပေးလိုက်တာမျိုး လုပ်နိုင်တယ်။,"相反,我们可以以与模式A相同的权重开始模式B,转让任务B对模式A的了解。"
139,"When training from scratch, all the model's weight are initialized randomly.",အစကနေ လေ့ကျင့်တဲ့အခါ မော်ဒယ်ရဲ့ အလေးချိန်အားလုံးကို ကျပန်း သတ်မှတ်ထားတာ ဖြစ်တယ်။,"当从零开始训练时,模型的所有重量都是随机初始化的。"
140,"In this example, we are training a BERT model on the task of recognizing if two sentences are similar or not.",ဒီဥပမာမှာ စာကြောင်းနှစ်ကြောင်း တူညီခြင်း ရှိမရှိ ခွဲခြားသိမြင်ဖို့အတွက် BERT မော်ဒယ်ကို လေ့ကျင့်နေတာ ဖြစ်တယ်။,"在这个例子中,我们正在培训一个BERT模式,以确认两句话是否相似。"
141,"On the left, it's trained from scratch, and on the right it's fine-tuning a pretrained model.",ဘယ်ဘက်မှာ အစကနေ လေ့ကျင့်တာဖြစ်ပြီး ညာဘက်မှာတော့ ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်ကို fine-tuning လုပ်တာ ဖြစ်တယ်။,"在左侧,它从零开始训练, 在右侧,它正在微调一个预训练模型。"
142,"As we can see, using transfer learning and the pretrained model yields better results.",သင်တွေ့နိုင်တဲ့အတိုင်း Transfer Learning နဲ့ ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်ကို အသုံးပြုခြင်းက ပိုကောင်းတဲ့ ရလဒ်တွေ ပေးပါတယ်။,"正如我们可以看到的那样,利用转让学习和预先培训的模式产生更好的结果。"
143,And it doesn't matter if we train longer.,ကြာကြာလေ့ကျင့်ရင်လည်း အရေးမကြီးပါဘူး။,我们是否训练得更久并不重要
144,The training from scratch is capped around 70% accuracy while the pretrained model beats the 86% easily.,အစကနေ လေ့ကျင့်တာက ၇၀% တိကျမှုလောက်မှာပဲ ရပ်နေပေမယ့် ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်က ၈၆% ကို အလွယ်တကူ ကျော်လွန်သွားတယ်။,"训练从零开始,精确度限制在70%左右,而训练前模式则容易胜过86%。"
145,This is because pretrained models are usually trained on large amounts of data that provide the model with a statistical understanding of the language used during pretraining.,ဘာကြောင့်လဲဆိုတော့ ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်တွေကို ပမာဏများပြားလှတဲ့ ဒေတာတွေနဲ့ လေ့ကျင့်ထားတာကြောင့် လေ့ကျင့်နေစဉ်အတွင်း အသုံးပြုတဲ့ ဘာသာစကားကို စာရင်းအင်းအရ နားလည်မှု ပေးနိုင်လို့ ဖြစ်တယ်။,"这是因为培训前模式通常接受大量数据的培训,这些数据为模式提供了对培训前所用语言的统计理解。"
146,"In computer vision, transfer learning has been applied successfully for almost ten years.",ကွန်ပျူတာ အမြင်ပိုင်းမှာဆိုရင် Transfer Learning ကို ဆယ်နှစ်နီးပါး အောင်မြင်စွာ အသုံးပြုခဲ့ပြီး ဖြစ်တယ်။,"在计算机愿景方面,转移学习已经成功应用了近十年。"
147,"Models are frequently pretrained on ImageNet, a dataset containing 1.2 millions of photo images.",မော်ဒယ်များကို ဓာတ်ပုံ ၁.၂ သန်းပါဝင်သည့် ImageNet ဒေတာအတွဲပေါ်တွင် မကြာခဏ ကြိုတင်လေ့ကျင့်လေ့ ရှိသည်။,"模型经常在图像网络上接受预先培训,该数据集包含120万张照片图像。"
148,Each image is classified by one of 1000 labels.,ပုံတစ်ပုံစီကို label ၁၀၀၀ ထဲက တစ်ခုခုနဲ့ ခွဲခြားထားတယ်။,每张图像都被1000个标签中的一个分类。
149,"Training like this, on labeled data is called supervised learning.",ဒီလိုမျိုး label တပ်ထားတဲ့ ဒေတာတွေပေါ်မှာ လေ့ကျင့်တာကို ကြီးကြပ်သင်ယူမှု လို့ခေါ်တယ်။,"这样的训练,关于标签数据的培训 被称为""有监督的学习"""
150,"In Natural Language Processing, transfer learning is a bit more recent.",သဘာဝဘာသာစကား စီမံဆောင်ရွက်ခြင်းမှာတော့ Transfer Learning က နည်းနည်း ပိုပြီး မကြာသေးခင်ကမှ ခေတ်စားလာတာ ဖြစ်တယ်။,"在《自然语言处理》中,转移学习是最近才开始的。"
151,"A key difference with ImageNet is that the pretraining is usually self-supervised, which means it doesn't require humans annotations for the labels.",ImageNet နဲ့ အဓိက ကွာခြားချက်တစ်ခုကတော့ ကြိုတင်လေ့ကျင့်မှုက များသောအားဖြင့် ကိုယ်တိုင်ကြီးကြပ်သော သင်ယူမှုဖြစ်ပြီး၊ ဆိုလိုတာက label တွေအတွက် လူသားတွေရဲ့ မှတ်သားပေးမှု မလိုအပ်ဘူး။,"与图像网络的关键区别在于 训练前通常由自我监督, 这意味着它不需要 人类对标签的说明。"
152,A very common pretraining objective is to guess the next word in a sentence.,အလွန်အဖြစ်များတဲ့ ကြိုတင်လေ့ကျင့်မှု ရည်ရွယ်ချက်တစ်ခုကတော့ ဝါကျတစ်ကြောင်းရဲ့ နောက်စကားလုံးကို ခန့်မှန်းဖို့ ဖြစ်တယ်။,一个非常常见的训练前目标是猜测一句中的下一个词。
153,Which only requires lots and lots of text.,ဒါက စာသား အများကြီး၊ အများကြီးသာ လိုအပ်တယ်။,这只需要很多很多的文字。
154,"GPT-2 for instance, was pretrained this way using the content of 45 millions links posted by users on Reddit.",ဥပမာအားဖြင့် GPT-2 ကို Reddit အသုံးပြုသူများ တင်ခဲ့သော လင့်ခ်ပေါင်း ၄၅ သန်းမှ အကြောင်းအရာများကို အသုံးပြုပြီး ဒီနည်းအတိုင်း ကြိုတင်လေ့ကျင့်ခဲ့သည်။,"例如GPT-2, 使用Reddit上用户张贴的4 500万个链接的内容,"
155,Another example of self-supervised pretraining objective is to predict the value of randomly masked words.,ကိုယ်တိုင်ကြီးကြပ်သော ကြိုတင်လေ့ကျင့်မှု ရည်ရွယ်ချက် နောက်တစ်ခုကတော့ ကျပန်း ဖုံးကွယ်ထားသော စကားလုံးများရဲ့ တန်ဖိုးကို ခန့်မှန်းဖို့ ဖြစ်တယ်။,自我监督培训前目标的另一个例子是预测随机蒙面词的价值。
156,Which is similar to fill-in-the-blank tests you may have done in school.,ဒါက သင်တို့ကျောင်းမှာ လုပ်ဖူးတဲ့ အကွက်ဖြည့် စာမေးပွဲတွေနဲ့ ဆင်တူတယ်။,类似于你在学校里 可能做过的 填空测试
157,"BERT was pretrained this way using the English Wikipedia and 11,000 unpublished books.",BERT ကို အင်္ဂလိပ် Wikipedia နဲ့ မထုတ်ဝေရသေးတဲ့ စာအုပ်ပေါင်း ၁၁၀၀၀ ကို အသုံးပြုပြီး ဒီနည်းအတိုင်း ကြိုတင်လေ့ကျင့်ခဲ့တာပါ။,"使用英文维基百科及11 000本未出版书籍,"
158,"In practice, transfer learning is applied on a given model by throwing away its head, that is, its last layers focused on the pretraining objective, and replacing it with a new, randomly initialized head suitable for the task at hand.",လက်တွေ့မှာတော့ Transfer Learning ကို မော်ဒယ်တစ်ခုပေါ်မှာ အသုံးချဖို့အတွက် ၎င်းရဲ့ head ကို ဖယ်ရှားလိုက်တယ်၊ ဆိုလိုတာက ကြိုတင်လေ့ကျင့်မှု ရည်ရွယ်ချက်ပေါ် အာရုံစိုက်ထားတဲ့ နောက်ဆုံး အလွှာတွေကို ဖယ်ရှားပြီး လုပ်ငန်းအတွက် သင့်တော်တဲ့ ကျပန်း အစပြုထားတဲ့ head အသစ်နဲ့ အစားထိုးလိုက်တာ ဖြစ်တယ်။,"在实践中,将转让学习应用到特定模式上,将转让学习扔掉头部,即以培训前目标为重点的最后一层,代之以适合手头任务的新、随机初始化的头部。"
159,"For instance, when we fine-tuned a BERT model earlier, we removed the head that classified mask words and replaced it with a classifier with 2 outputs.",ဥပမာအားဖြင့်၊ ကျွန်ုပ်တို့ BERT မော်ဒယ်ကို fine-tune လုပ်တုန်းက ဖုံးကွယ်ထားတဲ့ စကားလုံးတွေကို ခွဲခြားပေးတဲ့ head ကို ဖယ်ရှားပြီး အထွက် ၂ ခုပါတဲ့ classifier နဲ့ အစားထိုးခဲ့တယ်။,"例如,当我们早些时候微调BERT模型时,我们删除了被保密的蒙面字头,代之以2个输出的分类器。"
160,Since our task had two labels.,ဘာလို့လဲဆိုတော့ ကျွန်တော်တို့ရဲ့ လုပ်ငန်းမှာ label နှစ်ခု ပါဝင်လို့ ဖြစ်တယ်။,既然我们的任务有两个标签
161,"To be as efficient as possible, the pretrained model used should be as similar as possible to the task it's fine-tuned on.",အကောင်းဆုံး စွမ်းဆောင်ရည်ရဖို့အတွက် အသုံးပြုတဲ့ ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်ဟာ fine-tune လုပ်မယ့် လုပ်ငန်းနဲ့ တတ်နိုင်သမျှ ဆင်တူသင့်တယ်။,"为了尽可能高效,使用的预培训模式应该尽可能类似于它正在微调的任务。"
162,"For instance, if the problem is to classify German sentences, it's best to use a German pretrained model.",ဥပမာအားဖြင့် ပြဿနာက ဂျာမန်ဝါကျတွေကို ခွဲခြားဖို့ဆိုရင် ဂျာမန် ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်ကို အသုံးပြုတာ အကောင်းဆုံး ဖြစ်တယ်။,"例如,如果问题在于对德国的刑期进行分类, 最好使用德国的预训模式。"
163,But with the good comes the bad.,ဒါပေမယ့် ကောင်းတာရှိသလို ဆိုးတာလည်း ရှိတယ်။,但善有恶有恶
164,"The pretrained model does not only transfer its knowledge, but also any bias it may contain.",ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်က သူ့ရဲ့ အသိပညာကိုသာမကဘဲ ၎င်းမှာ ပါဝင်နိုင်တဲ့ ဘက်လိုက်မှုမှန်သမျှကိုပါ လွှဲပြောင်းပေးပါတယ်။,"预先培训模式不仅传授知识,而且传授其可能包含的任何偏见。"
165,ImageNet mostly contains images coming from the United States and Western Europe.,ImageNet မှာ အမေရိကန်ပြည်ထောင်စုနဲ့ အနောက်ဥရောပက ပုံတွေ အများဆုံး ပါဝင်တယ်။,多数图像网包含来自美国和西欧的图像。
166,So models fine-tuned with it usually will perform better on images from these countries.,ဒါကြောင့် ၎င်းနဲ့ fine-tune လုပ်ထားတဲ့ မော်ဒယ်တွေက ဒီနိုင်ငံတွေက ပုံတွေပေါ်မှာ ပိုကောင်းတဲ့ စွမ်းဆောင်ရည် ပြသလေ့ရှိတယ်။,"因此,经过精细调整的模型通常对这些国家的图像产生更好的效果。"
167,OpenAI also studied the bias in the predictions of its GPT-3 model which was pretrained using the guess the next word objective.,OpenAI ကလည်း နောက်လာမယ့် စကားလုံးကို ခန့်မှန်းခြင်း ရည်ရွယ်ချက်ဖြင့် ကြိုတင်လေ့ကျင့်ထားတဲ့ သူ့ရဲ့ GPT-3 မော်ဒယ်ရဲ့ ခန့်မှန်းချက်တွေမှာ ပါဝင်တဲ့ ဘက်လိုက်မှုကို လေ့လာခဲ့တယ်။,"OpenAI还研究了其GPT-3模型预测中的偏差,该模型使用下一个单词目标的猜测事先经过了培训。"
168,Changing the gender of the prompt from he was very to she was very changed the predictions from mostly neutral adjectives to almost only physical ones.,"စာသားကို ""သူသည် အလွန်"" ကနေ ""သူမသည် အလွန်"" လို့ ကျား/မ ပြောင်းလိုက်တဲ့အခါ ခန့်မှန်းချက်တွေဟာ ယေဘုယျ နာမဝိသေသနတွေကနေ ရုပ်ပိုင်းဆိုင်ရာ နာမဝိသေသနတွေဆီကို လုံးဝနီးပါး ပြောင်းသွားတာ တွေ့ရတယ်။","将他非常敏捷的性别改变为她,这非常改变了预测,从大多数中性的形容词变为几乎只是物理的形容词。"
169,"In their model card of the GPT-2 model, OpenAI also acknowledges its bias and discourages its use in systems that interact with humans.",GPT-2 မော်ဒယ်ရဲ့ model card မှာ OpenAI က ဘက်လိုက်မှုရှိကြောင်း ဝန်ခံထားပြီး လူသားတွေနဲ့ အပြန်အလှန်ဆက်ဆံတဲ့ စနစ်တွေမှာ အသုံးပြုခြင်းကို တားမြစ်ထားတယ်။,"OpenAI在其GPT-2模型的模型卡中也承认其偏见,不鼓励将其用于与人类互动的系统。"
170,Let's study the transformer architecture.,Transformer ဗိသုကာပုံစံကို လေ့လာကြည့်ရအောင်။,让我们研究一下变压器结构
171,"This video is the introductory video to the encoders, decoders, and encoder-decoder series of videos.",ဒီဗီဒီယိုက encoder၊ decoder နဲ့ encoder-decoder ဗီဒီယိုတွဲတွေရဲ့ နိဒါန်းဗီဒီယို ဖြစ်ပါတယ်။,这段影片是摄像师、解码员和编码员-解码员系列录像的介绍性录像。
172,"In this series, we'll try to understand what makes a transformer network, and we'll try to explain it in simple, high-level terms.",ဒီဗီဒီယိုတွဲမှာ Transformer ကွန်ရက်ကို ဘယ်လိုတည်ဆောက်ထားလဲဆိုတာ နားလည်အောင် ကြိုးစားပြီး၊ ရိုးရှင်းတဲ့ အဆင့်မြင့် စကားလုံးတွေနဲ့ ရှင်းပြပေးသွားမှာပါ။,"在这个系列中,我们将尝试理解 变压器网络的构成原理, 我们将尝试用简单、高层次的术语来解释。"
173,"No advanced understanding of neural networks is necessary, but an understanding of basic vectors and tensors may help.",အဆင့်မြင့် neural network ဗဟုသုတတွေ မလိုအပ်ပေမယ့် ရိုးရှင်းတဲ့ vector နဲ့ tensor တွေအကြောင်း နားလည်ထားရင်တော့ အထောက်အကူ ဖြစ်ပါလိမ့်မယ်။,"没有必要深入了解神经网络,但了解基本病媒和气载体可能有所帮助。"
174,"To get started, we'll take up this diagram from the original transformer paper, entitled ""Attention Is All You Need"", by Vaswani et al.","စတင်ဖို့အတွက် Vaswani နဲ့ အဖွဲ့က ရေးသားခဲ့တဲ့ ""Attention Is All You Need"" ဆိုတဲ့ မူရင်း Transformer စာတမ်းက ဒီပုံကို ယူသုံးသွားပါမယ်။","为了开始,我们将从Vaswani等人的原变压器纸上取下这个图, 题为“注意是所有你需要的”,"
175,"As we'll see here, we can leverage only some parts of it, according to what we're trying to do.",ဒီမှာ မြင်ရတဲ့အတိုင်း ကျွန်တော်တို့ လုပ်ချင်တဲ့အပေါ် မူတည်ပြီး ဒီပုံရဲ့ အစိတ်အပိုင်းအချို့ကိုပဲ အသုံးချလို့ ရပါတယ်။,"正如我们在这里看到的, 我们只能利用它的某些部分, 根据我们试图做的。"
176,"We want to dive into the specific layers, building up that architecture, but we'll try to understand the different ways this architecture can be used.",ဒီ ဗိသုကာပုံစံကို တည်ဆောက်ထားတဲ့ အလွှာတွေကို အသေးစိတ် လေ့လာချင်ပေမယ့် ဒီဗိသုကာပုံစံကို အသုံးပြုနိုင်တဲ့ နည်းလမ်းအမျိုးမျိုးကို နားလည်အောင် ကြိုးစားသွားမှာပါ။,"我们想潜入具体的层层, 建立这个结构, 但我们会试着理解这个结构 可以用的不同方法来使用。"
177,Let's first start by splitting that architecture into two parts.,ပထမဆုံး ဒီဗိသုကာပုံစံကို အပိုင်းနှစ်ပိုင်း ခွဲကြည့်ရအောင်။,让我们首先从把建筑分为两部分开始。
178,"On the left we have the encoder, and on the right, the decoder.",ဘယ်ဘက်မှာ encoder ရှိပြီး ညာဘက်မှာ decoder ရှိပါတယ်။,"左边是编码器,右边是编码器"
179,"These two can be used together, but they can also be used independently.",ဒီနှစ်ခုကို အတူတူ သုံးလို့ရသလို တစ်သီးပုဂ္ဂလလည်း သုံးလို့ ရပါတယ်။,"两者可以一起使用,但也可以单独使用。"
180,Let's understand how these work.,ဒါတွေ ဘယ်လိုအလုပ်လုပ်လဲ နားလည်အောင် လုပ်ကြည့်ရအောင်။,让我们来理解一下这些是如何运作的。
181,The encoder accepts inputs that represent text.,Encoder ဟာ စာသားကို ကိုယ်စားပြုတဲ့ ထည့်သွင်းချက်တွေကို လက်ခံတယ်။,编码器接受代表文本的输入 。
182,"It converts this text, these words, into numerical representations.",ဒီစာသား၊ ဒီစကားလုံးတွေကို ဂဏန်းအဖြစ် ကိုယ်စားပြုမှုတွေအဖြစ် ပြောင်းလဲပေးတယ်။,"它将这一文字,即这些文字,转换成数字表示法。"
183,"These numerical representations can also be called embeddings, or features.",ဒီဂဏန်းကိုယ်စားပြုမှုတွေကို embeddings သို့မဟုတ် features လို့လည်း ခေါ်နိုင်ပါတယ်။,这些数字表示也可以称为嵌入或特征。
184,We'll see that it uses the self-attention mechanism as its main component.,ဒီကိရိယာဟာ self-attention နည်းလမ်းကို အဓိက အစိတ်အပိုင်းအဖြစ် သုံးတယ်ဆိုတာကို တွေ့ရမှာပါ။,我们将会看到它使用自我注意机制作为其主要组成部分。
185,"We recommend you check out the video on encoders specifically to understand what is this numerical representation, as well as how it works.",ဒီဂဏန်းကိုယ်စားပြုမှုဆိုတာ ဘာလဲ၊ ဘယ်လိုအလုပ်လုပ်လဲဆိုတာ နားလည်ဖို့အတွက် encoder တွေအကြောင်း ဗီဒီယိုကို သီးသန့် ကြည့်ရှုဖို့ အကြံပြုချင်ပါတယ်။,"我们建议您查看关于编码器的视频, 具体了解这个数字代表法是什么, 以及它是如何运作的。"
186,"We'll study the self-attention mechanism in more detail, as well as its bi-directional properties.",self-attention နည်းလမ်းကို ပိုပြီး အသေးစိတ် လေ့လာသွားမှာဖြစ်ပြီး၊ ၎င်းရဲ့ ဘက်နှစ်ဖက်လုံးကို ဖြတ်နိုင်တဲ့ ဂုဏ်သတ္တိတွေကိုလည်း ကြည့်သွားပါမယ်။,我们将更详细地研究自我注意机制 以及它的双向特性
187,The decoder is similar to the encoder.,Decoder က encoder နဲ့ ဆင်တူပါတယ်။,解码器和编码器相似
188,It can also accept text inputs.,သူကလည်း စာသား ထည့်သွင်းမှုတွေကို လက်ခံနိုင်တယ်။,它还可以接受文本投入。
189,"It uses a similar mechanism as the encoder, which is the masked self-attention as well.",သူက encoder နဲ့ ဆင်တူတဲ့ masked self-attention ဆိုတဲ့ နည်းလမ်းကို သုံးပါတယ်။,"它使用与编码器类似的机制,编码器也是蒙面的自我注意。"
190,It differs from the encoder due to its uni-directional feature and is traditionally used in an auto-regressive manner.,ဒီကိရိယာဟာ သူ့ရဲ့ ဘက်တစ်ဖက်တည်း ဦးတည်တဲ့ အင်္ဂါရပ်ကြောင့် encoder နဲ့ ကွာခြားပြီး အစဉ်အလာအရ auto-regressive ပုံစံနဲ့ အသုံးပြုလေ့ရှိတယ်။,"由于其单向特征,它不同于编码器,传统上以自动递减的方式使用。"
191,"Here too, we recommend you check out the video on decoders especially to understand how all of this works.",ဒီနေရာမှာလည်း ဒီအရာတွေအားလုံး ဘယ်လိုအလုပ်လုပ်လဲ နားလည်ဖို့အတွက် decoder တွေအကြောင်း ဗီဒီယိုကို ကြည့်ဖို့ အထူးအကြံပြုပါတယ်။,"我们也建议各位查看解码器的视频, 特别是了解这些是如何运作的。"
192,"Combining the two parts results in what is known as an encoder-decoder, or a sequence-to-sequence transformer.",ဒီအစိတ်အပိုင်းနှစ်ခုကို ပေါင်းစပ်လိုက်ရင် encoder-decoder ဒါမှမဟုတ် sequence-to-sequence transformer လို့ သိကြတဲ့ပုံစံ ဖြစ်လာပါတယ်။,"将这两个部分合并后产生所谓的编码器-编码器,或序列到序列变压器。"
193,The encoder accepts inputs and computes a high-level representation of those inputs.,Encoder က ထည့်သွင်းချက်တွေကို လက်ခံပြီး အဲဒီ ထည့်သွင်းချက်တွေရဲ့ အဆင့်မြင့် ကိုယ်စားပြုမှုကို တွက်ချက်ပါတယ်။,"编码器接受投入,并计算出这些投入的高级别代表。"
194,These outputs are then passed to the decoder.,ဒီအထွက်တွေကို decoder ဆီကို ပေးပို့ပါတယ်။,这些产出随后传递给编码器。
195,"The decoder uses the encoder's output, alongside other inputs to generate a prediction.",Decoder က encoder ရဲ့ အထွက်ကို တခြား ထည့်သွင်းချက်တွေနဲ့အတူ အသုံးပြုပြီး ခန့်မှန်းချက်တစ်ခုကို ထုတ်လုပ်ပေးတယ်။,"解码器使用编码器的输出,并使用其他输入来作出预测。"
196,"It then predicts an output, which it will re-use in future iterations, hence the term, auto-regressive.",ပြီးရင် သူက အထွက်တစ်ခုကို ခန့်မှန်းပြီး အဲဒါကို နောင်လာမယ့် အကြိမ်တွေမှာ ပြန်သုံးလိမ့်မယ်၊ ဒါကြောင့် auto-regressive ဆိုတဲ့ အသုံးအနှုန်း ပေါ်လာတာပါ။,"然后,它预测出一个产出,它将在今后的迭代中重新使用,因此这个术语是自动递减的。"
197,"Finally, to get an understanding of the encoder-decoders as a whole, we recommend you check out the video on encoder-decoders.",နောက်ဆုံးအနေနဲ့ encoder-decoder တွေရဲ့ အလုပ်လုပ်ပုံကို တစ်စုတစ်စည်းတည်း နားလည်ဖို့အတွက် encoder-decoder တွေအကြောင်း ဗီဒီယိုကို ကြည့်ဖို့ အကြံပြုပါတယ်။,"最后,为了了解整个编码器解码器, 我们建议你检查一下编码器解码器的录像。"
198,"In this video, we'll study the encoder architecture.",ဒီဗီဒီယိုမှာတော့ encoder ဗိသုကာပုံစံကို လေ့လာကြရအောင်။,"在这个视频中,我们将研究编码器结构。"
199,An example of a popular encoder only architecture is BURT which is the most popular model of its kind.,encoder သီးသန့် ဗိသုကာပုံစံတွေထဲက နာမည်ကြီးတဲ့ ဥပမာတစ်ခုကတော့ BERT ဖြစ်ပြီး ဒီအမျိုးအစားထဲမှာ အကျော်ကြားဆုံး မော်ဒယ်ပါ။,"热门编码器唯一建筑的一个例子是BURT,这是最受欢迎的同类模式。"
200,Let's first start by understanding how it works.,ပထမဆုံး သူ ဘယ်လိုအလုပ်လုပ်လဲဆိုတာ နားလည်အောင် စကြည့်ရအောင်။,首先让我们先了解它是如何运作的。
201,We'll use a small example using three words.,စကားလုံးသုံးလုံးပါတဲ့ ဥပမာလေးတစ်ခုကို သုံးသွားမယ်။,我们用三个字来举个小例子
202,We use these as inputs and pass them through the encoder.,ဒီစကားလုံးတွေကို ထည့်သွင်းချက်အဖြစ် သုံးပြီး encoder ထဲကို ပို့လိုက်တယ်။,我们用它们作为输入 并将其传送到编码器上
203,We retrieve a numerical representation of each word.,စကားလုံးတစ်လုံးစီရဲ့ ဂဏန်းကိုယ်စားပြုမှုကို ပြန်ရလိုက်တယ်။,我们检索每个单词的数字代表。
204,"Here, for example, the encoder converts those three words, welcome to NYC, in these three sequences of numbers.","ဒီမှာ ဥပမာအနေနဲ့ Encoder က ""welcome to NYC"" ဆိုတဲ့ စကားလုံးသုံးလုံးကို ဒီဂဏန်းအတန်း သုံးခုအဖြစ် ပြောင်းလဲပေးလိုက်တယ်။","例如,在这里,编码器转换了这三个字, 欢迎来到纽约市, 以这三个数字序列。"
205,The encoder outputs exactly one sequence of numbers per input word.,ထည့်သွင်းတဲ့ စကားလုံးတစ်လုံးချင်းစီအတွက် ဂဏန်းအတန်းတစ်ခုစီကို Encoder က အတိအကျ ထုတ်ပေးတယ်။,编码器输出每个输入单词的精确序列数 。
206,"This numerical representation can also be called a feature vector, or a feature tensor.",ဒီဂဏန်းကိုယ်စားပြုမှုကို feature vector ဒါမှမဟုတ် feature tensor လို့လည်း ခေါ်နိုင်ပါတယ်။,"这一数字表示法也可以称为特性矢量,或特性振动。"
207,Let's dive into this representation.,ဒီကိုယ်စားပြုမှုထဲကို နက်နက်နဲနဲ လေ့လာကြည့်ရအောင်။,让我们潜入这个代表。
208,It contains one vector per word that was passed through the encoder.,ဒီထဲမှာ encoder ထဲ ဖြတ်သန်းသွားတဲ့ စကားလုံးတစ်လုံးစီအတွက် vector တစ်ခုစီ ပါဝင်တယ်။,它包含通过编码器通过的每个单词的一个矢量。
209,Each of these vector is a numerical representation of the word in question.,ဒီ vector တစ်ခုစီက သက်ဆိုင်ရာ စကားလုံးရဲ့ ဂဏန်းကိုယ်စားပြုမှုပဲ ဖြစ်ပါတယ်။,每个矢量都是有关字的数值表示。
210,The dimension of that vector is defined by the architecture of the model.,အဲဒီ vector ရဲ့ အတိုင်းအတာကို မော်ဒယ်ရဲ့ ဗိသုကာပုံစံက သတ်မှတ်ထားတာပါ။,该矢量的维度由模型结构界定。
211,"For the base BERT model, it is 768.",အခြေခံ BERT မော်ဒယ်အတွက်ဆိုရင် ၇၆၈ ဖြစ်တယ်။,基准BERT模型为768。
212,"These representations contain the value of a word, but contextualized.",ဒီကိုယ်စားပြုမှုတွေမှာ စကားလုံးရဲ့ တန်ဖိုး ပါဝင်ပေမယ့် အကြောင်းအရာနဲ့ ဆက်စပ်ထားတဲ့ ပုံစံ ဖြစ်တယ်။,"这些表述包含一个单词的价值,但符合背景。"
213,"For example, the vector attributed to the word ""to"" isn't the representation of only the ""to"" word.","ဥပမာအားဖြင့် ""to"" ဆိုတဲ့ စကားလုံးအတွက် သတ်မှတ်ထားတဲ့ vector ဟာ ""to"" စကားလုံးသက်သက်ရဲ့ ကိုယ်စားပြုမှု မဟုတ်ဘူး။","例如,“to”一词的矢量不只代表“to”一词。"
214,It also takes into account the words around it which we call the context.,ဒီကိရိယာဟာ သူ့ပတ်ဝန်းကျင်က စကားလုံးတွေကိုပါ ထည့်သွင်းစဉ်းစားပြီး အဲဒါကို ကျွန်တော်တို့ context လို့ ခေါ်တယ်။,它还考虑到我们称之为背景的言词。
215,"As in it looks to the left context, the words on the left of the one we're studying, here the word ""Welcome"", and the context on the right, here the word ""NYC"", and it outputs a value for the word given its context.","ဆိုလိုတာကတော့ ကျွန်တော်တို့ လေ့လာနေတဲ့ စကားလုံးရဲ့ ဘယ်ဘက် context ကို ကြည့်တယ်၊ ဒီမှာ ""Welcome"" ဆိုတဲ့ စကားလုံး၊ ပြီးတော့ ညာဘက် context ကို ကြည့်တယ်၊ ဒီမှာ ""NYC"" ဆိုတဲ့ စကားလုံး၊ ပြီးမှ သူ့ရဲ့ context ကို ထည့်သွင်းစဉ်းစားပြီး အဲဒီစကားလုံးအတွက် တန်ဖိုးတစ်ခု ထုတ်ပေးတာပါ။","从左面看, 我们研究的左边的字眼, 这里的“ 欢迎” 和右面的字眼, 这里的“ 纽约市” 字眼, 并且根据它的上下文, 它为这个词带来一个价值 。"
216,It is therefore a contextualized value.,ဒါကြောင့် ဒါဟာ ဆက်စပ် အကြောင်းအရာနဲ့ တန်ဖိုး ဖြစ်တယ်။,"因此,它是一种背景价值。"
217,One could say that the vector of 768 values holds the meaning of the word within the text.,၇၆၈ တန်ဖိုးရှိတဲ့ vector ဟာ စာသားထဲက စကားလုံးရဲ့ အဓိပ္ပာယ်ကို ဆောင်ထားတယ်လို့ ပြောနိုင်ပါတယ်။,"可以说,768值的矢量在案文中具有该词的含义。"
218,It does this thanks to the self-attention mechanism.,ဒါကို self-attention နည်းလမ်းကြောင့် လုပ်ဆောင်နိုင်တာပါ။,"之所以这样做,是因为建立了自我注意机制。"
219,"The self-attention mechanism relates to different positions, or different words in a single sequence in order to compute a representation of that sequence.",self-attention နည်းလမ်းကတော့ sequence တစ်ခုရဲ့ ကိုယ်စားပြုမှုကို တွက်ချက်ဖို့အတွက် sequence တစ်ခုတည်းမှာရှိတဲ့ မတူညီတဲ့ အနေအထားတွေ ဒါမှမဟုတ် မတူညီတဲ့ စကားလုံးတွေကို ဆက်စပ်ပေးတယ်။,"自我注意机制涉及不同的立场,或单一顺序中不同的词语,以计算该顺序的表示。"
220,"As we've seen before, this means that the resulting representation of a word has been affected by other words in the sequence.",အရင်က မြင်ခဲ့ရတဲ့အတိုင်းပဲ၊ ဒါက စကားလုံးတစ်လုံးရဲ့ ရလဒ်ကိုယ်စားပြုမှုဟာ sequence ထဲက တခြားစကားလုံးတွေရဲ့ သက်ရောက်မှုကို ခံရတယ်ဆိုတဲ့ အဓိပ္ပာယ်ပါပဲ။,"正如我们以前所看到的,这意味着 由此产生的一个字的表达方式 已经受到 其它词在顺序中的影响。"
221,We won't dive into the specifics here which will offer some further readings if you want to get a better understanding at what happens under the hood.,ဒီမှာတော့ အသေးစိတ်ကို ထပ်မလေ့လာတော့ဘူး၊ အထဲမှာ ဘာတွေဖြစ်နေလဲဆိုတာ ပိုနားလည်ချင်ရင် နောက်ထပ် စာဖတ်ဖို့ အကြံပြုထားတာတွေ ပေးထားပါမယ်။,我们不会深入了解这里的细节 如果你想更深入地了解 兜帽下发生的事 将会提供一些进一步的读数
222,So why should one use and encoder?,ဒါဆို ဘာလို့ encoder ကို သုံးသင့်တာလဲ။,为何要使用编码器和编码器?
223,Encoders can be used as stand-alone models in a wide variety of tasks.,Encoder တွေကို လုပ်ငန်းမျိုးစုံမှာ တစ်သီးပုဂ္ဂလ မော်ဒယ်တွေအဖြစ် အသုံးပြုနိုင်တယ်။,"在各种各样的任务中,编码器可以作为独立的模型使用。"
224,"For example, BERT, arguably the most famous transformer model, is a standalone encoder model, and at the time of release, it'd be the state of the art in many sequence classification tasks, question answering tasks, and mask language modeling to only cite of few.",ဥပမာအားဖြင့် အကျော်ကြားဆုံး Transformer မော်ဒယ်လို့ ပြောနိုင်တဲ့ BERT ဟာ တစ်သီးပုဂ္ဂလ encoder မော်ဒယ်ဖြစ်ပြီး ၎င်းကို ထုတ်ဝေချိန်မှာ sequence classification၊ question answering နဲ့ mask language modeling စတဲ့ လုပ်ငန်းများစွာမှာ လက်ရှိအကောင်းဆုံး အခြေအနေကို ရောက်ရှိခဲ့တယ်။,"例如,最有名的变压器模型BERT(BERT)是一个独立的编码器模型,在发布时,它将成为许多序列分类任务、答题任务和代言语言模型的最新数据,仅举几个例子。"
225,The idea is that encoders are very powerful at extracting vectors that carry meaningful information about a sequence.,အယူအဆကတော့ encoder တွေဟာ sequence တစ်ခုအကြောင်း အဓိပ္ပာယ်ပြည့်ဝတဲ့ အချက်အလက်တွေကို သယ်ဆောင်တဲ့ vector တွေကို ထုတ်ယူရာမှာ အလွန် အစွမ်းထက်တယ်ဆိုတာပါပဲ။,"其理念是,编码器在提取含有关于序列的有意义的信息的矢量方面非常强大。"
226,This vector can then be handled down the road by additional neurons to make sense of them.,ဒီ vector ကို နောက်ပိုင်းမှာ နောက်ထပ် neurons တွေကနေတစ်ဆင့် ကိုင်တွယ်ပြီး အဓိပ္ပာယ်ဖွင့်ဆိုနိုင်တယ်။,"然后,可以通过额外的神经元在路上处理这种病媒,以使它们有意义。"
227,Let's take a look at some examples where encoder really shine.,encoder တွေ တကယ်ထင်ရှားတဲ့ ဥပမာအချို့ကို ကြည့်ကြည့်ရအောင်။,让我们看看编码器真正闪亮的一些例子。
228,"First of all, Masked Language Modeling, or MLM.",ပထမဆုံးအနေနဲ့ Masked Language Modeling ဒါမှမဟုတ် MLM ဖြစ်ပါတယ်။,"首先,蒙面语言建模,或MLM。"
229,It's the task of predicting a hidden word in a sequence of word.,ဒါက စကားလုံးအတန်းတစ်ခုထဲက ဖုံးကွယ်ထားတဲ့ စကားလုံးကို ခန့်မှန်းတဲ့ လုပ်ငန်း ဖြစ်တယ်။,这是用一个词序列来预测一个隐藏的单词的任务。
230,"Here, for example, we have hidden the word between ""My"" and ""is"".","ဒီမှာ ဥပမာအနေနဲ့ ""My"" နဲ့ ""is"" ကြားက စကားလုံးကို ဖုံးကွယ်ထားတယ်။","例如,我们把这个词隐藏在“我”和“是”之间。"
231,This is one of the objectives with which BERT was trained.,ဒါက BERT ကို လေ့ကျင့်ပေးခဲ့တဲ့ ရည်ရွယ်ချက်တွေထဲက တစ်ခုပါ။,这是BERT培训的目标之一。
232,It was trained to predict hidden words in a sequence.,ဒီကိရိယာကို sequence တစ်ခုထဲက ဖုံးကွယ်ထားတဲ့ စကားလုံးတွေကို ခန့်မှန်းဖို့ လေ့ကျင့်ပေးထားတယ်။,"它受过训练,可以按顺序预测隐藏的词句。"
233,Encoders shine in this scenario in particular as bi-directional information is crucial here.,ဒီလို အခြေအနေမျိုးမှာ ဘက်နှစ်ဖက်လုံးက အချက်အလက်တွေ အရေးကြီးတာကြောင့် Encoder တွေက အထူးထင်ရှားပါတယ်။,"由于双向信息在此至关重要,在这种情况下,编译者特别闪耀于这种情景。"
234,"If we didn't have the words on the right, ""is"", ""Sylvain"" and the ""."", then there is very little chance that BERT would have been able to identify name as the correct word.,ညာဘက်က ""is"""," ""Sylvain"" နဲ့ ""."" ဆိုတဲ့ စကားလုံးတွေ မရှိခဲ့ရင် BERT က ""name"" ကို မှန်ကန်တဲ့ စကားလုံးအဖြစ် ခွဲခြားနိုင်ဖို့ အခွင့်အရေး နည်းပါးသွားပါလိမ့်မယ်။",如果我们没有右边的词“是”、“是”、“Sylvain”和“”“......”那么BERT几乎不可能找到正确的词名。
235,"The encoder needs to have a good understanding of the sequence in order to predict a masked word as even if the text is grammatically correct, it does not necessarily make sense in the context of the sequence.",ဖုံးကွယ်ထားတဲ့ စကားလုံးကို ခန့်မှန်းနိုင်ဖို့အတွက် စာသားက သဒ္ဒါအရ မှန်နေရင်တောင် sequence ရဲ့ context မှာ အဓိပ္ပာယ် ရှိချင်မှ ရှိမှာမို့ encoder က sequence ကို ကောင်းကောင်း နားလည်ထားဖို့ လိုတယ်။,"编码器需要很好地理解序列,以便预测一个隐蔽的单词,即使文字在语法上正确,在序列中也不一定有意义。"
236,"As mentioned earlier, encoders are good at doing sequence classification.",အရင်က ပြောခဲ့သလိုပဲ encoder တွေဟာ sequence classification ကို ကောင်းကောင်း လုပ်ဆောင်နိုင်ပါတယ်။,"如前所述,编码器擅长进行序列分类。"
237,Sentiment analysis is an example of sequence classification.,ခံစားချက် ခွဲခြမ်းစိတ်ဖြာခြင်းက sequence classification ရဲ့ ဥပမာတစ်ခု ဖြစ်တယ်။,情感分析是序列分类的一个实例。
238,The model's aim is to identify the sentiment of a sequence.,မော်ဒယ်ရဲ့ ရည်ရွယ်ချက်ကတော့ sequence တစ်ခုရဲ့ ခံစားချက်ကို ဖော်ထုတ်ဖို့ပဲ ဖြစ်တယ်။,模型的目的是识别序列的感知。
239,"It can range from giving a sequence, a rating from one to five stars if doing review analysis to giving a positive, or negative rating to a sequence which is what is shown here.",ဒါဟာ review analysis လုပ်တဲ့အခါ sequence တစ်ခုကို ကြယ်တစ်ပွင့်ကနေ ငါးပွင့်အထိ rating ပေးတာကနေ အပြုသဘော ဒါမှမဟုတ် အနုတ်သဘော rating ပေးတာအထိ ရှိနိုင်ပြီး ဒီမှာ ပြထားတာကတော့ အဲဒီလို rating ပေးတာပါ။,"它可以从给出一个序列,如果进行审查分析,从一星到五星的评分,到给一个正或负的评分,到这里所显示的顺序。"
240,"For example, here, given the two sequences, we use the model to compute a prediction, and to classify the sequences among these two classes, positive and negative.",ဥပမာ၊ ဒီမှာ ပေးထားတဲ့ sequence နှစ်ခုကို သုံးပြီး ခန့်မှန်းချက်တစ်ခု တွက်ချက်ဖို့ မော်ဒယ်ကို အသုံးပြုတယ်၊ ပြီးတော့ အပြုသဘောနဲ့ အနုတ်သဘောဆိုတဲ့ ဒီအမျိုးအစား နှစ်ခုထဲက ခွဲခြားပေးတယ်။,"例如,在这里,根据这两个序列, 我们使用模型来计算预测, 并对这两类序列进行分类, 不管是正的还是负的。"
241,"While the two sequences are very similar containing the same words, the meaning is entirely different, and the encoder model is able to grasp that difference.",sequence နှစ်ခုက အတူတူနီးပါး စကားလုံးတွေ ပါဝင်ပေမယ့် အဓိပ္ပာယ်က လုံးဝ ကွာခြားပြီး encoder မော်ဒယ်က အဲဒီခြားနားချက်ကို နားလည်နိုင်စွမ်း ရှိပါတယ်။,"虽然这两个序列非常相似,包含相同的词,但含义完全不同,编码器模型能够理解这一差异。"
242,"In this video, we'll study the decoder architecture.",ဒီဗီဒီယိုမှာတော့ decoder ဗိသုကာပုံစံကို လေ့လာကြရအောင်။,"在这个视频中,我们将研究解码器结构。"
243,An example of a popular decoder only architecture is GPT two.,decoder သီးသန့် ဗိသုကာပုံစံတွေထဲက နာမည်ကြီးတဲ့ ဥပမာတစ်ခုကတော့ GPT-2 ဖြစ်ပါတယ်။,普通解码器唯一建筑的一个例子是GPT 2。
244,In order to understand how decoders work we recommend taking a look at the video regarding encoders.,decoder တွေ ဘယ်လိုအလုပ်လုပ်လဲဆိုတာ နားလည်ဖို့အတွက် encoder တွေအကြောင်း ဗီဒီယိုကို ကြည့်ဖို့ အကြံပြုချင်ပါတယ်။,"为了了解解码器如何运作, 我们建议查看关于编码器的视频。"
245,They're extremely similar to decoders.,သူတို့က decoder တွေနဲ့ အလွန်ဆင်တူတယ်။,他们和解码器非常相似
246,One can use a decoder for most of the same tasks as an encoder albeit with generally a little loss of performance.,စွမ်းဆောင်ရည် အနည်းငယ် လျော့ကျနိုင်ပေမယ့် encoder က လုပ်နိုင်တဲ့ လုပ်ငန်းအများစုအတွက် decoder ကို သုံးနိုင်တယ်။,"人们可以使用解码器来完成大部分与编码器相同的任务,尽管通常会略有性能损失。"
247,Let's take the same approach we have taken with the encoder to try and understand the architectural differences between an encoder and decoder.,encoder နဲ့ လုပ်ခဲ့တဲ့ ပုံစံအတိုင်းပဲ encoder နဲ့ decoder ကြားက ဗိသုကာဆိုင်ရာ ကွာခြားချက်တွေကို နားလည်အောင် ကြိုးစားကြည့်ရအောင်။,让我们采取与编码器相同的方法 试图理解编码器和编码器的建筑差异
248,We pass them through their decoder.,ဒီစကားလုံးတွေကို decoder ထဲ ဖြတ်သန်းပို့လိုက်တယ်။,我们通过他们的解码器
249,We retrieve a numerical representation for each word.,စကားလုံးတစ်လုံးစီအတွက် ဂဏန်းကိုယ်စားပြုမှုကို ပြန်ရလိုက်တယ်။,我们为每个单词找一个数字代表。
250,"Here for example, the decoder converts the three words.",ဒီမှာ ဥပမာအနေနဲ့ Decoder က စကားလုံးသုံးလုံးကို ပြောင်းလဲပေးလိုက်တယ်။,"例如,这里的解码器转换三个字。"
251,"Welcome to NYC, and these three sequences of numbers.",Welcome to NYC ကို ဒီဂဏန်းအတန်း သုံးခုအဖြစ် ပြောင်းလဲပေးတယ်။,欢迎来到纽约市 还有这三个数字序列
252,The decoder outputs exactly one sequence of numbers per input word.,ထည့်သွင်းတဲ့ စကားလုံးတစ်လုံးချင်းစီအတွက် ဂဏန်းအတန်းတစ်ခုစီကို Decoder က အတိအကျ ထုတ်ပေးတယ်။,解码器输出每个输入单词的精确序列数 。
253,This numerical representation can also be called a feature vector or a feature sensor.,ဒီဂဏန်းကိုယ်စားပြုမှုကို feature vector ဒါမှမဟုတ် feature sensor လို့လည်း ခေါ်နိုင်ပါတယ်။,这一数字代表也可以称为特性矢量或特性传感器。
254,Let's dive in this representation.,ဒီကိုယ်စားပြုမှုထဲကို နက်နက်နဲနဲ လေ့လာကြည့်ရအောင်။,让我们跳下这个代表。
255,It contains one vector per word that was passed through the decoder.,ဒီထဲမှာ decoder ထဲ ဖြတ်သန်းသွားတဲ့ စကားလုံးတစ်လုံးစီအတွက် vector တစ်ခုစီ ပါဝင်တယ်။,它包含通过解码器传输的每个单词的一个矢量。
256,Each of these vectors is a numerical representation of the word in question.,ဒီ vector တစ်ခုစီက သက်ဆိုင်ရာ စကားလုံးရဲ့ ဂဏန်းကိုယ်စားပြုမှုပဲ ဖြစ်ပါတယ်။,这些矢量中的每一矢量都是有关词的数字表示。
257,Where the decoder differs from the encoder is principally with its self attention mechanism.,decoder က encoder နဲ့ အဓိက ကွာခြားတဲ့နေရာကတော့ သူ့ရဲ့ self attention နည်းလမ်းပဲ ဖြစ်ပါတယ်။,"编码器不同于编码器的编码器,主要是用其自我注意机制。"
258,It's using what is called masked self attention.,သူက masked self attention လို့ခေါ်တဲ့ နည်းလမ်းကို သုံးနေတယ်။,它使用所谓的蒙面自我关注。
259,"Here, for example, if we focus on the word ""to"" we'll see that is vector is absolutely unmodified by the NYC word.","ဥပမာအားဖြင့် ""to"" ဆိုတဲ့ စကားလုံးပေါ် အာရုံစိုက်ကြည့်ရင် သူ့ရဲ့ vector ဟာ ""NYC"" ဆိုတဲ့ စကားလုံးကြောင့် လုံးဝ ပြောင်းလဲသွားတာ မတွေ့ရဘူး။","例如这里,如果我们把注意力集中在“to”这个词上, 我们就会看到, 矢量绝对没有被纽约市这个词修改过。"
260,"That's because all the words on the right, also known as the right context of the word is masked rather than benefiting from all the words on the left and right.",ဒါက ဘာလို့လဲဆိုတော့ ညာဘက်က စကားလုံးအားလုံး ဒါမှမဟုတ် စကားလုံးရဲ့ ညာဘက် context လို့ သိကြတဲ့ အရာတွေဟာ ဖုံးကွယ်ထားတာကြောင့် ဘယ်ဘက်နဲ့ ညာဘက်က စကားလုံးတွေအားလုံးရဲ့ အကျိုးကျေးဇူးကို မရရှိဘူး။,"那是因为右侧的所有字句, 也称为右上下文, 都被遮蔽了, 而不是从左对右的所有字句中受益。"
261,So the bidirectional context.,ဆိုလိုတာက ဘက်နှစ်ဖက်လုံးကို ကြည့်တဲ့ context ပေါ့။,"因此,双向环境。"
262,Decoders only have access to a single context which can be the left context or the right context.,Decoder တွေက context တစ်ခုတည်းကိုသာ ဝင်ရောက်ကြည့်ရှုခွင့်ရှိပြီး အဲဒါက ဘယ်ဘက် context ဒါမှမဟုတ် ညာဘက် context ဖြစ်နိုင်တယ်။,"代腐物只能接触一种单一的环境,这种环境可以是左环境,也可以是右环境。"
263,The masked self attention mechanism differs from the self attention mechanism by using an additional mask to hide the context on either side of the word the words numerical representation will not be affected by the words in the hidden context.,masked self attention နည်းလမ်းက self attention နည်းလမ်းနဲ့ ကွာခြားတာကတော့ စကားလုံးရဲ့ ဘေးတစ်ဖက်စီက context ကို ဖုံးကွယ်ဖို့ အပို mask တစ်ခုကို အသုံးပြုတာကြောင့် ဖုံးကွယ်ထားတဲ့ context ထဲက စကားလုံးတွေကြောင့် စကားလုံးရဲ့ ဂဏန်းကိုယ်စားပြုမှုဟာ သက်ရောက်မှု ရှိမှာ မဟုတ်ဘူး။,"蒙面的自我注意机制不同于自我注意机制,它使用额外的面具把文字隐藏在字的两侧,数字表示不会受到隐面文字的影响。"
264,So when should one use a decoder?,ဒါဆို decoder ကို ဘယ်အချိန်မှာ သုံးသင့်တာလဲ။,那么什么时候才能使用解码器呢?
265,Decoders like encoders can be used as standalone models as they generate a numerical representation.,Encoder တွေလိုပဲ decoder တွေကလည်း ဂဏန်းကိုယ်စားပြုမှုကို ထုတ်ပေးတဲ့အတွက် တစ်သီးပုဂ္ဂလ မော်ဒယ်တွေအဖြစ် အသုံးပြုနိုင်တယ်။,"象编码器这样的代谢器可以作为独立模型使用,因为它们产生数字代表。"
266,They can also be used in a wide variety of tasks.,သူတို့က လုပ်ငန်းမျိုးစုံမှာလည်း အသုံးပြုနိုင်တယ်။,它们也可以用于各种各样的任务。
267,"However, the strength of a decoder lies in the way.",သို့သော် decoder ရဲ့ အစွမ်းသတ္တိကတော့ ဒီနည်းလမ်းမှာ ရှိနေတယ်။,"然而,解码器的力量在于方法。"
268,A word can only have access to its left context having only access to their left context.,စကားလုံးတစ်လုံးက သူ့ရဲ့ ဘယ်ဘက် context ကိုပဲ ရယူနိုင်တာကြောင့် ဘယ်ဘက် context ကိုသာ ရယူနိုင်တယ်။,"一个词只能进入其左边的语境,只能进入其左边的语境。"
269,They're inherently good at text generation the ability to generate a word or a sequence of words given a known sequence of words.,သူတို့က မွေးရာပါ စာသားထုတ်လုပ်မှုမှာ ကောင်းမွန်တယ်၊ ဆိုလိုတာက သိထားတဲ့ စကားလုံးအတန်းတစ်ခုကို အခြေခံပြီး စကားလုံး ဒါမှမဟုတ် စကားလုံးအတန်းတစ်ခုကို ထုတ်လုပ်ပေးနိုင်တဲ့ စွမ်းရည်ပေါ့။,他们天生善于生成文本 能够生成一个单词或一个序列的单词 并给出一个已知的单词序列。
270,This is known as causal language modeling or natural language generation.,ဒါကို causal language modeling ဒါမှမဟုတ် သဘာဝဘာသာစကား ထုတ်လုပ်ခြင်းလို့ သိကြတယ်။,这被称为因果语言建模或自然语言生成。
271,Here's an example of how causal language modeling works.,causal language modeling ဘယ်လိုအလုပ်လုပ်လဲဆိုတာ ဥပမာတစ်ခု ပြပါမယ်။,这里的例子说明了因果语言建模是如何起作用的。
272,"We start with an initial word, which is my, we use this as input for the decoder.","ကျွန်တော်တို့ ""my"" ဆိုတဲ့ စကားလုံးနဲ့ စတင်ပြီး ဒါကို decoder အတွက် ထည့်သွင်းချက်အဖြစ် သုံးတယ်။","我们从第一个字开始, 也就是我, 我们用这个字作为解码器的输入。"
273,The model outputs a vector of numbers and this vector contains information about the sequence which is here a single word.,မော်ဒယ်က ဂဏန်း vector တစ်ခု ထုတ်ပေးပြီး ဒီ vector မှာ sequence အကြောင်း အချက်အလက်တွေ ပါဝင်ပါတယ်၊ ဒီမှာတော့ စကားလုံးတစ်လုံးတည်းပေါ့။,"模型输出一个数字矢量, 而该矢量含有关于序列的信息, 信息在此仅是一个单词 。"
274,"We apply a small transformation to that vector so that it maps to all the words known by the model, which is a mapping that we'll see later called a language modeling head.",ဒီ vector ကို အနည်းငယ် ပြောင်းလဲလိုက်ပြီး မော်ဒယ်က သိထားတဲ့ စကားလုံးအားလုံးကို ပြပေးနိုင်ပါတယ်၊ အဲဒါကို နောက်မှ မြင်ရမယ့် language modeling head လို့ ခေါ်တဲ့ mapping တစ်ခုပါပဲ။,"我们对该矢量进行微小的转换, 以便它映射出模型所知道的所有字眼, 也就是我们稍后会看到的地图, 叫做语言模型头。"
275,We identify that the model believes that the most probable following word is name.,"မော်ဒယ်က နောက်ဆက်တွဲ စကားလုံးမှာ ""name"" ဖြစ်ဖို့ အလားအလာ အများဆုံးလို့ ယုံကြည်တာကို သိရတယ်။","我们确认,该模型认为,最有可能采用的名称是名称。"
276,"We then take that new word and add it to the initial sequence from my, we are now at my name.","အဲဒီ စကားလုံးအသစ်ကို ယူပြီး မူလ sequence ထဲကို ထည့်လိုက်တော့ ""my"" ကနေ အခု ""my name"" ဖြစ်သွားပြီ။","然后我们用这个新词 把它添加到最初的顺序中, 从我,我们现在的名字。"
277,This is where the auto regressive aspect comes in.,ဒီနေရာမှာ auto regressive ပုံစံ ပါဝင်လာတာ ဖြစ်တယ်။,这就是自动后退的方面。
278,Auto regressive models.,Auto regressive မော်ဒယ်တွေက။,自动递减模型。
279,We use their past outputs as inputs and the following steps.,သူတို့ရဲ့ အရင်အထွက်တွေကို နောက်ဆက်တွဲ အဆင့်တွေမှာ ထည့်သွင်းချက်အဖြစ် အသုံးပြုတယ်။,我们利用他们过去的产出作为投入和以下步骤。
280,"Once again, we do the exact same operation.",တစ်ဖန် အတိအကျ တူညီတဲ့ လုပ်ဆောင်ချက်ကို လုပ်တယ်။,我们再次采取同样的行动。
281,We cast that sequence through the decoder and retrieve the most probable following word.,ဒီ sequence ကို decoder ထဲ ဖြတ်သန်းပို့ပြီး ဖြစ်နိုင်ခြေအရှိဆုံး နောက်ဆက်တွဲ စကားလုံးကို ပြန်ရယူတယ်။,我们通过解码器将顺序投出 并检索最有可能的词
282,"In this case, it is the word ""is"", we repeat the operation until we're satisfied, starting from a single word.","ဒီကိစ္စမှာတော့ ""is"" ဆိုတဲ့ စကားလုံးဖြစ်ပြီး ကျွန်တော်တို့ ကျေနပ်တဲ့အထိ ဒီလုပ်ဆောင်ချက်ကို ထပ်ခါတလဲလဲ လုပ်ဆောင်တယ်။ စကားလုံးတစ်လုံးတည်းကနေ စတာပါ။","在这种情况下,这是""是"",我们重复操作 直到我们满意,从一个单词开始。"
283,We've now generated a full sentence.,အခု စာကြောင်းအပြည့်အစုံကို ထုတ်လုပ်ပြီးပြီ။,我们现在已经做了一个完整的句子。
284,"We decide to stop there, but we could continue for a while.",ကျွန်တော်တို့ ဒီမှာ ရပ်ဖို့ ဆုံးဖြတ်လိုက်ပေမယ့် ခဏလောက် ဆက်လုပ်လို့ ရသေးတယ်။,"我们决定到此为止,但我们可以继续一段时间。"
285,GPT two for example has a maximum context size of 1024.,ဥပမာအားဖြင့် GPT-2 မှာ အများဆုံး context အရွယ်အစား ၁၀၂၄ ရှိတယ်။,"例如,GPT 2 的最大上下文尺寸为1024。"
286,"We could eventually generate up to a 1,024 words and the decoder would still have some memory of the first words in this sequence.",ကျွန်တော်တို့ စကားလုံး ၁၀၂၄ လုံးအထိ ထုတ်လုပ်နိုင်ပြီး decoder က ဒီ sequence ထဲက ပထမစကားလုံးတွေရဲ့ မှတ်ဉာဏ်အချို့ကို ရှိနေဦးမှာပါ။,"我们最终可以产生多达1,024个字,解码器仍然会有一些关于这一顺序中第一个字的记忆。"
287,"In this video, we'll study the encoder-decoder architecture.",ဒီဗီဒီယိုမှာတော့ encoder-decoder ဗိသုကာပုံစံကို လေ့လာကြရအောင်။,"在这个视频中,我们将研究编码器-编码器结构。"
288,An example of a popular encoder-decoder model is T5.,နာမည်ကြီး encoder-decoder မော်ဒယ်တစ်ခုကတော့ T5 ဖြစ်ပါတယ်။,流行的编码器-编码器模型的一个例子是T5。
289,"In order to understand how the encoder-decoder works, we recommend you check out the videos on encoders and decoders as standalone models.",encoder-decoder ဘယ်လိုအလုပ်လုပ်လဲ နားလည်ဖို့အတွက် encoder နဲ့ decoder တွေကို တစ်သီးပုဂ္ဂလ မော်ဒယ်တွေအဖြစ် လေ့လာထားတဲ့ ဗီဒီယိုတွေကို ကြည့်ဖို့ အကြံပြုချင်ပါတယ်။,"为了了解编码器解码器如何运作, 我们建议您将编码器和解码器的视频作为独立模型查看。"
290,Understanding how they work individually will help understanding how an encoder-decoder works.,သူတို့တစ်ဦးချင်း ဘယ်လိုအလုပ်လုပ်လဲဆိုတာ နားလည်တာက encoder-decoder ဘယ်လိုအလုပ်လုပ်လဲဆိုတာ နားလည်ဖို့ ကူညီပါလိမ့်မယ်။,"了解它们各自如何工作,将有助于了解编码器-编码器如何工作。"
291,Let's start from what we've seen about the encoder.,Encoder အကြောင်း ကျွန်တော်တို့ မြင်ခဲ့ရတာကနေ စကြည့်ရအောင်။,让我们从我们所看到的编码器开始
292,"The encoder takes words as inputs, casts them through the encoder, and retrieves a numerical representation for each word cast through it.",Encoder က စကားလုံးတွေကို ထည့်သွင်းချက်အဖြစ် ယူတယ်၊ encoder ထဲ ဖြတ်သန်းပို့လိုက်တယ်၊ ပြီးတော့ ဖြတ်သန်းသွားတဲ့ စကားလုံးတစ်လုံးစီအတွက် ဂဏန်းကိုယ်စားပြုမှုကို ပြန်ရလိုက်တယ်။,"编码器将文字作为输入,通过编码器投放,并检索每个文字的数值代表。"
293,We now know that this numerical representation holds information about the meaning of the sequence.,ဒီဂဏန်းကိုယ်စားပြုမှုက sequence ရဲ့ အဓိပ္ပာယ်အကြောင်း အချက်အလက်တွေကို ဆောင်ထားတယ်ဆိုတာကို ကျွန်တော်တို့ အခု သိနေပါပြီ။,"我们现在知道,这个数字代表法掌握着关于序列含义的信息。"
294,Let's put this aside and add the decoder to the diagram.,ဒီဘက် ခဏထားပြီးတော့ decoder ကို ပုံထဲ ထည့်ကြည့်ရအောင်။,"把这个放在一边,把解码器加到图表上"
295,"In this scenario, we're using the decoder in a manner that we haven't seen before.",ဒီအခြေအနေမှာ ကျွန်တော်တို့ မမြင်ဖူးသေးတဲ့ ပုံစံမျိုးနဲ့ decoder ကို သုံးနေတာပါ။,"在这种情形下,我们使用解码器的方式 我们从未见过。"
296,We're passing the outputs of the encoder directly to it.,Encoder ရဲ့ အထွက်တွေကို သူ့ဆီကို တိုက်ရိုက် ပို့နေတာပါ။,我们正在将编码器的输出直接传递给它
297,"Additionally to the encoder outputs, we also give the decoder a sequence.",Encoder အထွက်တွေအပြင် decoder ကို sequence တစ်ခုလည်း ပေးတယ်။,"除了编码器输出外,我们还给编码器一个序列。"
298,"When prompting the decoder for an output with no initial sequence, we can give it the value that indicates the start of a sequence.",အစကနဦး sequence မရှိဘဲ အထွက်တစ်ခုအတွက် decoder ကို တောင်းတဲ့အခါ sequence တစ်ခုရဲ့ စတင်ခြင်းကို ညွှန်ပြတဲ့ တန်ဖိုးကို ပေးနိုင်တယ်။,"当为没有初始序列的输出点燃解码器时, 我们可以给它表示序列开始的值 。"
299,And that's where the encoder-decoder magic happens.,ဒီနေရာမှာပဲ encoder-decoder ရဲ့ မှော်ဆန်မှုက စတာပေါ့။,这就是编码器解码器魔法发生的地方
300,The encoder accepts a sequence as input.,Encoder က sequence တစ်ခုကို ထည့်သွင်းချက်အဖြစ် လက်ခံတယ်။,编码器接受一个序列作为输入 。
301,"It computes a prediction, and outputs a numerical representation.",သူက ခန့်မှန်းချက်တစ်ခု တွက်ချက်ပြီး ဂဏန်းကိုယ်စားပြုမှုကို ထုတ်ပေးတယ်။,"它计算预测,产生数字代表。"
302,"Then, it sends that over to the decoder.",ပြီးရင် အဲဒါကို decoder ဆီ ပို့လိုက်တယ်။,"然后,它发送到解码器。"
303,"It has, in a sense, encoded that sequence.",သူက အဲဒီ sequence ကို ကုဒ်သွင်းလိုက်သလိုမျိုး ဖြစ်သွားတယ်။,它在某种意义上已经编码了这个序列。
304,"And the decoder, in turn, using this input alongside its usual sequence input, will take a stab at decoding the sequence.",အဲဒီအခါ decoder က ဒီထည့်သွင်းချက်ကို သူ့ရဲ့ ပုံမှန် sequence ထည့်သွင်းချက်နဲ့အတူ အသုံးပြုပြီး sequence ကို ကုဒ်ပြန်ဖော်ဖို့ ကြိုးစားလိမ့်မယ်။,"而解码器, 反过来, 使用这个输入 和它通常的序列输入, 将会在解码序列时被捅一刀。"
305,"The decoder decodes the sequence, and outputs a word.",Decoder က sequence ကို ကုဒ်ပြန်ဖော်ပြီး စကားလုံးတစ်လုံး ထုတ်ပေးတယ်။,"解码器解码序列,输出一个单词。"
306,"As of now, we don't need to make sense of that word, but we can understand that the decoder is essentially decoding what the encoder has output.",အခုချိန်မှာတော့ ဒီစကားလုံးကို အဓိပ္ပာယ်ဖွင့်ဆိုဖို့ မလိုသေးပေမယ့် encoder က ထုတ်ပေးတဲ့အရာကို decoder က အနှစ်သာရအားဖြင့် ကုဒ်ပြန်ဖော်နေတယ်ဆိုတာ နားလည်နိုင်ပါတယ်။,"从现在开始,我们不需要理解这个词, 但我们可以理解,解码器基本上是解码器的输出。"
307,The start of sequence word here indicates that it should start decoding the sequence.,ဒီမှာရှိတဲ့ sequence စတင်ခြင်း စကားလုံးက sequence ကို ကုဒ်ပြန်ဖော်ဖို့ စတင်သင့်ကြောင်း ညွှန်ပြတယ်။,这里的序列单词开头表示它应该开始解码序列。
308,"Now that we have both the encoder numerical representation and an initial generated word, we don't need the encoder anymore.",Encoder ရဲ့ ဂဏန်းကိုယ်စားပြုမှုနဲ့ စတင်ထုတ်လုပ်ထားတဲ့ စကားလုံးတစ်ခု ရပြီဆိုတော့ encoder ကို ထပ်မံ မလိုအပ်တော့ဘူး။,"现在我们既有编码器数字代表,也有最初生成的单词, 我们不再需要编码器了。"
309,"As we have seen before with the decoder, it can act in an auto-regressive manner.",decoder နဲ့ ပတ်သက်ပြီး အရင်က မြင်ခဲ့ရတဲ့အတိုင်းပဲ သူက auto-regressive ပုံစံနဲ့ လုပ်ဆောင်နိုင်တယ်။,"正如我们以前对解码器所看到的那样,它可以自动递减的方式行事。"
310,The word it has just output can now be used as an input.,သူ ခုလေးတင် ထုတ်ပေးလိုက်တဲ့ စကားလုံးကို အခု ထည့်သွင်းချက်အဖြစ် သုံးနိုင်ပြီ။,它仅有输出的单词现在可以用作输入。
311,"This, in combination with the numerical representation output by the encoder, can now be used to generate a second word.",ဒါက encoder က ထုတ်ပေးထားတဲ့ ဂဏန်းကိုယ်စားပြုမှုနဲ့ ပေါင်းစပ်ပြီး ဒုတိယစကားလုံးကို ထုတ်လုပ်ဖို့ အသုံးပြုနိုင်တယ်။,"这与编码器的数字表示输出结合,现在可以用来生成第二个词。"
312,"Please note that the first word is still here, as the model still outputs it.",ပထမစကားလုံးက မော်ဒယ်က ဆက်ထုတ်ပေးနေတဲ့အတွက် ဒီမှာ ရှိနေဆဲဆိုတာ သတိထားပါ။,"请注意,第一个字仍然在这里,因为模式仍然是其产出。"
313,"However, we have grayed it out as we have no need for it anymore.",ဒါပေမယ့် ကျွန်တော်တို့ မလိုအပ်တော့တဲ့အတွက် မှိန်သွားအောင် လုပ်ထားတယ်။,"然而,我们已经把它灰化了,因为我们不再需要它了。"
314,"We can continue on and on, for example, until the decoder outputs a value that we consider a stopping value, like a dot meaning the end of a sequence.",ကျွန်တော်တို့ ဆက်ပြီး လုပ်ဆောင်နိုင်ပါတယ်၊ ဥပမာအားဖြင့် decoder က sequence ပြီးဆုံးခြင်းကို ဆိုလိုတဲ့ အစက်တစ်လုံးလိုမျိုး ရပ်တန့်တန်ဖိုးကို ထုတ်ပေးတဲ့အထိပေါ့။,"我们可以继续,比如说, 直到解码器输出出一个我们视为停止值的值, 像点代表序列的结束。"
315,"Here, we've seen the full mechanism of the encoder-decoder transformer.",ဒီမှာတော့ encoder-decoder transformer ရဲ့ လုပ်ဆောင်ပုံ အပြည့်အစုံကို မြင်ခဲ့ရပြီ။,"这里,我们看到了编码器-编码器变压器的完整装置。"
316,Let's go over it one more time.,နောက်တစ်ခေါက် ထပ်ကြည့်ရအောင်။,我们再重温一遍吧
317,We have an initial sequence that is sent to the encoder.,အစကနဦး sequence တစ်ခုကို encoder ဆီ ပို့တယ်။,我们有一个初始序列 发送到编码器。
318,That encoder output is then sent to the decoder for it to be decoded.,အဲဒီ encoder အထွက်ကို ကုဒ်ပြန်ဖော်ဖို့အတွက် decoder ဆီကို ပို့တယ်။,"然后将编码器输出发送到编码器,以便解码。"
319,"While it can now discard the encoder after a single use, the decoder will be used several times until we have generated every word that we need.",တစ်ကြိမ်အသုံးပြုပြီးနောက် encoder ကို စွန့်ပစ်နိုင်ပေမယ့် decoder ကိုတော့ လိုအပ်တဲ့ စကားလုံးတိုင်း ထုတ်လုပ်ပြီးတဲ့အထိ အကြိမ်များစွာ သုံးရပါလိမ့်မယ်။,"虽然它现在可以在一个用途之后丢弃编码器,但解码器将被多次使用,直到我们生成了我们所需要的每一个词。"
320,So let's see a concrete example with Translation Language Modeling.,ဒါဆို Translation Language Modeling နဲ့ ပတ်သက်တဲ့ တကယ့်ဥပမာတစ်ခုကို ကြည့်ရအောင်။,让我们看看翻译语言建模的具体例子。
321,"Also called transduction, which is the act of translating a sequence.",ဒါကို transduction လို့လည်း ခေါ်ပြီး sequence တစ်ခုကို ဘာသာပြန်တဲ့ လုပ်ဆောင်ချက် ဖြစ်တယ်။,"也叫""转换"", 也就是翻译序列的动作。"
322,"Here, we would like to translate this English sequence ""Welcome to NYC"" in French.","ဒီမှာ ""Welcome to NYC"" ဆိုတဲ့ အင်္ဂလိပ် sequence ကို ပြင်သစ်လို ဘာသာပြန်ချင်တယ်။","在此,我们想将英文的顺序“欢迎来到纽约市”翻译成法文。"
323,We're using a transformer model that is trained for that task explicitly.,ဒီလုပ်ငန်းအတွက် အတိအကျ လေ့ကျင့်ထားတဲ့ transformer မော်ဒယ်ကို သုံးနေတာပါ။,我们正在使用一个变压器模型 明确训练它来完成这项任务
324,We use the encoder to create a representation of the English sentence.,အင်္ဂလိပ်ဝါကျကို ကိုယ်စားပြုမှုတစ်ခု ဖန်တီးဖို့ encoder ကို သုံးတယ်။,我们用编码器来代表英语的句子。
325,"We cast this to the decoder, with the use of the start of sequence word, we ask it to output the first word.",ဒီအရာကို decoder ဆီ ပို့လိုက်ပြီး sequence စတင်ခြင်း စကားလုံးကို သုံးပြီး ပထမစကားလုံးကို ထုတ်ပေးဖို့ တောင်းဆိုတယ်။,"我们把这个投向解码器, 使用序列开头的单词, 我们要求它输出第一个单词。"
326,"It outputs bienvenue, which means welcome.",သူက bienvenue ကို ထုတ်ပေးတယ်၊ အဲဒါက welcome လို့ အဓိပ္ပာယ်ရတယ်။,"它产生双生成果,这意味着欢迎。"
327,And we then use bienvenue as the input sequence for the decoder.,ပြီးရင် bienvenue ကို decoder အတွက် ထည့်သွင်း sequence အဖြစ် သုံးတယ်။,然后我们用双元作为解码器的输入序列。
328,"This, alongside the encoder numerical representation, allows the decoder to predict the second word, à, which is to in English.","ဒီအရာက encoder ရဲ့ ဂဏန်းကိုယ်စားပြုမှုနဲ့အတူ decoder ကို ဒုတိယစကားလုံး ""à"" ကို ခန့်မှန်းနိုင်စေပါတယ်၊ အင်္ဂလိပ်လိုဆိုရင် ""to"" ပေါ့။","这与编码器数字表示法一道,使编码器能够预测第二个词,即英文。"
329,"Finally, we ask the decoder to predict a third word It predicts NYC, which is correct.",နောက်ဆုံးအနေနဲ့ decoder ကို တတိယစကားလုံး ခန့်မှန်းခိုင်းတော့ NYC ကို ခန့်မှန်းတယ်၊ ဒါက မှန်ကန်ပါတယ်။,"最后,我们请解码器预测第三个词 它预测纽约市,这是对的。"
330,We've translated the sentence.,ကျွန်တော်တို့ ဝါကျကို ဘာသာပြန်ပြီးပြီ။,我们已经翻译了句子
331,"Where the encoder-decoder really shines, is that we have an encoder and a decoder, which often do not share weights.",encoder-decoder တကယ်ထင်ရှားတဲ့နေရာကတော့ encoder နဲ့ decoder တို့မှာ အလေးချိန်တွေ မမျှဝေကြတာပဲ ဖြစ်တယ်။,"编码器-编码器真正闪耀的地方, 就是我们有一个编码器和一个编码器, 常常不分享重量。"
332,"Therefore, we have an entire block, the encoder, that can be trained to understand the sequence and extract the relevant information.",ဒါကြောင့် ကျွန်တော်တို့မှာ encoder ဆိုတဲ့ အပိုင်းတစ်ခုလုံး ရှိပြီး ၎င်းကို sequence ကို နားလည်ဖို့နဲ့ သက်ဆိုင်ရာ အချက်အလက်တွေကို ထုတ်ယူဖို့ လေ့ကျင့်နိုင်တယ်။,"因此,我们有一个完整的区块,即编码器,可以接受培训,以了解序列和提取相关信息。"
333,"For the translation scenario we've seen earlier, for example, this would mean parsing and understanding what was said in the English language.",ဥပမာအားဖြင့် အစောပိုင်းက မြင်ခဲ့ရတဲ့ ဘာသာပြန်ခြင်း အခြေအနေအတွက် ဒါက အင်္ဂလိပ်ဘာသာစကားနဲ့ ပြောခဲ့တာတွေကို ခွဲခြမ်းစိတ်ဖြာပြီး နားလည်တယ်ဆိုတဲ့ အဓိပ္ပာယ်ပါပဲ။,"例如,对于我们早些时候所看到的翻译假设, 这就意味着对英语语言所说的话进行区分和理解。"
334,"It would mean extracting information from that language, and putting all of that in a vector dense in information.",အဲဒီ ဘာသာစကားကနေ အချက်အလက်တွေ ထုတ်ယူပြီး အဲဒါတွေအားလုံးကို အချက်အလက် ပြည့်ဝတဲ့ vector တစ်ခုထဲ ထည့်သွင်းတာကို ဆိုလိုတယ်။,"这意味着从该语言中提取信息,并将所有信息放入信息密集的矢量中。"
335,"On the other hand, we have the decoder, whose sole purpose is to decode the numerical representation output by the encoder.",နောက်တစ်ဖက်မှာတော့ decoder ရှိပြီး သူ့ရဲ့ တစ်ခုတည်းသော ရည်ရွယ်ချက်က encoder က ထုတ်ပေးတဲ့ ဂဏန်းကိုယ်စားပြုမှုကို ကုဒ်ပြန်ဖော်ဖို့ ဖြစ်တယ်။,"另一方面,我们有解码器,它的唯一目的是解码编码器的数字表示输出。"
336,"This decoder can be specialized in a completely different language, or even modality like images or speech.",ဒီ decoder ကို လုံးဝကွဲပြားခြားနားတဲ့ ဘာသာစကားတစ်ခု ဒါမှမဟုတ် ပုံရိပ်တွေ ဒါမှမဟုတ် စကားပြောသံလိုမျိုး အခြားနည်းလမ်းတွေမှာပါ အထူးပြုနိုင်တယ်။,"此解码器可以使用完全不同的语言, 或甚至像图像或语言一样的方式, 进行专业化的解码器 。"
337,Encoders-decoders are special for several reasons.,Encoder-decoder တွေက အကြောင်းပြချက်များစွာကြောင့် ထူးခြားပါတယ်။,"由于若干原因,计算器-计算器是特殊的。"
338,"Firstly, they're able to manage sequence to sequence tasks, like translation that we have just seen.",ပထမအနေနဲ့ သူတို့က ကျွန်တော်တို့ ခုလေးတင် မြင်ခဲ့ရတဲ့ ဘာသာပြန်ခြင်းလိုမျိုး sequence to sequence လုပ်ငန်းတွေကို ကိုင်တွယ်နိုင်တယ်။,"首先,他们能够管理序列 以排序任务, 就像我们刚刚看到的翻译。"
339,"Secondly, the weights between the encoder and the decoder parts are not necessarily shared.",ဒုတိယအနေနဲ့ encoder နဲ့ decoder အပိုင်းတွေကြားက အလေးချိန်တွေဟာ မဖြစ်မနေ မျှဝေထားတာ မဟုတ်ပါဘူး။,"其次,编码器和编码器部件之间的权重不一定共享。"
340,Let's take another example of translation.,ဘာသာပြန်ခြင်းရဲ့ နောက်ထပ် ဥပမာတစ်ခုကို ကြည့်ရအောင်။,让我们再举一个翻译的例子。
341,"Here we're translating ""Transformers are powerful"" in French.","ဒီမှာ ""Transformers are powerful"" ကို ပြင်သစ်လို ဘာသာပြန်နေတာပါ။","这里我们用法文翻译""变异者的力量强大"""
342,"Firstly, this means that from a sequence of three words, we're able to generate a sequence of four words.",ပထမဦးစွာ၊ ဒါက စကားလုံးသုံးလုံးပါတဲ့ sequence ကနေ စကားလုံးလေးလုံးပါတဲ့ sequence ကို ထုတ်ပေးနိုင်တယ်ဆိုတဲ့ အဓိပ္ပာယ်ပါပဲ။,"首先,这意味着从三个字的顺序中, 我们就能产生四个字的顺序。"
343,"One could argue that this could be handled with a decoder that would generate the translation in an auto-regressive manner, and they would be right.",တချို့က ဒါကို decoder တစ်ခုကနေ auto-regressive ပုံစံနဲ့ ဘာသာပြန်ခြင်းကို ထုတ်ပေးနိုင်တယ်လို့ ပြောနိုင်ပြီး သူတို့ပြောတာ မှန်ပါတယ်။,"人们可以争辩说,这可以用一个解码器来处理,该解码器将以自动递减的方式产生翻译,而且它们是正确的。"
344,Another example of where sequence to sequence transformers shine is in summarization.,sequence to sequence transformer တွေ ထင်ရှားတဲ့ နောက်ထပ် ဥပမာတစ်ခုကတော့ အနှစ်ချုပ်ခြင်းပဲ ဖြစ်တယ်။,"另一个例子说明,测序变压器光照的顺序是总和。"
345,"Here we have a very long sequence, generally a full text, and we want to summarize it.",ဒီမှာ အလွန်ရှည်တဲ့ sequence တစ်ခုရှိတယ်၊ များသောအားဖြင့် စာသားအပြည့်အစုံပေါ့၊ ပြီးတော့ အဲဒါကို အနှစ်ချုပ်ချင်တယ်။,"我们这里有很长的顺序,一般是全文,我们想加以总结。"
346,"Since the encoder and decoders are separated, we can have different context lengths.",Encoder နဲ့ decoder တွေ ခွဲထားတာကြောင့် context အရှည် မတူညီတာမျိုး ရှိနိုင်တယ်။,"由于编码器和解码器是分开的,我们可以有不同的上下文长度。"
347,"For example, a very long context for the encoder, which handles the text, and a smaller context for the decoder which handles the summarized sequence.",ဥပမာအားဖြင့် စာသားကို ကိုင်တွယ်တဲ့ encoder အတွက် အလွန်ရှည်လျားတဲ့ context တစ်ခုနဲ့ အနှစ်ချုပ်ထားတဲ့ sequence ကို ကိုင်တွယ်တဲ့ decoder အတွက် ပိုသေးငယ်တဲ့ context တစ်ခု ရှိနိုင်တယ်။,"例如,处理文本的编码器有一个很长的上下文,处理摘要序列的编码器有一个较小的上下文。"
348,There are a lot of sequence to sequence models.,sequence to sequence မော်ဒယ်တွေ အများကြီး ရှိပါတယ်။,序列模型有很多顺序。
349,This contains a few examples of popular encoder-decoder models available in the transformers library.,ဒါက transformers library မှာ ရရှိနိုင်တဲ့ နာမည်ကြီး encoder-decoder မော်ဒယ်အချို့ရဲ့ ဥပမာအချို့ ပါဝင်ပါတယ်။,其中包括一些变压器图书馆中流行的编码器-编码器模型的例子。
350,"Additionally, you can load an encoder and a decoder inside an encoder-decoder model.",ဒါ့အပြင် encoder တစ်ခုနဲ့ decoder တစ်ခုကို encoder-decoder မော်ဒယ်ထဲမှာ ထည့်သွင်းနိုင်တယ်။,"此外,您还可以在编码器-编码器模型内装入编码器和编码器。"
351,"Therefore, according to the specific task you are targeting, you may choose to use specific encoders and decoders, which have proven their worth on these specific tasks.",ဒါကြောင့် သင်ပစ်မှတ်ထားတဲ့ လုပ်ငန်းပေါ်မူတည်ပြီး အဲဒီလုပ်ငန်းတွေမှာ တန်ဖိုးရှိကြောင်း သက်သေပြခဲ့တဲ့ သီးခြား encoder နဲ့ decoder တွေကို ရွေးချယ် အသုံးပြုနိုင်ပါတယ်။,"因此,根据您所选择的具体任务,您可以选择使用特定的编码器和编码器,这些编码器和编码器证明了他们在这些具体任务上的价值。"
352,What happens inside the pipeline function?,pipeline function ထဲမှာ ဘာတွေဖြစ်ပျက်နေသလဲ။,管道功能内会发生什么事?
353,"In this video, we will look at what actually happens when we use the pipeline function of the Transformers library.",ဒီဗီဒီယိုမှာ Transformers library ရဲ့ pipeline function ကို အသုံးပြုတဲ့အခါ တကယ်တမ်း ဘာတွေဖြစ်ပျက်နေလဲဆိုတာ ကြည့်သွားမယ်။,"使用变压器图书馆的管道功能后, 我们将会看到实际会发生什么。"
354,"More specifically, we will look at the sentiment analysis pipeline, and how it went from the two following sentences, to the positive and negative labels with their respective scores.",အထူးသဖြင့် sentiment analysis pipeline ကို ကြည့်ပြီး ဒီစာကြောင်းနှစ်ကြောင်းကနေ အပြုသဘောနဲ့ အနုတ်သဘော label တွေနဲ့ သူတို့ရဲ့ score တွေဆီ ဘယ်လိုရောက်သွားလဲဆိုတာ ကြည့်ပါမယ်။,"更具体地说,我们将审视情绪分析管道,以及它如何从以下两句发展到正面和负面标签及其各自的得分。"
355,"As we have seen in the pipeline presentation, there are three stages in the pipeline.",pipeline မိတ်ဆက်မှုမှာ မြင်ခဲ့ရတဲ့အတိုင်း pipeline မှာ အဆင့်သုံးဆင့် ရှိပါတယ်။,"正如我们在编审中看到的那样,编审中分为三个阶段。"
356,"First, we convert the raw texts to numbers the model can make sense of using a tokenizer.",ပထမဆုံးအနေနဲ့ မူရင်းစာသားတွေကို မော်ဒယ် နားလည်နိုင်တဲ့ ဂဏန်းတွေအဖြစ် tokenizer ကို သုံးပြီး ပြောင်းလဲတယ်။,"首先,我们把原始文本转换成数字, 模型可以解释使用代谢器的意义。"
357,"Then those numbers go through the model, which outputs logits.",ပြီးရင် အဲဒီဂဏန်းတွေက မော်ဒယ်ထဲ ဖြတ်သန်းသွားပြီး logits တွေကို ထုတ်ပေးတယ်။,"然后那些数字经过模型, 输出日志。"
358,"Finally, the post-processing steps transforms those logits into labels and scores.",နောက်ဆုံးမှာတော့ post-processing အဆင့်တွေက အဲဒီ logits တွေကို label တွေနဲ့ score တွေအဖြစ် ပြောင်းလဲပေးတယ်။,"最后,后处理步骤将这些登录转换成标签和分数。"
359,"Let's look in detail at those three steps and how to replicate them using the Transformers library, beginning with the first stage, tokenization.",အဲဒီအဆင့်သုံးဆင့်ကို အသေးစိတ် ကြည့်ရအောင်၊ ပြီးတော့ Transformers library ကို သုံးပြီး သူတို့ကို ဘယ်လို ပြန်လုပ်နိုင်လဲ ကြည့်မယ်၊ ပထမအဆင့်ဖြစ်တဲ့ tokenization ကနေ စလိုက်ရအောင်။,"让我们详细研究这三个步骤, 以及如何利用变形器图书馆复制它们, 从第一阶段开始, 象征化。"
360,The tokenization process has several steps.,Tokenization လုပ်ငန်းစဉ်မှာ အဆင့်များစွာ ရှိတယ်။,象征性化过程有几个步骤。
361,"First, the text is split into small chunks called tokens.",ပထမဦးစွာ စာသားကို tokens လို့ခေါ်တဲ့ အပိုင်းအစလေးတွေအဖြစ် ပိုင်းလိုက်တယ်။,"首先,文本被分割成小块,称为象征物。"
362,"They can be words, parts of words or punctuation symbols.",၎င်းတို့သည် စကားလုံးများ၊ စကားလုံးအစိတ်အပိုင်းများ သို့မဟုတ် ပုဒ်ဖြတ် သင်္ကေတများ ဖြစ်နိုင်တယ်။,它们可以是文字、文字的一部分或标点符号。
363,"Then the tokenizer will had some special tokens, if the model expect them.",ပြီးရင် မော်ဒယ်က လိုအပ်တယ်ဆိုရင် tokenizer က အထူး tokens အချို့ကို ထည့်ပေးလိမ့်မယ်။,如果模特儿期待的话 代币器会有一些特别的代币
364,Here the model uses expects a CLS token at the beginning and a SEP token at the end of the sentence to classify.,ဒီမှာတော့ မော်ဒယ်က ခွဲခြားသတ်မှတ်မယ့် ဝါကျရဲ့ အစမှာ CLS token နဲ့ အဆုံးမှာ SEP token ကို လိုအပ်တယ်။,"在这里,模型使用在句子开头期望一个 CLS 符号, 在句尾期待一个 SEP 符号进行分类 。"
365,"Lastly, the tokenizer matches each token to its unique ID in the vocabulary of the pretrained model.",နောက်ဆုံးမှာတော့ tokenizer က token တစ်ခုစီကို ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်ရဲ့ ဝေါဟာရထဲမှာရှိတဲ့ သူ့ရဲ့ ထူးခြားတဲ့ ID နဲ့ ကိုက်ညီအောင် လုပ်ပေးတယ်။,"最后,代号器将每个象征物都匹配到预训练型号词汇中独特的身份标识。"
366,"To load such a tokenizer, the Transformers library provides the AutoTokenizer API.",ဒီလို tokenizer ကို တင်ဖို့အတွက် Transformers library က AutoTokenizer API ကို ပေးထားတယ်။,"要装入这样的代谢器, 变换器库提供自动调制器 API 。"
367,"The most important method of this class is from_pretrained, which will download and cache the configuration and the vocabulary associated to a given checkpoint.",ဒီ class ရဲ့ အရေးအကြီးဆုံး နည်းလမ်းကတော့ from_pretrained ဖြစ်ပြီး ဒါက သတ်မှတ်ထားတဲ့ checkpoint နဲ့ ဆက်စပ်နေတဲ့ configuration နဲ့ vocabulary ကို ဒေါင်းလုဒ်လုပ်ပြီး သိမ်းဆည်းပေးတယ်။,"此类最重要的方法来自_ 预先训练,该方法将下载和隐藏与特定检查站相关的配置和词汇。"
368,Here the checkpoint used by default for the sentiment analysis pipeline is distilbert-base-uncased-finetuned-sst-2-English.,ဒီမှာ sentiment analysis pipeline အတွက် မူရင်းအတိုင်း သုံးတဲ့ checkpoint ကတော့ distilbert-base-uncased-finetuned-sst-2-English ဖြစ်ပါတယ်။,"在这里,默认用于情绪分析管道的检查站是断层- 基底- 不明的- 细微调整-2- 英文。"
369,"We instantiate a tokenizer associated with that checkpoint, then feed it the two sentences.",ဒီ checkpoint နဲ့ ဆက်စပ်တဲ့ tokenizer ကို ဖန်တီးပြီး စာကြောင်းနှစ်ကြောင်းကို ထည့်ပေးလိုက်တယ်။,"我们即刻将一个 与检查站有关的代币器, 然后喂它两个句子。"
370,"Since those two sentences are not of the same size, we will need to pad the shortest one to be able to build an array.",ဒီစာကြောင်းနှစ်ကြောင်းက အရွယ်အစား မတူတဲ့အတွက် array တစ်ခု တည်ဆောက်နိုင်ဖို့အတွက် အတိုဆုံးတစ်ခုကို pad လုပ်ဖို့ လိုအပ်ပါလိမ့်မယ်။,"由于这两个句子的大小不同,我们需要把最短的句子垫上,以便能够建立阵列。"
371,"This is done by the tokenizer with the option, padding=True.",ဒါကို tokenizer က padding=True ဆိုတဲ့ ရွေးချယ်မှုနဲ့ လုပ်ဆောင်ပေးတယ်။,"此操作由代号器完成, 带有选项, padding = True 。"
372,"With truncation=True, we ensure that any sentence longer than the maximum the model can handle is truncated.",truncation=True နဲ့ဆိုရင် မော်ဒယ် ကိုင်တွယ်နိုင်တဲ့ အများဆုံးထက် ရှည်တဲ့ မည်သည့်ဝါကျကိုမဆို ဖြတ်တောက်ကြောင်း သေချာစေတယ်။,"缩短=True后,我们确保超过模型所能处理的最长刑期的任何刑期都缩短。"
373,"Lastly, the return_tensors option tells the tokenizer to return a PyTorch tensor.",နောက်ဆုံးအနေနဲ့ return_tensors ရွေးချယ်မှုက tokenizer ကို PyTorch tensor ကို ပြန်ပေးဖို့ ပြောတယ်။,"最后, 返回- 十分器选项会让代号器返回一个 PyTorrch Exor 。"
374,"Looking at the result, we see we have a dictionary with two keys.",ရလဒ်ကို ကြည့်လိုက်ရင် key နှစ်ခုပါတဲ့ dictionary တစ်ခုကို တွေ့ရတယ်။,"看结果,我们看到我们有一个字典,有两个钥匙。"
375,"Input IDs contains the IDs of both sentences, with zero where the padding is applied.",Input IDs မှာ စာကြောင်းနှစ်ကြောင်းလုံးရဲ့ ID တွေ ပါဝင်ပြီး padding လုပ်ထားတဲ့နေရာမှာ သုည ပါဝင်တယ်။,"输入代号包含两个句子的代号,在应用拼贴符时为零。"
376,"The second key, attention mask, indicates where padding has been applied, so the model does not pay attention to it.",ဒုတိယ key ဖြစ်တဲ့ attention mask ကတော့ padding လုပ်ထားတဲ့နေရာကို ညွှန်ပြပြီး မော်ဒယ်က အဲဒီနေရာကို အာရုံစိုက်ခြင်း မရှိဘူး။,"第二个关键,即注意面罩,指明了铺垫的用途,因此模型没有注意。"
377,This is all what is inside the tokenization step.,ဒါတွေက tokenization အဆင့်ထဲမှာ ရှိတဲ့အရာတွေပဲ ဖြစ်ပါတယ်။,这就是象征化步骤内的一切。
378,"Now, let's have a look at the second step, the model.",ကဲ၊ ဒုတိယအဆင့်ဖြစ်တဲ့ မော်ဒယ်ကို ကြည့်ကြရအောင်။,"现在,让我们来看看第二步,模型。"
379,"As for the tokenizer, there is an AutoModel API with a from_pretrained method.",tokenizer လိုပဲ from_pretrained နည်းလမ်းပါတဲ့ AutoModel API ရှိတယ်။,"至于代号器,有一个自动模式API,使用使用预设方法。"
380,It will download and cache the configuration of the model as well as the pretrained weights.,သူက မော်ဒယ်ရဲ့ configuration နဲ့ ကြိုတင်လေ့ကျင့်ထားတဲ့ အလေးချိန်တွေကို ဒေါင်းလုဒ်လုပ်ပြီး သိမ်းဆည်းပေးလိမ့်မယ်။,它将下载和隐藏模型的配置以及预先培训的重量。
381,"However, the AutoModel API will only instantiate the body of the model, that is the part of the model that is left once the pretraining head is removed.",ဒါပေမယ့် AutoModel API က မော်ဒယ်ရဲ့ body ကိုပဲ အစပြုမှာပါ၊ ဆိုလိုတာက ကြိုတင်လေ့ကျင့်မှု head ကို ဖယ်ရှားပြီး ကျန်ခဲ့တဲ့ မော်ဒယ်အစိတ်အပိုင်းပေါ့။,"然而,AutoModel API只能使模型的体形即时化,这是模型的一部分,一旦培训前负责人被删除,模型就会留下。"
382,"It will output a high-dimensional tensor that is a representation of the sentences passed, but which is not directly useful for our classification problem.",သူက ထည့်သွင်းထားတဲ့ ဝါကျတွေရဲ့ ကိုယ်စားပြုမှုဖြစ်တဲ့ high-dimensional tensor တစ်ခုကို ထုတ်ပေးပေမယ့် ကျွန်တော်တို့ရဲ့ classification ပြဿနာအတွက် တိုက်ရိုက် အသုံးဝင်မှာ မဟုတ်ဘူး။,"它将产生一个高维的抗拉,它代表了已作出的判决,但对于我们的分类问题没有直接的用处。"
383,"Here the tensor has two sentences, each of 16 tokens, and the last dimension is the hidden size of our model, 768.",ဒီမှာ tensor မှာ ဝါကျနှစ်ကြောင်း ပါဝင်ပြီး တစ်ကြောင်းကို token ၁၆ ခုစီ ပါဝင်ကာ နောက်ဆုံးအတိုင်းအတာကတော့ ကျွန်တော်တို့ရဲ့ မော်ဒယ်ရဲ့ hidden size ၇၆၈ ဖြစ်တယ်။,"这里的抗拉有两个句子, 每个16个象征, 最后的维度是我们模型的隐藏大小, 768。"
384,"To get an output linked to our classification problem, we need to use the AutoModelForSequenceClassification class.",ကျွန်တော်တို့ရဲ့ classification ပြဿနာနဲ့ ချိတ်ဆက်ထားတဲ့ အထွက်တစ်ခု ရဖို့အတွက် AutoModelForSequenceClassification class ကို အသုံးပြုဖို့ လိုတယ်။,"要将输出与分类问题挂钩, 我们需要使用自动模式序列分类分类分类 。"
385,"It works exactly as the AutoModel class, except that it will build a model with a classification head.",သူက AutoModel class နဲ့ အတိအကျ အလုပ်လုပ်ပါတယ်၊ ဒါပေမယ့် သူက classification head ပါတဲ့ မော်ဒယ်ကို တည်ဆောက်ပေးတယ်။,"它与自动模式类完全相同, 但它会建立一个带有分类首字母的模型 。"
386,There is one auto class for each common NLP task in the Transformers library.,Transformers library မှာ အဖြစ်များတဲ့ NLP လုပ်ငန်းတစ်ခုစီတိုင်းအတွက် auto class တစ်ခုစီ ရှိတယ်။,"在变换器库中,每个通用 NLP 任务都有一个自动类。"
387,"Here after giving our model the two sentences, we get a tensor of size two by two, one result for each sentence and for each possible label.",ဒီမှာ မော်ဒယ်ကို စာကြောင်းနှစ်ကြောင်း ပေးပြီးနောက် နှစ်ခု-နှစ်ခု အရွယ်အစားရှိတဲ့ tensor တစ်ခုကို ရရှိပါတယ်၊ ဝါကျတစ်ခုစီအတွက် ရလဒ်တစ်ခုစီနဲ့ ဖြစ်နိုင်တဲ့ label တစ်ခုစီအတွက် ရလဒ်တစ်ခုစီပေါ့။,"在给我们的模范加上两句之后, 我们得到一个2乘2的格子, 每个句子和每个可能的标签都有一个结果。"
388,"Those outputs are not probabilities yet, we can see they don't sum to 1.",အဲဒီ အထွက်တွေက အခုထိ ဖြစ်နိုင်ခြေတွေ မဟုတ်သေးပါဘူး၊ သူတို့က ၁ ကို ပေါင်းစပ်တာ မရှိတာကို မြင်နိုင်တယ်။,"这些产出还不是概率,我们可以看到它们不等于1。"
389,This is because each model of the Transformers library returns logits.,ဒါက Transformers library ရဲ့ မော်ဒယ်တစ်ခုစီတိုင်းက logits တွေကို ပြန်ပေးလို့ ဖြစ်တယ်။,这是因为每个变换器库的模型 都返回日志。
390,"To make sense of those logits, we need to dig into the third and last step of the pipeline.",အဲဒီ logits တွေကို နားလည်ဖို့အတွက် pipeline ရဲ့ တတိယနဲ့ နောက်ဆုံးအဆင့်ကို တူးဖော်ဖို့ လိုတယ်။,"为了理解这些登机记录, 我们需要挖掘到管道的第三也是最后一步。"
391,"Post-processing, to convert logits into probabilities, we need to apply a SoftMax layers to them.",Post-processing မှာ logits တွေကို ဖြစ်နိုင်ခြေတွေအဖြစ် ပြောင်းလဲဖို့အတွက် ၎င်းတို့ပေါ်မှာ SoftMax layers ကို အသုံးချဖို့ လိုတယ်။,"后处理,要将登录转换为概率, 我们需要对它们应用软式最大层 。"
392,"As we can see, this transforms them into positive number that sum up to one.",သင်မြင်တဲ့အတိုင်းပဲ၊ ဒါက သူတို့ကို ပေါင်းလိုက်ရင် တစ်ခု ရရှိတဲ့ အပြုသဘော ဂဏန်းတွေအဖြစ် ပြောင်းလဲပေးတယ်။,"正如我们可以看到的那样,这把他们变成正数,等于一个。"
393,The last step is to know which of those corresponds to the positive or the negative label.,နောက်ဆုံးအဆင့်ကတော့ အဲဒါတွေထဲက ဘယ်ဟာက အပြုသဘော ဒါမှမဟုတ် အနုတ်သဘော label နဲ့ ကိုက်ညီလဲဆိုတာ သိဖို့ပဲ ဖြစ်တယ်။,最后一步是知道哪些与正或负标签对应。
394,This is given by the id2label field of the model config.,ဒါကို မော်ဒယ် config ရဲ့ id2label ကဏ္ဍကနေ ပေးထားတာပါ။,这是由模型配置的 id2 标签字段给出的 。
395,"The first probabilities, index zero, correspond to the negative label, and the seconds, index one, correspond to the positive label.",ပထမ ဖြစ်နိုင်ခြေများ index သုည သည် အနုတ်သဘော label နှင့် ကိုက်ညီပြီး၊ ဒုတိယ ဖြစ်နိုင်ခြေများ index တစ် သည် အပြုသဘော label နှင့် ကိုက်ညီသည်။,"第一种概率,即零指数,与负标签相对应,秒,即1指数,与正标签相对应。"
396,This is how our classifier built with the pipeline function picked those labels and computed those scores.,ဒါကတော့ pipeline function နဲ့ တည်ဆောက်ထားတဲ့ ကျွန်တော်တို့ရဲ့ classifier က အဲဒီ label တွေကို ဘယ်လို ရွေးချယ်ပြီး score တွေကို တွက်ချက်ခဲ့လဲဆိုတာပါပဲ။,这就是我们通过管道功能建立的分类师 如何挑选这些标签 并计算这些分数。
397,"Now that you know how each steps works, you can easily tweak them to your needs.",အခု အဆင့်တစ်ဆင့်ချင်းစီ ဘယ်လိုအလုပ်လုပ်လဲဆိုတာ သိပြီဆိုတော့ သင့်လိုအပ်ချက်နဲ့အညီ အလွယ်တကူ ပြောင်းလဲနိုင်ပါပြီ။,"现在你知道每个步骤是如何运作的了, 你可以很容易地把它们调整到你的需求。"
398,What happens inside the pipeline function?,Pipeline function ထဲမှာ ဘာတွေဖြစ်ပျက်နေတာလဲ။,管道功能内会发生什么事?
399,"In this video, we will look at what actually happens when we use the pipeline function of the Transformers library.",ဒီဗီဒီယိုမှာ Transformers library ရဲ့ pipeline function ကို သုံးတဲ့အခါ တကယ်တမ်း ဘာတွေဖြစ်ပျက်နေလဲဆိုတာ ကြည့်သွားကြရအောင်။,"使用变压器图书馆的管道功能后, 我们将会看到实际会发生什么。"
400,"More specifically, we will look at the sentiment analysis pipeline, and how it went from the two following sentences to the positive and negative labels with their respective scores.",အထူးသဖြင့် sentiment analysis pipeline ကို ကြည့်ပြီး ဒီစာကြောင်းနှစ်ကြောင်းကနေ အပြုသဘောနဲ့ အနုတ်သဘော label တွေနဲ့ သူတို့ရဲ့ score တွေဆီ ဘယ်လိုရောက်သွားလဲဆိုတာ လေ့လာမယ်။,"更具体地说,我们将审视情绪分析管道,以及它如何从以下两句发展到正面和负面标签及其各自的得分。"
401,"As we have seen in the pipeline video, there are three stages in the pipeline.",pipeline ဗီဒီယိုမှာ မြင်ခဲ့ရတဲ့အတိုင်း pipeline မှာ အဆင့်သုံးဆင့် ရှိပါတယ်။,"正如我们在输油管录像中看到的那样,输油管分为三个阶段。"
402,"First, we convert the raw texts to numbers the model can make sense of, using a tokenizer.",ပထမဆုံးအနေနဲ့ မူရင်းစာသားတွေကို မော်ဒယ် နားလည်နိုင်တဲ့ ဂဏန်းတွေအဖြစ် tokenizer ကို သုံးပြီး ပြောင်းလဲရတယ်။,"首先,我们把原始文本转换成数字, 模型可以理解, 使用代谢器。"
403,"Then, those numbers go through the model, which outputs logits.",ပြီးရင် အဲဒီဂဏန်းတွေက မော်ဒယ်ထဲ ဖြတ်သန်းသွားပြီး logits တွေကို ထုတ်ပေးတယ်။,"然后,这些数字经过模型, 输出记录。"
404,"Finally, the post-processing steps transforms those logits into labels and score.",နောက်ဆုံးမှာတော့ post-processing အဆင့်တွေက အဲဒီ logits တွေကို label တွေနဲ့ score တွေအဖြစ် ပြောင်းလဲပေးတယ်။,"最后,后处理步骤将这些登录转换成标签和得分。"
405,"Let's look in detail at those three steps, and how to replicate them using the Transformers library, beginning with the first stage, tokenization.",အဲဒီအဆင့်သုံးဆင့်ကို အသေးစိတ် ကြည့်ရအောင်၊ ပြီးတော့ Transformers library ကို သုံးပြီး သူတို့ကို ဘယ်လို ပြန်လုပ်နိုင်လဲ ကြည့်မယ်၊ ပထမအဆင့်ဖြစ်တဲ့ tokenization ကနေ စလိုက်ရအောင်။,"让我们详细研究这三个步骤, 以及如何利用变形器图书馆复制它们, 从第一阶段开始, 象征化。"
406,"First, the text is split into small chunks called token.",ပထမဆုံးအနေနဲ့ စာသားကို token လို့ခေါ်တဲ့ အပိုင်းအစလေးတွေအဖြစ် ပိုင်းလိုက်တယ်။,"首先,文本被分割成小块,称为象征性。"
407,Then the tokenizer will had some special tokens if the model expect them.,ပြီးရင် မော်ဒယ်က လိုအပ်မယ်ဆိုရင် tokenizer က အထူး tokens အချို့ကို ထည့်ပေးလိမ့်မယ်။,如果模特儿期待的话 代币器会有一些特别的代币
408,"Here, the model used expects a CLS token at the beginning and a SEP token at the end of the sentence to classify.",ဒီမှာတော့ အသုံးပြုတဲ့ မော်ဒယ်က ခွဲခြားသတ်မှတ်မယ့် ဝါကျရဲ့ အစမှာ CLS token နဲ့ အဆုံးမှာ SEP token ကို လိုအပ်တယ်။,"在此使用的模型期望在句子开头有一个 CLS 标记, 在句尾有一个 SEP 标记可以分类 。"
409,"The most important method of this class is from_pretrained, which will download and cache the configuration and the vocabulary associated to a given checkpoint.",ဒီ class ရဲ့ အရေးအကြီးဆုံး method ကတော့ from_pretrained ဖြစ်ပြီး ဒါက သတ်မှတ်ထားတဲ့ checkpoint နဲ့ ဆက်စပ်နေတဲ့ configuration နဲ့ vocabulary ကို ဒေါင်းလုဒ်လုပ်ပြီး သိမ်းဆည်းပေးတယ်။,"此类最重要的方法来自_ 预先训练,该方法将下载和隐藏与特定检查站相关的配置和词汇。"
410,"Here, the checkpoint used by default for the sentiment analysis pipeline is distilbert base uncased finetuned sst2 English, which is a bit of a mouthful.",ဒီမှာ sentiment analysis pipeline အတွက် မူရင်းအတိုင်း သုံးတဲ့ checkpoint ကတော့ distilbert base uncased finetuned sst2 English ဖြစ်ပြီး နာမည်က နည်းနည်း ရှည်တယ်။,"在这里,默认情况下用于情绪分析管道的检查站是空洞的基点,未加记载,经过微调的英语,有点口齿不清。"
411,"Since those two sentences are not of the same size, we will need to pad the shortest one to be able to build an array.",ဒီစာကြောင်းနှစ်ကြောင်းက အရွယ်အစား မတူတဲ့အတွက် array တစ်ခု တည်ဆောက်နိုင်ဖို့ အတိုဆုံးတစ်ခုကို pad လုပ်ဖို့ လိုအပ်ပါလိမ့်မယ်။,"由于这两个句子的大小不同,我们需要把最短的句子垫上,以便能够建立阵列。"
412,This is done by the tokenizer with the option padding=True.,ဒါကို tokenizer က padding=True ဆိုတဲ့ ရွေးချယ်မှုနဲ့ လုပ်ဆောင်ပေးတယ်။,"此操作由代号器完成, 使用选项标签 = True 。"
413,"With truncation=True, we ensure that any sentence longer than the maximum the model can handle is truncated.",truncation=True နဲ့ဆိုရင် မော်ဒယ် ကိုင်တွယ်နိုင်တဲ့ အများဆုံးထက် ရှည်တဲ့ ဝါကျကို ဖြတ်တောက်ကြောင်း သေချာစေတယ်။,"缩短=True后,我们确保超过模型所能处理的最长刑期的任何刑期都缩短。"
414,"Lastly, the return_tensors option tells the tokenizer to return a PyTorch tensor.",နောက်ဆုံးအနေနဲ့ return_tensors ရွေးချယ်မှုက tokenizer ကို PyTorch tensor ပြန်ပေးဖို့ ပြောတယ်။,"最后, 返回- 十分器选项会让代号器返回一个 PyTorrch Exor 。"
415,"Input IDs contains the IDs of both sentences, with zeros where the padding is applied.",Input IDs မှာ စာကြောင်းနှစ်ကြောင်းလုံးရဲ့ ID တွေ ပါဝင်ပြီး padding လုပ်ထားတဲ့နေရာမှာ သုညတွေ ပါဝင်တယ်။,"输入代号包含两个句子的代号,在应用拼贴符时为零。"
416,"Now let's have a look at the second step, the model.",ကဲ၊ ဒုတိယအဆင့်ဖြစ်တဲ့ မော်ဒယ်ကို ကြည့်ကြရအောင်။,"现在让我们来看看第二步,模型。"
417,"As for the tokenizer, there is an AutoModel API, with a from_pretrained method.",tokenizer လိုပဲ from_pretrained method ပါတဲ့ AutoModel API ရှိတယ်။,"至于代号器,有一个自动模式API, 使用来自预设方法 。"
418,"However, the AutoModel API will only instantiate the body of the model, that is, the part of the model that is left once the pretraining head is removed.",ဒါပေမယ့် AutoModel API က မော်ဒယ်ရဲ့ body ကိုပဲ အစပြုမှာပါ၊ ဆိုလိုတာက ကြိုတင်လေ့ကျင့်မှု head ကို ဖယ်ရှားပြီး ကျန်ခဲ့တဲ့ မော်ဒယ်အစိတ်အပိုင်းပေါ့။,"然而,AutoModel API只能使模型的体体即时化,即模型在培训前头被删除后留下的部分。"
419,"Here the tensor has two sentences, each of sixteen token, and the last dimension is the hidden size of our model, 768.",ဒီမှာ tensor မှာ ဝါကျနှစ်ကြောင်း ပါဝင်ပြီး တစ်ကြောင်းကို token ၁၆ ခုစီ ပါဝင်ကာ နောက်ဆုံးအတိုင်းအတာကတော့ ကျွန်တော်တို့ရဲ့ မော်ဒယ်ရဲ့ hidden size ၇၆၈ ဖြစ်တယ်။,"这里的抗龙有两个句子, 每个16个象征, 最后的维度是我们模型的隐藏大小, 768。"
420,"To get an output linked to our classification problem, we need to use the AutoModelForSequenceClassification class.",ကျွန်တော်တို့ရဲ့ classification ပြဿနာနဲ့ ချိတ်ဆက်ထားတဲ့ အထွက်တစ်ခု ရဖို့အတွက် AutoModelForSequenceClassification class ကို သုံးဖို့ လိုတယ်။,"要将输出与分类问题挂钩, 我们需要使用自动模式序列分类分类分类 。"
421,"Here, after giving our model the two sentences, we get a tensor of size two by two; one result for each sentence and for each possible label.",ဒီမှာ မော်ဒယ်ကို စာကြောင်းနှစ်ကြောင်း ပေးပြီးနောက် နှစ်ခု-နှစ်ခု အရွယ်အစားရှိတဲ့ tensor တစ်ခုကို ရရှိပါတယ်၊ ဝါကျတစ်ခုစီအတွက် ရလဒ်တစ်ခုစီနဲ့ ဖြစ်နိုင်တဲ့ label တစ်ခုစီအတွက် ရလဒ်တစ်ခုစီပေါ့။,"在这里,在给我们的模范加上两句之后, 我们得到一连串的二乘二尺寸; 每个句子和每个可能的标签都有一个结果。"
422,Those outputs are not probabilities yet.,အဲဒီ အထွက်တွေက အခုထိ ဖြစ်နိုင်ခြေတွေ မဟုတ်သေးပါဘူး။,这些产出还不是概率。
423,We can see they don't sum to 1.,သူတို့က ၁ ကို ပေါင်းစပ်တာ မရှိတာကို မြင်နိုင်တယ်။,"我们可以看到,它们不等于1。"
424,"To make sense of those logits, we need to dig into the third and last step of the pipeline, post-processing.",အဲဒီ logits တွေကို နားလည်ဖို့အတွက် pipeline ရဲ့ တတိယနဲ့ နောက်ဆုံးအဆင့်ဖြစ်တဲ့ post-processing ကို တူးဖော်ဖို့ လိုတယ်။,"为了理解这些记录,我们需要挖掘管道的第三和最后一步,即后处理。"
425,"To convert logits into probabilities, we need to apply a SoftMax layer to them.",logits တွေကို ဖြစ်နိုင်ခြေတွေအဖြစ် ပြောင်းလဲဖို့အတွက် ၎င်းတို့ပေါ်မှာ SoftMax layer ကို အသုံးချဖို့ လိုတယ်။,"要将登录转换为概率, 我们需要对它们应用软负层 。"
426,"As we can see, this transforms them into positive numbers that sum up to 1.",သင်မြင်တဲ့အတိုင်းပဲ၊ ဒါက သူတို့ကို ပေါင်းလိုက်ရင် တစ် ရရှိတဲ့ အပြုသဘော ဂဏန်းတွေအဖြစ် ပြောင်းလဲပေးတယ်။,"正如我们所看到的,这把他们变成正数, 等于1。"
427,"The first probabilities, index 0, correspond to the negative label, and the seconds, index 1, correspond to the positive label.",ပထမ ဖြစ်နိုင်ခြေတွေ index 0 ဟာ အနုတ်သဘော label နဲ့ ကိုက်ညီပြီး၊ ဒုတိယ ဖြစ်နိုင်ခြေတွေ index 1 ဟာ အပြုသဘော label နဲ့ ကိုက်ညီတယ်။,"第一个概率,指数0,对应负标签,秒,指数1,对应正标签。"
428,How to instantiate a Transformers model.,Transformer မော်ဒယ်တစ်ခုကို ဘယ်လို စတင်အသုံးပြုမလဲ။,如何即时化变形模型。
429,"In this video, we'll look at how we can create a user model from the Transformers library.",ဒီဗီဒီယိုမှာတော့ Transformers library ကနေ မော်ဒယ်တစ်ခုကို ဘယ်လို ဖန်တီးပြီး သုံးနိုင်မလဲဆိုတာ ကြည့်သွားမယ်။,"在这部影片中,我们将研究如何从变形者图书馆 创建用户模型。"
430,As we have seen before the AutoModel class allows you to instantiate a pretrained model from any checkpoint on the Hugging Face Hub.,အရင်က မြင်ခဲ့ရတဲ့အတိုင်း AutoModel class က Hugging Face Hub ပေါ်က မည်သည့် checkpoint ကနေမဆို ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်တစ်ခုကို စတင်အသုံးပြုနိုင်ဖို့ ခွင့်ပြုတယ်။,"正如我们在AutoModel课程之前所看到的那样, 允许您从Hugging Face Club的任何检查站 即刻调出一个预训练模型。"
431,It'll pick the right model class from the library to instantiate the proper architecture and loads of weights as the pretrained model inside.,သူက သင့်တော်တဲ့ ဗိသုကာပုံစံကို စတင်အသုံးပြုဖို့အတွက် library ကနေ မှန်ကန်တဲ့ မော်ဒယ် class ကို ရွေးပြီး ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်ရဲ့ အလေးချိန်တွေကို အတွင်းထဲမှာ တင်ပေးတယ်။,它会从图书馆中挑选合适的模型类 来即时处理适当的建筑 和重量负荷 作为内部预先训练的模型
432,"As we can see, when given a BERT checkpoint we end up with a BertModel and similarly, for GPT-2 or BART.",သင်မြင်တဲ့အတိုင်း BERT checkpoint ကို ပေးလိုက်တဲ့အခါ BertModel ကို ရရှိပြီး GPT-2 ဒါမှမဟုတ် BART အတွက်လည်း ဒီလိုပါပဲ။,"正如我们所看到的,当给予BERT检查站时,我们最终会有一个BertModel, 类似地,GPT-2或BART。"
433,"Behind the scenes,this API can take the name of a checkpoint on the Hub in which case it will download and cache the configuration file as well as a model weights file.",အနောက်ကွယ်မှာ ဒီ API က Hub ပေါ်က checkpoint ရဲ့ နာမည်ကို ယူနိုင်ပြီး အဲဒီအခါမှာ configuration file နဲ့ model weights file ကိုပါ ဒေါင်းလုဒ်လုပ်ပြီး သိမ်းဆည်းပေးတယ်။,"在幕后, 这个 API 可以使用枢纽上一个检查站的名字, 这样它就可以下载并隐藏配置文件以及一个模型重量文件 。"
434,You can also specify the path to a local folder that contains a valid configuration file and a model of weights file.,မှန်ကန်တဲ့ configuration file နဲ့ model weights file ပါဝင်တဲ့ local folder တစ်ခုရဲ့ လမ်းကြောင်းကိုလည်း သတ်မှတ်ပေးနိုင်တယ်။,"您也可以指定本地文件夹的路径,该路径包含一个有效的配置文件和一个重量文件模型。"
435,"To instantiate the pretrained model, the AutoModel API will first open the configuration file to look at a configuration class that should be used.",ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်ကို စတင်အသုံးပြုဖို့ AutoModel API က ပထမဆုံး configuration file ကို ဖွင့်ပြီး အသုံးပြုသင့်တဲ့ configuration class ကို ကြည့်တယ်။,"要即时转换预培训模式, AutoModel API 将首先打开配置文件, 以查看应该使用的配置类别 。"
436,"The configuration class depends on the type of the model BERT, GPT-2 or BART for instance.",configuration class က BERT၊ GPT-2 ဒါမှမဟုတ် BART လိုမျိုး မော်ဒယ်အမျိုးအစားပေါ် မူတည်တယ်။,配置类别取决于模型BERT、GPT-2或BART等型号的类型。
437,"Once it has a proper configuration class, it can instantiate that configuration which is a blueprint to know how to create the model.",မှန်ကန်တဲ့ configuration class ရပြီဆိုရင် မော်ဒယ်ကို ဘယ်လို ဖန်တီးရမလဲ သိဖို့အတွက် အဲဒီ configuration ကို စတင်အသုံးပြုနိုင်တယ်။,"一旦它有一个合适的配置类, 它就可以即时转换这个配置, 这个配置是一个蓝图, 来知道如何创建模型 。"
438,"It also uses this configuration class to find the proper model class, which is then combined with the loaded configuration to load the model.",ဒီကိရိယာက မှန်ကန်တဲ့ မော်ဒယ် class ကို ရှာဖို့အတွက် ဒီ configuration class ကိုလည်း သုံးပြီး အဲဒါကို တင်ထားတဲ့ configuration နဲ့ ပေါင်းစပ်ပြီး မော်ဒယ်ကို တင်တယ်။,"它还使用此配置类来找到合适的模型类, 然后与装入模型的装入配置相结合 。"
439,This model is not yet a pretrained model as it has just been initialized with random weights.,ဒီမော်ဒယ်က ကျပန်း အလေးချိန်တွေနဲ့ အစပြုထားရုံရှိသေးလို့ ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ် မဟုတ်သေးဘူး။,"这个模型还不是一个预先培训的模型,因为刚刚开始使用随机加权法。"
440,The last step is to load the weight from the model file inside this model.,နောက်ဆုံးအဆင့်ကတော့ model file ကနေ အလေးချိန်တွေကို ဒီမော်ဒယ်ထဲ ထည့်သွင်းဖို့ပဲ ဖြစ်တယ်။,最后一步是从模型文件中加载重量。
441,To easily load the configuration of a model from any checkpoint or folder containing the configuration file.,မည်သည့် checkpoint ဒါမှမဟုတ် configuration file ပါဝင်တဲ့ folder ကနေမဆို မော်ဒယ်တစ်ခုရဲ့ configuration ကို အလွယ်တကူ တင်နိုင်ဖို့။,方便地从包含配置文件的任何检查站或文件夹装入模型配置 。
442,We can use the AutoConfig class.,AutoConfig class ကို သုံးနိုင်တယ်။,我们可以使用AutoConfig类。
443,"Like the AutoModel class, it will pick the right configuration class from the library.",AutoModel class လိုပဲ သူက library ကနေ မှန်ကန်တဲ့ configuration class ကို ရွေးလိမ့်မယ်။,"和AutoModel类一样,它会从库中选择正确的配置类。"
444,"We can also use a specific class corresponding to a checkpoint, but we will need to change the code each time we want to try a different model architecture.",checkpoint နဲ့ ကိုက်ညီတဲ့ သီးခြား class ကိုလည်း သုံးနိုင်ပေမယ့် မော်ဒယ် ဗိသုကာပုံစံ မတူတာကို စမ်းချင်တိုင်း code ကို ပြောင်းလဲဖို့ လိုအပ်ပါလိမ့်မယ်။,"我们也可以使用一个与检查站相对应的具体类别,但我们每次尝试不同的模式架构时,都需要修改代码。"
445,"As we said before, the configuration of a model is a blueprint that contains all the information necessary to create the model architecture.",အရင်ပြောခဲ့သလိုပဲ မော်ဒယ်တစ်ခုရဲ့ configuration ဟာ မော်ဒယ် ဗိသုကာပုံစံကို ဖန်တီးဖို့ လိုအပ်တဲ့ အချက်အလက်အားလုံးပါဝင်တဲ့ ပုံစံကြမ်းတစ်ခု ဖြစ်တယ်။,"正如我们以前说过的那样,模型的配置是一个蓝图,其中包含创建模型结构所需的所有信息。"
446,"For instance, the BERT model associated with the bert-base-cased checkpoint has 12 layers, a hidden side of 768 and a vocabulary side of 28,996.","ဥပမာအားဖြင့် bert-base-cased checkpoint နဲ့ ဆက်စပ်နေတဲ့ BERT မော်ဒယ်မှာ အလွှာ ၁၂ ခု၊ hidden size ၇၆၈ နဲ့ vocabulary size ၂၈,၉၉၆ ရှိတယ်။","例如,与BERT基底检查点有关的BERT模型有12层,隐藏面为768层,词汇面为28 996层。"
447,"Once we have the configuration, we can create a model that does the same architecture as our checkpoint, but is randomly initialized.",configuration ရပြီဆိုရင် ကျွန်တော်တို့ရဲ့ checkpoint နဲ့ ဗိသုကာပုံစံ တူညီပေမယ့် ကျပန်း အစပြုထားတဲ့ မော်ဒယ်တစ်ခုကို ဖန်တီးနိုင်တယ်။,"一旦我们有了配置, 我们可以创建一个模型 来做与我们的检查站相同的结构, 但随机初始化。"
448,We can then train it from scratch.,ပြီးရင် အစကနေ ပြန်လေ့ကျင့်နိုင်တယ်။,然后我们可以从头开始训练它。
449,"Like any bio PyTorch module, We can also change any part of the configuration by using keyword arguments.",PyTorch module တစ်ခုလိုပဲ keyword arguments တွေကို သုံးပြီး configuration ရဲ့ ဘယ်အစိတ်အပိုင်းကိုမဆို ပြောင်းလဲနိုင်တယ်။,我们也可以使用关键词参数来改变配置的任何部分。
450,The second snippet of code instantiates a randomly initialized BERT model with 10 layers instead of 12.,ဒုတိယ code အပိုင်းမှာ အလွှာ ၁၂ ခုအစား ၁၀ ခုပါတဲ့ ကျပန်း အစပြုထားတဲ့ BERT မော်ဒယ်ကို စတင်အသုံးပြုထားတယ်။,"代码的第二个片段即时随机初始化的 BERT 模型有10层,而不是12层。"
451,Saving a model once it's trained or fine-tuned is very easy.,မော်ဒယ်တစ်ခုကို လေ့ကျင့်ပြီး သို့မဟုတ် fine-tune လုပ်ပြီးနောက် သိမ်းဆည်းတာက အရမ်းလွယ်ပါတယ်။,一旦模型经过训练或微调后就很容易保存
452,We just have to use a safe pretrained method.,save pretrained method ကို သုံးရုံပါပဲ။,我们只需要使用一个安全的预训练方法
453,"Here the model will be saved in a folder named ""my-bert-model"" inside the current working directory.","ဒီမှာ မော်ဒယ်ကို လက်ရှိအလုပ်လုပ်နေတဲ့ directory ထဲက ""my-bert-model"" လို့ နာမည်ပေးထားတဲ့ folder ထဲမှာ သိမ်းဆည်းမှာ ဖြစ်တယ်။",在此模式将保存在目前工作目录中名为“ 我自由模式” 的文件夹中 。
454,Such a model can then be reloaded using the form pretrained method.,ဒီလို မော်ဒယ်ကို from pretrained method ကို သုံးပြီး ပြန်တင်နိုင်ပါတယ်။,"这样,这种模型就可以使用预先培训的表格方法重新装上。"
455,"To learn how to easily approach this model to that, check out the push to a video.",ဒီမော်ဒယ်ကို ဘယ်လို လွယ်လွယ်ကူကူ ချဉ်းကပ်ရမလဲဆိုတာ သိဖို့အတွက် push to a video ကို ကြည့်လိုက်ပါ။,"学习如何轻而易举地使用这个模式,"
456,How to instantiate the Transformers model?,Transformer မော်ဒယ်ကို ဘယ်လို စတင်အသုံးပြုမလဲ။,如何即时化变形模型?
457,"In this video, we will look at how we can create and use a model from the Transformers library.",ဒီဗီဒီယိုမှာ Transformers library ကနေ မော်ဒယ်တစ်ခုကို ဘယ်လို ဖန်တီးပြီး သုံးနိုင်မလဲဆိုတာ ကြည့်သွားမယ်။,我们将研究如何创造和使用来自变形者图书馆的模型。
458,"As we've seen before, the TFAutoModel class allows you to instantiate a pre-trained model from any checkpoint on the Hugging Face Hub.",အရင်က မြင်ခဲ့ရတဲ့အတိုင်း TFAutoModel class က Hugging Face Hub ပေါ်က မည်သည့် checkpoint ကနေမဆို ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်တစ်ခုကို စတင်အသုံးပြုနိုင်ဖို့ ခွင့်ပြုတယ်။,"正如我们以前所见,TFAUTOModel班 允许你从 Hugging Face Club 上的任何检查站 抽调一个预训练模型"
459,It will pick the right model class from the library to instantiate the proper architecture and load the weights of the pre-trained model inside.,သူက သင့်တော်တဲ့ ဗိသုကာပုံစံကို စတင်အသုံးပြုဖို့အတွက် library ကနေ မှန်ကန်တဲ့ မော်ဒယ် class ကို ရွေးပြီး ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်ရဲ့ အလေးချိန်တွေကို အတွင်းထဲမှာ တင်ပေးတယ်။,"它将从图书馆中挑选合适的模型类,以即时处理适当的结构,并将预先训练过的模型的重量加载在内。"
460,"As we can see, when given a BERT checkpoint, we end up with a TFBertModel, and similarly for GPT2 or BART.",သင်မြင်တဲ့အတိုင်း BERT checkpoint ကို ပေးလိုက်တဲ့အခါ TFBertModel ကို ရရှိပြီး GPT2 ဒါမှမဟုတ် BART အတွက်လည်း ဒီလိုပါပဲ။,"正如我们所看到的,当给予BERT检查站时,我们最终会有一个TFBertModel, GPT2 或 BART 类似。"
461,"Behind the scenes, this API can take the name of a checkpoint on the Hub, in which case it will download and cache the configuration file as well as the model weights file.",အနောက်ကွယ်မှာ ဒီ API က Hub ပေါ်က checkpoint ရဲ့ နာမည်ကို ယူနိုင်ပြီး အဲဒီအခါမှာ configuration file နဲ့ model weights file ကိုပါ ဒေါင်းလုဒ်လုပ်ပြီး သိမ်းဆည်းပေးတယ်။,"在幕后, 这个 API 可以使用枢纽上一个检查站的名字, 这样它就可以下载并隐藏配置文件 以及模型重量文件 。"
462,You can also specify the path to a local folder that contains a valid configuration file and a model weights file.,မှန်ကန်တဲ့ configuration file နဲ့ model weights file ပါဝင်တဲ့ local folder တစ်ခုရဲ့ လမ်းကြောင်းကိုလည်း သတ်မှတ်ပေးနိုင်တယ်။,"您也可以指定本地文件夹的路径,该路径包含一个有效的配置文件和一个模型加权文件。"
463,"To instantiate the pre-trained model, the TFAutoModel API will first open the configuration file to look at the configuration class that should be used.",ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်ကို စတင်အသုံးပြုဖို့ TFAutoModel API က ပထမဆုံး configuration file ကို ဖွင့်ပြီး အသုံးပြုသင့်တဲ့ configuration class ကို ကြည့်တယ်။,"要即时转换预训练模式, TFAUTOModel API 将首先打开配置文件, 查看应该使用的配置类别 。"
464,"The configuration class depends on the type of the model, BERT, GPT2 or BART for instance.",configuration class က BERT၊ GPT2 ဒါမှမဟုတ် BART လိုမျိုး မော်ဒယ်အမျိုးအစားပေါ် မူတည်တယ်။,"配置类别取决于模型的类型,例如BERT、GPT2或BART。"
465,"Once it has the proper configuration class, it can instantiate that configuration, which is a blueprint to know how to create the model.",မှန်ကန်တဲ့ configuration class ရပြီဆိုရင် မော်ဒယ်ကို ဘယ်လို ဖန်တီးရမလဲ သိဖို့အတွက် အဲဒီ configuration ကို စတင်အသုံးပြုနိုင်တယ်။,"一旦它有了合适的配置类, 它就可以即时地进行这种配置, 这是一个知道如何创建模型的蓝图。"
466,"It also uses this configuration class to find the proper model class, which is combined with the loaded configuration to load the model.",ဒီကိရိယာက မှန်ကန်တဲ့ မော်ဒယ် class ကို ရှာဖို့အတွက် ဒီ configuration class ကိုလည်း သုံးပြီး အဲဒါကို တင်ထားတဲ့ configuration နဲ့ ပေါင်းစပ်ပြီး မော်ဒယ်ကို တင်တယ်။,"它还使用此配置类来找到合适的模型类, 与装入模型的装入配置相结合 。"
467,This model is not yet our pre-trained model as it has just been initialized with random weights.,ဒီမော်ဒယ်က ကျပန်း အလေးချိန်တွေနဲ့ အစပြုထားရုံရှိသေးလို့ ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ် မဟုတ်သေးဘူး။,"这个模型还不是我们培训前的模型,因为它刚刚开始使用随机权重。"
468,The last step is to load the weights from the model file inside this model.,နောက်ဆုံးအဆင့်ကတော့ model file ကနေ အလေးချိန်တွေကို ဒီမော်ဒယ်ထဲ ထည့်သွင်းဖို့ပဲ ဖြစ်တယ်။,最后一步是从模型文件中加载重量。
469,"To easily load the configuration of a model from any checkpoint or a folder containing the configuration file, we can use the AutoConfig class.",မည်သည့် checkpoint ဒါမှမဟုတ် configuration file ပါဝင်တဲ့ folder ကနေမဆို မော်ဒယ်တစ်ခုရဲ့ configuration ကို အလွယ်တကူ တင်နိုင်ဖို့အတွက် AutoConfig class ကို သုံးနိုင်တယ်။,"要方便地从任何检查站或包含配置文件的文件夹装入模型配置, 我们可以使用 AutoConfig 类 。"
470,"Like the TFAutoModel class, it will pick the right configuration class from the library.",TFAutoModel class လိုပဲ သူက library ကနေ မှန်ကန်တဲ့ configuration class ကို ရွေးလိမ့်မယ်။,"和TFAUTOModel类一样, 它会从图书馆中选择正确的配置类 。"
471,"We can also use the specific class corresponding to a checkpoint, but we will need to change the code each time we want to try a different model architecture.",checkpoint နဲ့ ကိုက်ညီတဲ့ သီးခြား class ကိုလည်း သုံးနိုင်ပေမယ့် မော်ဒယ် ဗိသုကာပုံစံ မတူတာကို စမ်းချင်တိုင်း code ကို ပြောင်းလဲဖို့ လိုအပ်ပါလိမ့်မယ်။,"我们也可以使用与检查站相对应的具体类别,但我们每次尝试不同的模型架构时,都需要修改代码。"
472,"For instance, the BERT model associated with the bert-base-cased checkpoint has 12 layers, a hidden size of 768, and a vocabulary size of 28,996.","ဥပမာအားဖြင့် bert-base-cased checkpoint နဲ့ ဆက်စပ်နေတဲ့ BERT မော်ဒယ်မှာ အလွှာ ၁၂ ခု၊ hidden size ၇၆၈ နဲ့ vocabulary size ၂၈,၉၉၆ ရှိတယ်။","例如,与BERT基底检查点有关的BERT模型有12层,隐藏的大小为768个,词汇号为28 996个。"
473,"Once we have the configuration, we can create a model that has the same architecture as our checkpoint but is randomly initialized.",configuration ရပြီဆိုရင် ကျွန်တော်တို့ရဲ့ checkpoint နဲ့ ဗိသုကာပုံစံ တူညီပေမယ့် ကျပန်း အစပြုထားတဲ့ မော်ဒယ်တစ်ခုကို ဖန်တီးနိုင်တယ်။,"一旦我们有了配置, 我们可以创建一个模型, 与我们的检查站结构相同, 但随机初始化 。"
474,We can then train it from scratch like any TensorFlow model.,ပြီးရင် TensorFlow မော်ဒယ်တစ်ခုလိုပဲ အစကနေ ပြန်လေ့ကျင့်နိုင်တယ်။,然后我们可以从头开始训练它 就像任何登索花模型一样
475,We can also change any part of the configuration by using keyword arguments.,keyword arguments တွေကို သုံးပြီး configuration ရဲ့ ဘယ်အစိတ်အပိုင်းကိုမဆို ပြောင်းလဲနိုင်တယ်။,我们还可以通过使用关键词参数来改变配置的任何部分。
476,We just have to use the save_pretrained method.,save_pretrained method ကို သုံးရုံပါပဲ။,我们只需要使用保存前训练的方法
477,"Here, the model will be saved in a folder named my-bert-model inside the current working directory.",ဒီမှာ မော်ဒယ်ကို လက်ရှိအလုပ်လုပ်နေတဲ့ directory ထဲက my-bert-model လို့ နာမည်ပေးထားတဲ့ folder ထဲမှာ သိမ်းဆည်းမှာ ဖြစ်တယ်။,"在此, 该模型将保存在目前工作目录内名为我的伯特模型的文件夹中 。"
478,Such a model can then be reloaded using the from_pretrained method.,ဒီလို မော်ဒယ်ကို from_pretrained method ကို သုံးပြီး ပြန်တင်နိုင်ပါတယ်။,"这样,这种模型就可以使用使用预设方法重新装载。"
479,"To run it to a projects model to the Hub, check out the push video.",ဒီမော်ဒယ်ကို Hub ဆီ ပို့ဖို့အတွက် push ဗီဒီယိုကို ကြည့်လိုက်ပါ။,"运行到一个项目模型 到枢纽, 检查推动视频。"
480,"In the next few videos, we'll take a look at the tokenizers.",နောက်ထပ် ဗီဒီယိုအချို့မှာတော့ tokenizer တွေအကြောင်း လေ့လာကြရအောင်။,"在接下来的几段视频里, 我们会看一看象征品。"
481,"In natural language processing, most of the data that we handle consists of raw text.",သဘာဝဘာသာစကား စီမံဆောင်ရွက်ခြင်းမှာ ကျွန်တော်တို့ ကိုင်တွယ်ရတဲ့ ဒေတာအများစုက မူရင်းစာသားတွေ ဖြစ်တယ်။,"在自然语言处理中,我们处理的大部分数据都是原始文本。"
482,"However, machine learning models cannot read or understand text in its raw form.",ဒါပေမယ့် စက်သင်ယူမှု မော်ဒယ်တွေက စာသားကို သူ့ရဲ့ မူရင်းပုံစံအတိုင်း ဖတ်နိုင်၊ နားလည်နိုင်ခြင်း မရှိဘူး။,"然而,机器学习模式无法读懂或理解原始文本。"
483,They can only work with numbers.,သူတို့က ဂဏန်းတွေနဲ့ပဲ အလုပ်လုပ်နိုင်တယ်။,他们只能用数字工作。
484,So the tokenizer's objective will be to translate the text into numbers.,ဒါကြောင့် tokenizer ရဲ့ ရည်ရွယ်ချက်က စာသားကို ဂဏန်းတွေအဖြစ် ဘာသာပြန်ဖို့ပဲ ဖြစ်တယ်။,所以代号器的目标是将文本转换成数字。
485,"There are several possible approaches to this conversion, and the objective is to find the most meaningful representation.",ဒီပြောင်းလဲခြင်းအတွက် နည်းလမ်းအမျိုးမျိုး ရှိနိုင်ပြီး ရည်ရွယ်ချက်ကတော့ အဓိပ္ပာယ်အရှိဆုံး ကိုယ်စားပြုမှုကို ရှာဖွေဖို့ပဲ ဖြစ်တယ်။,"这种转变有几种可能的办法,目的是找到最有意义的代表性。"
486,We'll take a look at three distinct tokenization algorithms.,ကျွန်တော်တို့ မတူညီတဲ့ tokenization algorithm သုံးခုကို ကြည့်သွားမယ်။,我们来看看三个不同的象征性算法
487,"We compare them one to one, so we recommend you take a look at the videos in the following order.",တစ်ခုချင်းစီကို နှိုင်းယှဉ်သွားမှာဖြစ်လို့ ဒီဗီဒီယိုတွေကို အောက်ပါအတိုင်း အစဉ်လိုက် ကြည့်ဖို့ အကြံပြုချင်ပါတယ်။,"我们把它们一比一, 所以我们建议你按以下顺序查看录像。"
488,"First, ""Word-based, followed by Character-based, and finally, Subword-based.""","ပထမ ""စကားလုံးအခြေပြု""၊ ပြီးရင် ""စာလုံးအခြေပြု""၊ နောက်ဆုံးအနေနဲ့ ""စကားလုံးခွဲအခြေပြု"" ပေါ့။","首先,“基于文字,然后是基于字符,最后,基于子字。”"
489,Let's take a look at word-based tokenization.,စကားလုံးအခြေပြု tokenization ကို ကြည့်ကြရအောင်။,让我们来看看基于字的象征性化。
490,"Word-based tokenization is the idea of splitting the raw text into words by splitting on spaces or other specific rules, like punctuation.",စကားလုံးအခြေပြု tokenization ကတော့ မူရင်းစာသားကို နေရာလွတ် ဒါမှမဟုတ် ပုဒ်ဖြတ်စတဲ့ သီးခြား စည်းကမ်းတွေနဲ့ ခွဲပြီး စကားလုံးတွေအဖြစ် ပိုင်းခြားတဲ့ အယူအဆ ဖြစ်တယ်။,"以字为根据的象征性化是将原始案文分成文字,在空间上或诸如标点等其他具体规则上一分为二的想法。"
491,"In this algorithm, each word has a specific number or ID attributed to it.",ဒီ algorithm မှာ စကားလုံးတစ်လုံးစီတိုင်းကို သီးခြား နံပါတ် ဒါမှမဟုတ် ID သတ်မှတ်ထားတယ်။,"在这个算法中,每个单词都有特定的编号或识别号。"
492,"Here, let's has the ID 250, do has 861, and tokenization followed by an exclamation mark has 345.","ဒီမှာ ""let's"" ကို ID ၂၅၀၊ ""do"" ကို ၈၆၁၊ ပြီးတော့ အာမေဋိတ်အမှတ်အသားပါတဲ့ ""tokenization"" ကို ၃၄၅ သတ်မှတ်ထားတယ်။","在这里,让我们有250号身份证, 确实有861号身份证, 标记之后的感叹标记是345号。"
493,This approach is interesting as the model has representations that are based on entire words.,ဒီချဉ်းကပ်မှုက စိတ်ဝင်စားစရာကောင်းပါတယ်၊ ဘာကြောင့်လဲဆိုတော့ မော်ဒယ်မှာ စကားလုံးအပြည့်အစုံကို အခြေခံထားတဲ့ ကိုယ်စားပြုမှုတွေ ရှိနေလို့ပါ။,"这种做法很有意思,因为模型的表述是以整个文字为基础的。"
494,"The information held in a single number is high, as a word contains a lot of contextual and semantic information.",စကားလုံးတစ်လုံးမှာ ဆက်စပ်အကြောင်းအရာနဲ့ အဓိပ္ပာယ်ဆိုင်ရာ အချက်အလက်တွေ အများကြီးပါဝင်တဲ့အတွက် ဂဏန်းတစ်ခုတည်းမှာ ပါဝင်တဲ့ အချက်အလက်က မြင့်မားပါတယ်။,"以一个数字保存的信息是高的,因为一个单词包含大量背景和语义信息。"
495,"However, this approach does have its limits.",သို့သော် ဒီချဉ်းကပ်မှုမှာ အားနည်းချက်တွေတော့ ရှိပါတယ်။,"然而,这种做法确实有其局限性。"
496,"For example, the word dog and the word dogs are very similar and their meaning is close.","ဥပမာအားဖြင့် ""dog"" နဲ့ ""dogs"" ဆိုတဲ့ စကားလုံးတွေဟာ အရမ်းဆင်တူပြီး သူတို့ရဲ့ အဓိပ္ပာယ်လည်း နီးစပ်တယ်။","例如, "" 狗 "" 一词和 "" 狗 "" 一词非常相似,其含义接近。"
497,"The word-based tokenization, however, will attribute entirely different IDs to these two words and the model will therefore learn two different embeddings for these two words.",ဒါပေမယ့် စကားလုံးအခြေပြု tokenization က ဒီစကားလုံးနှစ်လုံးကို လုံးဝကွဲပြားတဲ့ ID တွေ သတ်မှတ်ပေးမှာဖြစ်ပြီး မော်ဒယ်ကလည်း ဒီစကားလုံးနှစ်လုံးအတွက် ကွဲပြားတဲ့ embeddings နှစ်ခုကို သင်ယူသွားလိမ့်မယ်။,"然而,基于字的象征性化将赋予这两个词完全不同的标识,因此,模型将为这两个词学习两种不同的嵌入。"
498,"This is unfortunate as we would like the model to understand that these words are indeed related, and that dogs is simply the plural form of the word dog.","ဒါက ကံမကောင်းစရာပဲ၊ ဘာလို့လဲဆိုတော့ ဒီစကားလုံးတွေဟာ ဆက်စပ်နေတယ်၊ ပြီးတော့ ""dogs"" က ""dog"" ရဲ့ အများကိန်းပုံစံသာ ဖြစ်တယ်ဆိုတာကို မော်ဒယ်က နားလည်စေချင်လို့ပါ။","这是不幸的,因为我们希望模式能够理解,这些词确实相互关联,而且狗只是狗字的复数形式。"
499,"Another issue with this approach, is that there are a lot of different words in the language.",ဒီချဉ်းကပ်မှုရဲ့ နောက်ထပ် ပြဿနာတစ်ခုကတော့ ဘာသာစကားထဲမှာ စကားလုံးအမျိုးမျိုး အများကြီး ရှိနေတာပဲ။,"这种方法的另一个问题是,语言中有许多不同的词语。"
500,"If we want our model to understand all possible sentences in that language, then we will need to have an ID for each different word.",ကျွန်တော်တို့ရဲ့ မော်ဒယ်က အဲဒီဘာသာစကားထဲက ဖြစ်နိုင်တဲ့ ဝါကျအားလုံးကို နားလည်စေချင်ရင် စကားလုံးအမျိုးမျိုးတိုင်းအတွက် ID တစ်ခုစီ ရှိဖို့ လိုလိမ့်မယ်။,"如果我们想要我们的模型能用该语言来理解所有可能的句子,那么我们需要为每个不同的词都有一个识别号。"
501,"And the total number of words, which is also known as the vocabulary size, can quickly become very large.",ပြီးတော့ စုစုပေါင်း စကားလုံးအရေအတွက်၊ ဒါကို vocabulary size လို့လည်း ခေါ်တယ်၊ အဲဒါက အရမ်းကြီးသွားနိုင်တယ်။,"字数的总数 也称为词汇大小, 很快会变得非常大。"
502,"This is an issue because each ID is mapped to a large vector that represents the word's meaning, and keeping track of these mappings requires an enormous number of weights when the vocabulary size is very large.",ဒါက ပြဿနာတစ်ခုပါ၊ ဘာလို့လဲဆိုတော့ ID တစ်ခုစီတိုင်းကို စကားလုံးရဲ့ အဓိပ္ပာယ်ကို ကိုယ်စားပြုတဲ့ ကြီးမားတဲ့ vector တစ်ခုနဲ့ ချိတ်ဆက်ထားပြီး vocabulary size အရမ်းကြီးရင် ဒီ mapping တွေကို ထိန်းသိမ်းဖို့အတွက် ကြီးမားတဲ့ အလေးချိန်အရေအတွက် လိုအပ်တယ်။,"这是一个问题,因为每个身份标识都映射到代表字词含义的大矢量上,在词汇大小很大时,跟踪这些映射需要大量重量。"
503,"If we want our models to stay lean, we can opt for our tokenizer to ignore certain words that we don't necessarily need.",ကျွန်တော်တို့ရဲ့ မော်ဒယ်တွေ ပေါ့ပါးနေစေချင်ရင် မလိုအပ်တဲ့ စကားလုံးအချို့ကို tokenizer ကနေ လျစ်လျူရှုဖို့ ရွေးချယ်နိုင်တယ်။,"如果我们想要我们的模型保持精细, 我们可以选择我们的代用品 忽略某些我们不一定需要的单词。"
504,"For example, here, when training our tokenizer on a text, we might want to take only the 10,000 most frequent words in that text.",ဥပမာ၊ ဒီမှာ ကျွန်တော်တို့ရဲ့ tokenizer ကို စာသားတစ်ခုပေါ် လေ့ကျင့်တဲ့အခါ အဲဒီစာသားထဲက အသုံးအများဆုံး စကားလုံး ၁၀၀၀၀ ကိုပဲ ယူချင်တယ်ဆိုတာမျိုး ဖြစ်နိုင်တယ်။,"例如,在这里,在培训我们的代言人掌握文本时,我们可能只使用该文本中最常用的一万字。"
505,Rather than taking all words from in that text or all languages words to create our basic vocabulary.,အဲဒီစာသားထဲက စကားလုံးအားလုံး ဒါမှမဟုတ် ဘာသာစကားအားလုံးက စကားလုံးတွေကို ယူပြီး ကျွန်တော်တို့ရဲ့ အခြေခံ ဝေါဟာရကို ဖန်တီးမယ့်အစားပေါ့။,而不是利用文本中的所有词句或所有语言的词句来创建我们的基本词汇。
506,"The tokenizer will know how to convert those 10,000 words into numbers, but any other word will be converted to the out-of-vocabulary word, or like shown here, the unknown word.",tokenizer က အဲဒီ စကားလုံး ၁၀၀၀၀ ကို ဂဏန်းတွေအဖြစ် ဘယ်လိုပြောင်းရမလဲ သိလိမ့်မယ်၊ ဒါပေမယ့် တခြားစကားလုံးမှန်သမျှကို out-of-vocabulary စကားလုံး ဒါမှမဟုတ် ဒီမှာပြထားတဲ့အတိုင်း unknown word အဖြစ် ပြောင်းလဲသွားမယ်။,"代号器将知道如何将那10 000个字转换成数字, 但是任何其他字将被转换成词汇外的单词, 或者在这里显示的类似词, 未知的单词 。"
507,"Unfortunately, this is a compromise.",ကံမကောင်းစွာနဲ့ပဲ ဒါက အပေးအယူတစ်ခု ဖြစ်တယ်။,"不幸的是,这是一种妥协。"
508,"The model will have the exact same representation for all words that it doesn't know, which can result in a lot of lost information if many unknown words are present.",မော်ဒယ်က သူ မသိတဲ့ စကားလုံးအားလုံးအတွက် တူညီတဲ့ ကိုယ်စားပြုမှု ရှိနေမှာဖြစ်လို့ မသိတဲ့ စကားလုံးတွေ အများကြီး ပါဝင်နေရင် အချက်အလက်တွေ အများကြီး ဆုံးရှုံးသွားနိုင်တယ်။,"该模型将拥有与其所不知道的所有单词完全相同的表达方式,如果有许多未知的单词存在,这可能导致大量信息丢失。"
509,"Before diving in character-based tokenization, understanding why this kind of tokenization is interesting requires understanding the flaws of word-based tokenization.",စာလုံးအခြေပြု tokenization ကို မလေ့လာခင် ဒီ tokenization အမျိုးအစားက ဘာကြောင့် စိတ်ဝင်စားဖို့ကောင်းလဲဆိုတာ နားလည်ဖို့အတွက် စကားလုံးအခြေပြု tokenization ရဲ့ အားနည်းချက်တွေကို နားလည်ဖို့ လိုတယ်။,"在潜入基于字符的象征化之前,要了解为什么这种象征化很有意思,就需要了解基于文字的象征化的缺陷。"
510,If you haven't seen the first video on word-based tokenization we recommend you check it out before looking at this video.,စကားလုံးအခြေပြု tokenization အကြောင်း ပထမဗီဒီယိုကို မကြည့်ရသေးဘူးဆိုရင် ဒီဗီဒီယိုကို မကြည့်ခင် အဲဒါကို အရင်ကြည့်ဖို့ အကြံပြုချင်ပါတယ်။,"如果你还没有看过第一部关于基于文字的象征性的视频, 我们建议你先检查一下,然后再看这段视频。"
511,"Okay, let's take a look at character-based tokenization.",ဟုတ်ပြီ၊ စာလုံးအခြေပြု tokenization ကို ကြည့်ကြရအောင်။,"好吧,让我们来看看 以性格为基础的象征性化。"
512,"We now split our text into individual characters, rather than words.",ကျွန်တော်တို့ အခု စာသားကို စကားလုံးတွေအစား တစ်ဦးချင်း စာလုံးတွေအဖြစ် ပိုင်းလိုက်တယ်။,"我们现在将文字分为个个字符,而不是单词。"
513,"There are generally a lot of different words in languages, while the number of characters stays low.",ဘာသာစကားတွေမှာ ယေဘုယျအားဖြင့် စကားလုံးအမျိုးမျိုး အများကြီးရှိပေမယ့် စာလုံးအရေအတွက်ကတော့ နည်းနေတယ်။,"语言中通常有许多不同的字眼,而字符数量仍然较低。"
514,"To begin let's take a look at the English language, it has an estimated 170,000 different words, so we would need a very large vocabulary to encompass all words.,စတင်ဖို့အတွက် အင်္ဂလိပ်ဘာသာစကားကို ကြည့်ရအောင်၊ ၎င်းမှာ မတူညီတဲ့ စကားလုံး ၁၇၀",၀၀၀ လောက် ရှိမယ်လို့ ခန့်မှန်းရတယ်၊ ဒါကြောင့် စကားလုံးအားလုံးကို သိမ်းကျုံးနိုင်ဖို့အတွက် အရမ်းကြီးမားတဲ့ ဝေါဟာရတစ်ခု လိုအပ်တယ်။,"我们先看一看英语, 它估计有170,000个不同的字, 因此我们需要一个非常大的词汇来包含所有字。"
515,"With a character-based vocabulary, we can get by with only 256 characters, which includes letters, numbers and special characters.",စာလုံးအခြေပြု ဝေါဟာရနဲ့ဆိုရင် စာလုံး၊ ဂဏန်းနဲ့ အထူးစာလုံးတွေ အပါအဝင် စာလုံး ၂၅၆ လုံးလောက်နဲ့ပဲ အဆင်ပြေနိုင်တယ်။,"用一个以字符为基础的词汇,我们只有256个字符,其中包括字母、数字和特殊字符。"
516,"Even languages with a lot of different characters like the Chinese languages can have dictionaries with up to 20,000 different characters but more than 375,000 different words.","တရုတ်ဘာသာစကားလိုမျိုး စာလုံးအမျိုးမျိုး အများကြီးရှိတဲ့ ဘာသာစကားတွေတောင်မှ မတူညီတဲ့ စာလုံး ၂၀,၀၀၀ အထိ ပါဝင်တဲ့ အဘိဓာန်တွေ ရှိနိုင်ပေမယ့် စကားလုံးအမျိုးမျိုး ၃၇၅,၀၀၀ ကျော် ရှိတယ်။","即使语言有许多不同的字符,例如中文,也可以有字典,有多达20,000个不同的字符,但有超过375,000个不同的字。"
517,So character-based vocabularies let us use fewer different tokens than the word-based tokenization dictionaries we would otherwise use.,ဒါကြောင့် စာလုံးအခြေပြု ဝေါဟာရတွေက စကားလုံးအခြေပြု tokenization အဘိဓာန်တွေထက် မတူညီတဲ့ token နည်းနည်းကိုပဲ သုံးနိုင်စေတယ်။,"因此,基于字符的词汇让我们少使用不同符号, 而不是我们原本会使用的基于字的象征性词典。"
518,These vocabularies are also more complete than their word-based vocabularies counterparts.,ဒီဝေါဟာရတွေက စကားလုံးအခြေပြု ဝေါဟာရတွေထက် ပိုပြီး ပြည့်စုံတယ်။,这些词汇也比其以字为基础的词汇对口单位更加完整。
519,"As our vocabulary contains all characters used in a language, even words unseen during the tokenizer training can still be tokenized, so out-of-vocabulary tokens will be less frequent.",ကျွန်တော်တို့ရဲ့ ဝေါဟာရထဲမှာ ဘာသာစကားတစ်ခုမှာ သုံးတဲ့ စာလုံးအားလုံး ပါဝင်တဲ့အတွက် tokenizer လေ့ကျင့်နေစဉ်အတွင်း မမြင်ရတဲ့ စကားလုံးတွေတောင် tokenized လုပ်နိုင်သေးတယ်၊ ဒါကြောင့် out-of-vocabulary token တွေက နည်းပါးလာမှာပါ။,"由于我们的词汇包含一种语言使用的所有字符,甚至连象征性品培训期间看不见的单词也可以被象征性化,所以词汇外的象征物将不那么频繁。"
520,"This includes the ability to correctly tokenize misspelled words, rather than discarding them as unknown straight away.",ဒါက စာလုံးပေါင်းမှားနေတဲ့ စကားလုံးတွေကို ချက်ချင်း မသိဘူးလို့ စွန့်ပစ်လိုက်တာထက် မှန်ကန်စွာ tokenized လုပ်နိုင်တဲ့ စွမ်းရည်လည်း ပါဝင်တယ်။,"这包括能够正确表示拼错字,而不是直接把它们丢弃为未知字眼。"
521,"However, this algorithm isn't perfect either.",ဒါပေမယ့် ဒီ algorithm ကလည်း ပြီးပြည့်စုံတာတော့ မဟုတ်ပါဘူး။,"但是,这个算法也不是完美的。"
522,"Intuitively, characters do not hold as much information individually as a word would hold.",အလိုလိုသိနိုင်တဲ့အတိုင်း စကားလုံးတစ်လုံးစီက ဆောင်ထားသလောက် စာလုံးတွေက တစ်ဦးချင်း အချက်အလက် သိပ်မပါဝင်ဘူး။,"直观地说,字符的单独信息不如单词的多。"
523,"For example, ""Let's"" holds more information than it's first letter ""l"".","ဥပမာအားဖြင့် ""Let's"" က သူ့ရဲ့ ပထမဆုံး စာလုံး ""l"" ထက် အချက်အလက် ပိုပါဝင်တယ်။","例如,“让我们”拥有的信息比第一个字母“l”要多。"
524,"Of course, this is not true for all languages, as some languages like ideogram-based languages have a lot of information held in single characters, but for others like roman-based languages, the model will have to make sense of multiple tokens at a time to get the information otherwise held in a single word.",ဟုတ်ပါတယ်၊ ဒါက ဘာသာစကားအားလုံးအတွက် မမှန်ပါဘူး၊ အဘယ်ကြောင့်ဆိုသော် ideogram အခြေခံဘာသာစကားလိုမျိုး အချို့ဘာသာစကားတွေမှာ စာလုံးတစ်ခုတည်းမှာ အချက်အလက်တွေ အများကြီး ပါဝင်ပေမယ့် roman အခြေခံဘာသာစကားလို တခြားဘာသာစကားတွေအတွက်တော့ မော်ဒယ်က စကားလုံးတစ်လုံးတည်းမှာ ပါဝင်တဲ့ အချက်အလက်တွေကို ရရှိဖို့အတွက် token များစွာကို တစ်ပြိုင်နက် နားလည်အောင် လုပ်ရပါလိမ့်မယ်။,"当然,并非所有语言都如此,因为一些语言,例如以理想地图为基础的语言,拥有许多以单字符保存的信息,但对于其他语言,例如以罗马语为基础的语言,模型必须同时具有多个标记的含义,才能将信息以一个单字保存。"
525,"This leads to another issue with character-based tokenizers, their sequences are translated into very large amount of tokens to be processed by the model.",ဒါက စာလုံးအခြေပြု tokenizer တွေရဲ့ နောက်ထပ် ပြဿနာတစ်ခုဆီ ဦးတည်စေပါတယ်၊ သူတို့ရဲ့ sequence တွေဟာ မော်ဒယ်က စီမံဆောင်ရွက်ရမယ့် အရေအတွက် အလွန်များပြားတဲ့ tokens တွေအဖြစ် ဘာသာပြန်ခံရတယ်။,"这导致另一个基于字符的代谢器问题,它们的序列被转换成由模型处理的大量代币。"
526,"And this can have an impact on the size of the context the model will carry around, and will reduce the size of the text we can use as input for our model, which is often limited.",ဒီကိစ္စက မော်ဒယ် သယ်ဆောင်မယ့် context အရွယ်အစားအပေါ် သက်ရောက်မှု ရှိနိုင်ပြီး ကျွန်တော်တို့ရဲ့ မော်ဒယ်အတွက် ထည့်သွင်းချက်အဖြစ် သုံးနိုင်တဲ့ စာသားရဲ့ အရွယ်အစားကို လျှော့ချသွားမှာပါ၊ အဲဒါက မကြာခဏ ကန့်သတ်ထားတာမျိုး ရှိတယ်။,"这会影响到模型将随波逐流的背景大小, 并会减少我们用作模型投入的文本的大小, 而我们的模型往往有限。"
527,"This tokenization, while it has some issues, has seen some very good results in the past and so it should be considered when approaching a new problem as it solves issues encountered in the word-based algorithm.",ဒီ tokenization က အားနည်းချက်တွေ ရှိပေမယ့် အရင်က အလွန်ကောင်းမွန်တဲ့ ရလဒ်အချို့ကို ပြသခဲ့ပြီး စကားလုံးအခြေပြု algorithm မှာ ကြုံတွေ့ရတဲ့ ပြဿနာတွေကို ဖြေရှင်းပေးတဲ့အတွက် ပြဿနာအသစ်တစ်ခုကို ချဉ်းကပ်တဲ့အခါ ထည့်သွင်းစဉ်းစားသင့်ပါတယ်။,"这种象征性化虽然有一些问题,但在过去已经取得了一些非常好的结果,因此在处理新问题时应该加以考虑,因为它解决了基于字的算法中遇到的问题。"
528,Let's take a look at subword based tokenization.,စကားလုံးခွဲ အခြေပြု tokenization ကို ကြည့်ကြရအောင်။,让我们来看看基于子词的代号化。
529,Understanding why subword based tokenization is interesting requires understanding the flaws of word based and corrector based tokenization.,စကားလုံးခွဲ အခြေပြု tokenization က ဘာကြောင့် စိတ်ဝင်စားဖို့ကောင်းလဲဆိုတာ နားလည်ဖို့အတွက် စကားလုံးအခြေပြုနဲ့ စာလုံးအခြေပြု tokenization တွေရဲ့ အားနည်းချက်တွေကို နားလည်ထားဖို့ လိုတယ်။,"理解为什么基于子词的代谢性令人感兴趣,需要了解基于字词和基于正确代谢性的缺陷。"
530,If you haven't seen the first videos on word based and character based tokenization we recommend you check them out before looking at this video.,စကားလုံးအခြေပြုနဲ့ စာလုံးအခြေပြု tokenization အကြောင်း ဗီဒီယိုတွေကို မကြည့်ရသေးဘူးဆိုရင် ဒီဗီဒီယိုကို မကြည့်ခင် အဲဒါတွေကို အရင်ကြည့်ဖို့ အကြံပြုချင်ပါတယ်။,如果你还没有看到第一批视频 以文字和字符符号为基础 我们建议你先检查一下 然后再看这段视频
531,Subword based tokenization lies in between character based and word based tokenization algorithms.,စကားလုံးခွဲ အခြေပြု tokenization ဟာ စာလုံးအခြေပြုနဲ့ စကားလုံးအခြေပြု tokenization algorithm တွေကြားမှာ ရှိနေတယ်။,基于子字的代号化在于基于字符的代号化算法和基于字词的代号化算法之间。
532,The idea is to find a middle ground between very large vocabularies a large quantity of out vocabulary tokens and a loss of meaning across very similar words for word based tokenizers and very long sequences as well as less meaningful individual tokens.,ရည်ရွယ်ချက်ကတော့ စကားလုံးအခြေပြု tokenizer တွေအတွက် အရမ်းကြီးမားတဲ့ ဝေါဟာရတွေ၊ out-of-vocabulary token အများအပြားနဲ့ အလွန်ဆင်တူတဲ့ စကားလုံးတွေမှာ အဓိပ္ပာယ် ဆုံးရှုံးတာတွေ၊ ပြီးတော့ စာလုံးအခြေပြု tokenizer တွေအတွက် အရမ်းရှည်တဲ့ sequence တွေနဲ့ အဓိပ္ပာယ်မရှိတဲ့ တစ်ဦးချင်း token တွေကြားမှာ အလယ်အလတ်တစ်ခုကို ရှာဖို့ပဲ ဖြစ်တယ်။,"想法是找到一个中间点, 介于庞大的词汇库、大量的词汇符号外, 以及以文字为基础的符号符号、非常长的序列以及不那么有意义的单个符号之间,"
533,For character based tokenizers.,စာလုံးအခြေပြု tokenizer တွေအတွက် ဖြစ်တယ်။,用于基于字符的符号化器 。
534,These algorithms rely on the following principle.,ဒီ algorithm တွေဟာ အောက်ပါနိယာမကို အခြေခံထားတယ်။,这些算法依赖于以下原则。
535,Frequently used words should not be split into smaller subwords while rare words should be decomposed into meaningful subwords.,မကြာခဏ သုံးတဲ့ စကားလုံးတွေကို စကားလုံးခွဲသေးသေးလေးတွေအဖြစ် မခွဲသင့်ပေမယ့် ရှားပါးတဲ့ စကားလုံးတွေကိုတော့ အဓိပ္ပာယ်ရှိတဲ့ စကားလုံးခွဲတွေအဖြစ် ဖြိုခွဲသင့်တယ်။,"通常使用的词语不应分成小的子字,而稀有的词语应分解成有意义的小字。"
536,An example is the word dog.,ဥပမာတစ်ခုက dog ဆိုတဲ့ စကားလုံးပါ။,狗字就是一个例子。
537,We would like to have our tokenizer to have a single ID for the word dog rather than splitting it into correctors D O and G.,'ကျွန်တော်တို့ရဲ့ tokenizer က dog ဆိုတဲ့ စကားလုံးအတွက် ID တစ်ခုတည်း ရှိစေချင်တယ်၊ အဲဒါကို D၊ O၊ G စတဲ့ စာလုံးတွေအဖြစ် ခွဲလိုက်တာထက်ပေါ့။',我们希望我们的代言人 拥有一个单词狗的身份证 而不是把它分成D O和G
538,"However, when encountering the word dogs we would like our tokenize to understand that at the root this is still the word dog.","ဒါပေမယ့် ""dogs"" ဆိုတဲ့ စကားလုံးကို တွေ့တဲ့အခါ ကျွန်တော်တို့ရဲ့ tokenizer က အရင်းခံအားဖြင့် ဒါဟာ ""dog"" ဆိုတဲ့ စကားလုံးပဲဆိုတာ နားလည်စေချင်တယ်။","然而,在遇到狗这个词时,我们希望我们象征性地理解,从根源上说,这仍然是狗这个词。"
539,"With an added S, that slightly changes the meaning while keeping the original idea.",အနောက်က S လေး ထပ်ပေါင်းတာက မူရင်း အယူအဆကို ထိန်းသိမ်းထားပြီး အဓိပ္ပာယ်ကို နည်းနည်းလေး ပြောင်းလဲလိုက်တာပေါ့။,"加上一个S,这略微改变了其含义,同时保留了原来的想法。"
540,Another example is a complex word like tokenization which can be split into meaningful subwords.,"နောက်ထပ် ဥပမာတစ်ခုက ""tokenization"" လိုမျိုး ရှုပ်ထွေးတဲ့ စကားလုံးဖြစ်ပြီး အဓိပ္ပာယ်ရှိတဲ့ စကားလုံးခွဲတွေအဖြစ် ခွဲလို့ရတယ်။","另一个例子是像象征性化这样的复杂词,可以分为有意义的小字。"
541,The root of the word is token and -ization completes the root to give it a slightly different meaning.,"စကားလုံးရဲ့ အရင်းက ""token"" ဖြစ်ပြီး ""-ization"" က အရင်းကို ဖြည့်စွက်ပေးကာ အဓိပ္ပာယ်ကို နည်းနည်းလေး ပြောင်းလဲပေးတယ်။","这个词的根是象征, 并且 - 化完成根, 给它一个稍有不同的含义 。"
542,"It makes sense to split the word into two, token as the root of the word, labeled as the start of the word and ization as additional information labeled as a completion of the word.","ဒီစကားလုံးကို နှစ်ပိုင်းခွဲတာ အဓိပ္ပာယ်ရှိတယ်၊ ""token"" က စကားလုံးရဲ့ အရင်းအမြစ်ဖြစ်ပြီး စကားလုံးရဲ့ အစအဖြစ် သတ်မှတ်ထားတယ်၊ ပြီးတော့ ""ization"" က စကားလုံးကို ဖြည့်စွက်ခြင်းအဖြစ် သတ်မှတ်ထားတဲ့ အပိုအချက်အလက် ဖြစ်တယ်။","将单词分为两个是有道理的,象征性的字作为词根,标记为字的开头,化为补充信息,标记为词的补全。"
543,"In turn, the model will now be able to make sense of token in different situations.","ဒီလိုလုပ်ခြင်းဖြင့် မော်ဒယ်က အခြေအနေအမျိုးမျိုးမှာ ""token"" ကို နားလည်နိုင်လာမှာပါ။","反过来,这种模式现在能够在不同情况下具有象征性意义。"
544,"It will understand that the word's token, tokens, tokenizing and tokenization have a similar meaning and are linked.,token, ""tokens"""," ""tokenizing"" နဲ့ ""tokenization"" စတဲ့ စကားလုံးတွေဟာ အဓိပ္ပာယ်တူပြီး ဆက်စပ်နေတယ်ဆိုတာ သူ နားလည်သွားလိမ့်မယ်။","它会明白,这个词的象征、象征、象征和象征具有相似的含义,并且相互联系。"
545,"It's will also understand that tokenization, modernization and immunization, which all have the same suffixes are probably used in the same syntactic situations.,tokenization"," ""modernization"" နဲ့ ""immunization"" စတဲ့ နောက်ဆက်တွဲတွေ တူညီတဲ့ စကားလုံးတွေဟာ တူညီတဲ့ ဝါကျတည်ဆောက်ပုံ အခြေအနေတွေမှာ အသုံးပြုတယ်ဆိုတာကိုလည်း နားလည်သွားလိမ့်မယ်။","它还会明白,象征化、现代化和免疫, 都具有相同的后缀, 很可能在相同的综合情况下使用。"
546,Subword based tokenizers generally have a way to identify which tokens are a start of word and which tokens complete start of words.,စကားလုံးခွဲ အခြေပြု tokenizer တွေက ယေဘုယျအားဖြင့် ဘယ် token တွေက စကားလုံးရဲ့ အစလဲ၊ ဘယ် token တွေက စကားလုံးရဲ့ အစကို ဖြည့်စွက်တာလဲဆိုတာကို ခွဲခြားနိုင်တဲ့ နည်းလမ်းရှိတယ်။,"基于子字的质点器通常能够识别哪些符号是单词开头,哪些符号是单词开头。"
547,So here token as the start of a ward and hash hash ization as completion of award.,"ဒီမှာ ""token"" က စကားလုံးရဲ့ အစဖြစ်ပြီး ""##ization"" က စကားလုံးကို ဖြည့်စွက်တာ ဖြစ်တယ်။",所以这里象征着一个选区的开始 和散列的开始 作为完成奖项的完成。
548,"Here, the hash hash prefix indicates that ization is part of award rather than the beginning of it.","ဒီမှာ ## prefix က ""ization"" ဟာ စကားလုံးရဲ့ အစမဟုတ်ဘဲ တစ်စိတ်တစ်ပိုင်း ဖြစ်ကြောင်း ညွှန်ပြတယ်။","在此,hash hash前缀表明,化为一体是裁决的一部分,而不是裁决的开始。"
549,From the BERT tokenizer based on the word piece algorithm.,ဒါက word piece algorithm ကို အခြေခံတဲ့ BERT tokenizer ကနေ လာတာပါ။,从BERT代记器 以单词拼写算法为基础。
550,Other tokenizes use other prefixes which can be placed to indicate part of words like in here or start of words instead.,တခြား tokenizer တွေက အဲဒီအစား စကားလုံးရဲ့ အစိတ်အပိုင်းကို ညွှန်ပြဖို့အတွက် တခြား prefix တွေကို သုံးနိုင်တယ်။,"其它符号使用其他前缀, 可以放置这些前缀来表示像这里这样的单词部分, 或首字母的首字母 。"
551,There are a lot of different algorithms that can be used for subword tokenization and most models obtaining state-of-the-art results in English today use some kind of subword tokenization algorithms.,စကားလုံးခွဲ tokenization အတွက် အသုံးပြုနိုင်တဲ့ algorithm အမျိုးမျိုး အများကြီးရှိပြီး ဒီနေ့ခေတ် အင်္ဂလိပ်ဘာသာစကားမှာ အကောင်းဆုံး ရလဒ်တွေ ရရှိနေတဲ့ မော်ဒယ်အများစုဟာ စကားလုံးခွဲ tokenization algorithm တစ်မျိုးမျိုးကို သုံးကြတယ်။,"有许多不同的算法可用于子词的代号化,大多数模型在今天的英语中都使用某种子词代号化算法。"
552,These approaches help in reducing the vocabulary sizes by sharing information across different words having the ability to have prefixes and suffixes understood as such.,ဒီချဉ်းကပ်မှုတွေက စကားလုံးအမျိုးမျိုးမှာ အချက်အလက်တွေ မျှဝေခြင်းဖြင့် ဝေါဟာရအရွယ်အစားကို လျှော့ချရာမှာ ကူညီပေးပြီး prefix တွေနဲ့ suffix တွေကို ဒီလိုနားလည်နိုင်တဲ့ စွမ်းရည် ရှိစေတယ်။,"这些方法有助于减少词汇的大小,办法是通过能够将前缀和后缀理解为字形的不同字词共享信息。"
553,"They keep meaning across very similar words by recognizing similar tokens, making them up.",သူတို့က ဆင်တူတဲ့ token တွေကို အသိအမှတ်ပြုခြင်းအားဖြင့် အလွန်ဆင်တူတဲ့ စကားလုံးတွေမှာ အဓိပ္ပာယ်ကို ထိန်းထားနိုင်တယ်။,"它们通过识别相似的象征物 来保持非常相似的词句的含义, 并组成这些象征物。"
554,The tokenizer pipeline.,Tokenizer pipeline ပေါ့ဗျာ။,代用品管道
555,"In this video, we'll look at how a tokenizer converts raw texts to numbers, that a Transformer model can make sense of, like when we execute this code.",ဒီဗီဒီယိုမှာတော့ ဒီ code ကို run လိုက်တဲ့အခါလိုပဲ၊ tokenizer က မူရင်းစာသားတွေကို Transformer မော်ဒယ် နားလည်နိုင်တဲ့ ဂဏန်းတွေအဖြစ် ဘယ်လိုပြောင်းလဲလဲဆိုတာကို ကြည့်ကြရအောင်။,"在这段视频中,我们将观察一个象征性的 如何将原始文本转换成数字, 一个变形模型可以理解, 比如当我们执行这个代码的时候。"
556,Here is a quick overview of what happens inside the tokenizer object:,tokenizer ထဲမှာ ဘာတွေဖြစ်ပျက်နေလဲဆိုတာကို အမြန်ကြည့်ရအောင်။,以下是对质地器对象内发生的事情的简要概述:
557,"first, the text is split into tokens, which are words, parts of words, or punctuation symbols.",ပထမဆုံးအနေနဲ့ စာသားကို စကားလုံးတွေ၊ စကားလုံးရဲ့ အပိုင်းတွေ ဒါမှမဟုတ် ပုဒ်ဖြတ် သင်္ကေတတွေ ဖြစ်တဲ့ tokens လေးတွေအဖြစ် ခွဲလိုက်တယ်။,"首先,文本被分割成符号,即单词、单词部分或标点符号。"
558,Then the tokenizer adds potential special tokens and converts each token to their unique respective ID as defined by the tokenizer's vocabulary.,ပြီးရင် tokenizer က လိုအပ်မယ့် special token တွေကို ထည့်ပြီး token တစ်ခုစီကို tokenizer ရဲ့ ဝေါဟာရမှာ သတ်မှတ်ထားတဲ့ သူ့ရဲ့ ထူးခြားတဲ့ ID အဖြစ် ပြောင်းလဲပေးတယ်။,"然后,代号器添加潜在的特殊标记,并将每个标记转换为由代号器词汇定义的各自独特的代号。"
559,"As we'll see, it doesn't quite happen in this order, but doing it like this is better for understandings.",ကျွန်တော်တို့ မြင်ရမှာက ဒီအဆင့်တွေက ဒီအတိုင်း အတိအကျ ဖြစ်မနေပါဘူး၊ ဒါပေမယ့် ဒီလိုလုပ်တာက ပိုနားလည်လွယ်ပါတယ်။,"正如我们所看到的,它并没有在这样的顺序下发生, 但是这样做对理解来说是更好的。"
560,The first step is to split our input text into tokens.,ပထမအဆင့်ကတော့ ကျွန်တော်တို့ရဲ့ ထည့်သွင်းစာသားကို tokens အဖြစ် ခွဲလိုက်တာပဲ။,第一步是将输入的文字分割为符号 。
561,We use the tokenize method for this.,ဒီအတွက် tokenize method ကို သုံးတယ်။,我们为此使用象征性的方法。
562,"To do that, the tokenizer may first perform some operations, like lowercasing all words, then follow a set of rules to split the result in small chunks of text.",ဒီလိုလုပ်ဖို့အတွက် tokenizer က ပထမဆုံး စကားလုံးအားလုံးကို အသေးစာလုံးပြောင်းတာမျိုးလို လုပ်ဆောင်ချက်တချို့ လုပ်နိုင်တယ်၊ ပြီးမှ ရလဒ်ကို စာသားအပိုင်းအစလေးတွေအဖြစ် ခွဲဖို့ စည်းမျဉ်းတွေကို လိုက်နာတယ်။,"要做到这一点, 质记器可能首先执行一些操作, 比如降低所有单词, 然后遵循一套规则, 将结果分成小块文本 。"
563,"Most of the Transformer models uses a word tokenization algorithm, which means that one given word can be split in several tokens like tokenize here.",Transformer မော်ဒယ်အများစုက word tokenization algorithm ကို သုံးကြတယ်၊ ဆိုလိုတာက ဒီက tokenize လိုမျိုး ပေးထားတဲ့ စကားလုံးတစ်လုံးကို token အများအပြားအဖြစ် ခွဲနိုင်တယ်ပေါ့။,"大多数变换器模型使用一个单词代号算法, 这意味着一个给定的单词可以分成几个符号, 如这里的代号 。"
564,"Look at the ""Tokenization algorithms"" video link below for more information.","အသေးစိတ်သိချင်ရင် အောက်က ""Tokenization algorithms"" ဗီဒီယိုလင့်ခ်ကို ကြည့်လိုက်ပါ။","看看下面的“儿童化算法”视频链接,以了解更多信息。"
565,The # # prefix we see in front of ize is a convention used by Bert to indicate this token is not the beginning of the word.,ize ရဲ့ ရှေ့မှာ မြင်ရတဲ့ # # က Bert က သုံးတဲ့ အမှတ်အသားဖြစ်ပြီး ဒီ token က စကားလုံးရဲ့ အစ မဟုတ်ဘူးဆိုတာကို ပြတယ်။,####前缀我们看到的在化前 是伯特用来表示这个象征的公约 并不是这个词的开头。
566,"Other tokenizers may use different conventions however: for instance, ALBERT tokenizers will add a long underscore in front of all the tokens that added space before them, which is a convention shared by all sentencepiece tokenizers.",ဒါပေမယ့် တခြား tokenizer တွေကတော့ မတူညီတဲ့ အမှတ်အသားတွေ သုံးနိုင်ပါတယ်၊ ဥပမာ ALBERT tokenizer တွေက စကားလုံးတွေရဲ့ ရှေ့မှာ နေရာလွတ်ထည့်ထားတဲ့ token အားလုံးရဲ့ ရှေ့မှာ underscore ရှည်ကြီး ထည့်ပေးတယ်၊ ဒီအမှတ်အသားက sentencepiece tokenizer အားလုံး သုံးတဲ့ ပုံစံပါ။,"然而,其他代用品商可能使用不同的公约:例如,ALBERT代用品商在它们之前添加空间的所有代用品前,将增加很长的亮度,这是所有名词代用品都共享的一项公约。"
567,The second step of the tokenization pipeline is to map those tokens to their respective IDs as defined by the vocabulary of the tokenizer.,tokenization pipeline ရဲ့ ဒုတိယအဆင့်ကတော့ အဲဒီ tokens တွေကို tokenizer ရဲ့ ဝေါဟာရမှာ သတ်မှတ်ထားတဲ့ သက်ဆိုင်ရာ ID တွေနဲ့ ချိတ်ဆက်ဖို့ ဖြစ်တယ်။,"代号化管道的第二步是将这些代号映射到它们各自的代号上,由代号器的词汇定义。"
568,This is why we need to download the file when we instantiate a tokenizer with the from_pretrained method.,ဒါကြောင့် from_pretrained method နဲ့ tokenizer ကို စတင်တဲ့အခါ ဖိုင်ကို ဒေါင်းလုဒ်လုပ်ဖို့ လိုအပ်တာပေါ့။,这就是为什么我们需要下载文件 当我们用预设方法 即刻给一个象征器下载时。
569,We have to make sure we use the same mapping as when the model was pretrained.,မော်ဒယ်ကို ကြိုတင်လေ့ကျင့်တုန်းက သုံးခဲ့တဲ့ mapping အတိုင်း သုံးဖို့ သေချာအောင် လုပ်ရမယ်။,我们必须确保我们使用与模型培训前相同的绘图。
570,"To do this, we use the convert_tokens_to_ids method.",ဒီလိုလုပ်ဖို့ convert_tokens_to_ids method ကို သုံးတယ်။,"为此,我们使用转换_tokens_to_ids 方法。"
571,"We may have noticed that we don't have the exact same results as in our first slide, or not as this looks like a list of random numbers anyway, in which case, allow me to refresh your memory.",ကျွန်တော်တို့ ပထမဆုံး slide က ရလဒ်အတိုင်း အတိအကျ မရဘူးဆိုတာ သတိထားမိကောင်း ထားမိလိမ့်မယ်၊ ဒါမှမဟုတ် ဒါက ကျပန်းဂဏန်းစာရင်းလိုပဲ ဖြစ်နေတယ်ဆိုရင် ကျွန်တော့်ကို သင့်မှတ်ဉာဏ်ကို ပြန်လန်းဆန်းခွင့်ပေးပါ။,"我们可能已经注意到,我们没有 完全相同的结果 与我们的第一张幻灯片, 或者,因为这里看起来不像一个列表 随机数字反正, 在这种情况下,允许我 刷新你的记忆。"
572,"We had a the number at the beginning and a number at the end that are missing, those are the special tokens.",အစမှာ ဂဏန်းတစ်ခုနဲ့ အဆုံးမှာ ဂဏန်းတစ်ခု ပျောက်နေတယ်၊ အဲဒါတွေက special token တွေပါ။,"我们开始时有一个数字,最后有一个数字没有,这些都是特殊标记。"
573,The special tokens are added by the prepare_for_model method which knows the indices of this token in the vocabulary and just adds the proper numbers in the input IDs list.,special token တွေကို prepare_for_model method က ထည့်ပေးတာဖြစ်ပြီး ဒီ token ရဲ့ အညွှန်းတွေကို ဝေါဟာရမှာ သိပြီး input IDs စာရင်းထဲမှာ သင့်လျော်တဲ့ ဂဏန်းတွေကို ထည့်ပေးလိုက်တာပါ။,"特殊标记由备案_for_model 方法添加,该方法在词汇表中知道该标记的索引,只需在输入 ID 列表中添加适当数字即可。"
574,"You can look at the special tokens and, more generally, at how the tokenizer has changed your text, by using the decode method on the outputs of the tokenizer object.",special token တွေအကြောင်း၊ ဒါမှမဟုတ် ယေဘုယျအားဖြင့် tokenizer က သင့်စာသားကို ဘယ်လိုပြောင်းလဲလိုက်လဲဆိုတာကို tokenizer ရဲ့ အထွက်တွေပေါ်မှာ decode method ကို သုံးပြီး ကြည့်နိုင်တယ်။,"您可以查看特殊标记, 更广义地说, 标记器是如何通过在标记器对象的输出上使用解码方法修改文本的。"
575,"As for the prefix for beginning of words/ part of words, for special tokens vary depending on which tokenizer you're using.",စကားလုံးအစ/ စကားလုံးအပိုင်းအတွက် prefix တွေလိုပဲ special token တွေကလည်း သင်သုံးနေတဲ့ tokenizer အမျိုးအစားပေါ် မူတည်ပြီး ကွဲပြားပါတယ်။,"至于单词/ 部分单词开头的前缀, 对于特殊标记, 取决于您使用的代号符号 。"
576,"So that tokenizer uses CLS and SEP, but the roberta tokenizer uses HTML-like anchors and .",ဒီ tokenizer က CLS နဲ့ SEP ကို သုံးပေမယ့် roberta tokenizer ကတော့ HTML နဲ့ ဆင်တူတဲ့ နဲ့ anchor တွေကို သုံးတယ်။,"该代号器使用 CLS 和 SEP, 但强盗代号器使用类似 HTML 的锚 < s > 和 。"
577,"Now that you know how the tokenizer works, you can forget all those intermediate methods, and then you remember that you just have to call it on your input texts.",အခု tokenizer ဘယ်လိုအလုပ်လုပ်လဲ သိပြီဆိုတော့ ဒီကြားခံ method တွေအားလုံးကို မေ့ပစ်နိုင်ပြီး သင့်ရဲ့ ထည့်သွင်းစာသားတွေပေါ်မှာ သူ့ကို ခေါ်ဖို့ပဲ လိုတယ်ဆိုတာ မှတ်ထားပါ။,"现在你知道代币器是如何运作的, 你可以忘记所有这些中间方法, 然后记住,你只需要在输入文本上调用它。"
578,"The output of a tokenizer don't just contain the input IDs, however.",ဒါပေမယ့် tokenizer ရဲ့ အထွက်မှာ input ID တွေချည်းပဲ ပါဝင်တာ မဟုတ်ပါဘူး။,"然而,一个代谢器的输出并不只是包含输入的代号。"
579,"To learn what the attention mask is, check out the ""Batch input together"" video.","attention mask ဆိုတာ ဘာလဲဆိုတာ သိဖို့ ""Batch input together"" ဗီဒီယိုကို ကြည့်ပါ။","学习什么是关注面罩, 看看“批量输入在一起”的视频。"
580,"To learn about token type IDs, look at the ""Process pairs of sentences"" video.","token type ID တွေအကြောင်း သိဖို့ ""Process pairs of sentences"" ဗီဒီယိုကို ကြည့်ပါ။","要学习象征性的ID类型, 请看“ 处理对句子” 视频 。"
581,How to batch inputs together.,ထည့်သွင်းမှုတွေကို ဘယ်လို အစုလိုက် ပေါင်းလုပ်မလဲ။,如何将投入集成在一起。
582,"In this video, we will see how to batch input sequences together.",ဒီဗီဒီယိုမှာ ထည့်သွင်း sequence တွေကို ဘယ်လို အစုလိုက် ပေါင်းလုပ်မလဲဆိုတာ ကြည့်ရအောင်။,"在这部影片中,我们将看到如何将输入序列组合在一起。"
583,"In general, the sentences we want to pass through our model won't all have the same lengths.",ယေဘူယျအားဖြင့် ကျွန်တော်တို့ မော်ဒယ်ထဲ ဖြတ်သန်းချင်တဲ့ ဝါကျတွေက အရှည်မတူညီကြပါဘူး။,"一般来说,我们想通过我们模式的句子 并不是每个人都有相同的长度"
584,"Here, we are using the model we saw in the sentiment analysis pipeline and want to classify two sentences.",ဒီမှာ sentiment analysis pipeline မှာ မြင်ခဲ့ရတဲ့ မော်ဒယ်ကို သုံးပြီး ဝါကျနှစ်ကြောင်းကို ခွဲခြားချင်တယ်။,"在这里,我们正在使用我们在情绪分析管道中看到的模型,我们想对两句进行分类。"
585,"When tokenizing them and mapping each token to its corresponding input IDs, we get two lists of different lengths.",သူတို့ကို tokenization လုပ်ပြီး token တစ်ခုစီကို သက်ဆိုင်ရာ input ID နဲ့ ချိတ်ဆက်တဲ့အခါ အရှည်မတူညီတဲ့ list နှစ်ခု ရလာတယ်။,"当标记它们并绘制每个标记到相应的输入代号时, 我们得到两个不同的长度列表 。"
586,"Trying to create a tensor or a NumPy array from those two lists will result in an error, because all arrays and tensors should be rectangular.",ဒီ list နှစ်ခုကနေ tensor ဒါမှမဟုတ် NumPy array တစ်ခု ဖန်တီးဖို့ ကြိုးစားရင် error ဖြစ်လိမ့်မယ်၊ ဘာလို့လဲဆိုတော့ array နဲ့ tensor အားလုံးက ထောင့်မှန်ပုံစံ ဖြစ်ရလို့ပါ။,"试图从这两个列表中创建一个 shor 或 NumPy 阵列会导致错误, 因为所有阵列和 shor 都应该是矩形 。"
587,One way to overcome this limit is to make the second sentence the same length as the first by adding a special token as many times as necessary.,ဒီကန့်သတ်ချက်ကို ကျော်လွှားဖို့ နည်းလမ်းတစ်ခုကတော့ လိုအပ်သလောက် special token တစ်ခုကို ထည့်ပြီး ဒုတိယဝါကျကို ပထမဝါကျနဲ့ အရှည်တူအောင် လုပ်လိုက်တာပဲ။,"克服这一限制的一个办法是使第二句与第一句的长度相同,增加必要的特别标记次数。"
588,"Another way would be to truncate the first sequence to the length of the second, but we would them lose a lot of information that might be necessary to properly classify the sentence.",နောက်ထပ် နည်းလမ်းတစ်ခုကတော့ ပထမ sequence ကို ဒုတိယရဲ့ အရှည်အထိ ဖြတ်တောက်လိုက်တာပါ၊ ဒါပေမယ့် အဲဒီအခါ ဝါကျကို သေချာ ခွဲခြားဖို့ လိုအပ်တဲ့ အချက်အလက်တွေ အများကြီး ဆုံးရှုံးသွားနိုင်တယ်။,"另一种办法是将第一个顺序缩短到第二个顺序的长度,但我们会损失许多信息,而这些信息对于适当分类该句可能是必要的。"
589,"In general, we only truncate sentences when they are longer than the maximum length the model can handle.",ယေဘူယျအားဖြင့် မော်ဒယ် ကိုင်တွယ်နိုင်တဲ့ အများဆုံးအရှည်ထက် ပိုရှည်တဲ့ ဝါကျတွေကိုမှသာ ဖြတ်တောက်လေ့ရှိပါတယ်။,"一般来说,我们只有在刑期超过模式所能处理的最长刑期时,才能缩短刑期。"
590,The value used to pad the second sentence should not be picked randomly;,ဒုတိယဝါကျကို pad လုပ်ဖို့ သုံးတဲ့ တန်ဖိုးကို ကျပန်း ရွေးချယ်တာမျိုး မလုပ်သင့်ပါဘူး။,不应随机选取用于加插第二句的值;
591,"the model has been pretrained with a certain padding ID, which you can find in tokenizer.pad_token_id.",မော်ဒယ်ကို သတ်မှတ်ထားတဲ့ padding ID တစ်ခုနဲ့ ကြိုတင်လေ့ကျင့်ထားပြီး အဲဒါကို tokenizer.pad_token_id မှာ ရှာတွေ့နိုင်တယ်။,"该模型已经使用一定的标记标识进行了预修, 您可以在 mostizer.pad_ token_ id 中找到该标识 。"
592,"Now that we have padded our sentences, we can make a batch with them.",ကျွန်တော်တို့ ဝါကျတွေကို pad လုပ်ပြီးပြီဆိုတော့ အဲဒါတွေနဲ့ batch တစ်ခု ဖန်တီးနိုင်ပြီ။,既然我们加了句子 我们可以和他们一起做一批
593,"If we pass the two sentences to the model separately and batched together however, we notice that we don't get the same results for the sentence that is padded, here, the second one.",ဒါပေမယ့် ဝါကျနှစ်ကြောင်းကို သီးခြားစီ ပေးပို့သည်ဖြစ်စေ၊ အစုလိုက် ပေါင်းလုပ်သည်ဖြစ်စေ pad လုပ်ထားတဲ့ ဝါကျအတွက်၊ ဒီမှာ ဒုတိယဝါကျပေါ့၊ ရလဒ်မတူတာကို သတိထားမိတယ်။,"如果我们将两句分别分解到模型中, 并分批排列, 我们注意到,我们没有得到相同的结果 的句子是加加的,这里,第二句。"
594,It's at the back in the Transformers Library? No.,ဒါက Transformer Library မှာ နောက်ကွယ်မှာ ဘာတွေဖြစ်နေတာလဲ။ မဟုတ်ဘူး။,在变形图书馆后面?
595,"If you remember that Transformer models make heavy use of attention layers, this should not come as a total surprise;",Transformer မော်ဒယ်တွေဟာ attention layer တွေကို အဓိက အသုံးပြုတယ်ဆိုတာ မှတ်မိရင် ဒါက လုံးဝ အံ့သြစရာ မဖြစ်သင့်ပါဘူး။,"如果你记得变形模型 大量使用关注层, 这不应该是一个完全的惊喜;"
596,"when computing the contextual representation of each token, the attention layers look at all the other words in the sentence.",token တစ်ခုစီရဲ့ context နဲ့ဆိုင်တဲ့ ကိုယ်စားပြုမှုကို တွက်ချက်တဲ့အခါ attention layer တွေက ဝါကျထဲက တခြားစကားလုံးအားလုံးကို ကြည့်တယ်။,"当计算每个符号的背景代表时, 注意层会查看句子中的所有其它词 。"
597,"If we have just the sentence or the sentence with several padding tokens added, it's logical we don't get the same values.",ကျွန်တော်တို့မှာ ဝါကျသက်သက် ဒါမှမဟုတ် padding token တွေ ထပ်ထည့်ထားတဲ့ ဝါကျ ရှိနေရင် တန်ဖိုးတွေ မတူညီတာက ဆင်ခြင်တုံတရားနဲ့ ကိုက်ညီပါတယ်။,"如果我们只有句子或句子加上几张挂牌, 合乎逻辑的是,我们没有得到相同的值。"
598,"To get the same results with or without padding, we need to indicate to the attention layers that they should ignore those padding tokens.",padding ပါသည်ဖြစ်စေ၊ မပါသည်ဖြစ်စေ တူညီတဲ့ ရလဒ်တွေ ရဖို့အတွက် အဲဒီ padding token တွေကို လျစ်လျူရှုသင့်ကြောင်း attention layer တွေကို ညွှန်ပြဖို့ လိုတယ်။,"为了取得同样的结果,无论是否划线,我们需要向关注层表明,它们应该忽略那些划线标牌。"
599,"This is done by creating an attention mask, a tensor with the same shape as the input IDs, with zeros and ones.",ဒါကို input ID တွေနဲ့ ပုံသဏ္ဍာန်တူပြီး သုညနဲ့ တစ် တွေပါတဲ့ tensor တစ်ခုဖြစ်တဲ့ attention mask ကို ဖန်တီးခြင်းဖြင့် လုပ်ဆောင်တယ်။,"这样做的方法是制作一个关注面罩,一个与输入代号形状相同的抗拉,零和一。"
600,Ones indicate the tokens the attention layers should consider in the context and zeros the tokens they should ignore.,တစ် ကတော့ attention layer တွေက context မှာ ထည့်သွင်းစဉ်းစားသင့်တဲ့ token တွေကို ညွှန်ပြပြီး သုည ကတော့ လျစ်လျူရှုသင့်တဲ့ token တွေပေါ့။,"一个表示注意层在上下文中应考虑的象征,零表示它们应当忽略的象征。"
601,"Now, passing this attention mask along with the input ID will give us the same results as when we sent the two sentences individually to the model.",အခု attention mask ကို input ID နဲ့အတူ ပေးပို့လိုက်ရင် ဝါကျနှစ်ကြောင်းကို မော်ဒယ်ဆီ တစ်သီးပုဂ္ဂလ ပို့ခဲ့တုန်းကလိုပဲ တူညီတဲ့ ရလဒ်တွေကို ပေးပါလိမ့်မယ်။,"现在,通过这个注意力面具 连同输入ID 将给我们同样的结果 当我们把两句话 单独送到模型。"
602,This is all done behind the scenes by the tokenizer when you apply it to several sentences with the flag padding=True.,padding=True flag နဲ့ စာကြောင်းများစွာကို အသုံးပြုတဲ့အခါ tokenizer က ဒါတွေအားလုံးကို နောက်ကွယ်ကနေ လုပ်ဆောင်ပေးတာပါ။,这一切都在幕后由代号器完成 当您在几个句子上应用它时 挂着旗杆的字句是True 。
603,It will apply the padding with the proper value to the smaller sentences and create the appropriate attention mask.,သူက သေးငယ်တဲ့ ဝါကျတွေအတွက် သင့်လျော်တဲ့ တန်ဖိုးနဲ့ padding ကို အသုံးချပြီး သင့်လျော်တဲ့ attention mask ကို ဖန်တီးပေးလိမ့်မယ်။,"它将对较小的句子使用适当价值的垫子,并产生适当的注意面罩。"
604,"In this video, we'll see how to batch input sequences together.",ဒီဗီဒီယိုမှာ ထည့်သွင်း sequence တွေကို ဘယ်လို အစုလိုက် ပေါင်းလုပ်မလဲဆိုတာ ကြည့်ရအောင်။,"在这段视频中,我们会看到如何一起分批输入序列。"
605,Trying to create a tensor and NumPy array from those two lists will result in an error because all arrays and tensors should be rectangular.,ဒီ list နှစ်ခုကနေ tensor ဒါမှမဟုတ် NumPy array တစ်ခု ဖန်တီးဖို့ ကြိုးစားရင် error ဖြစ်လိမ့်မယ်၊ ဘာလို့လဲဆိုတော့ array နဲ့ tensor အားလုံးက ထောင့်မှန်ပုံစံ ဖြစ်ရလို့ပါ။,"试图从这两个列表中创建一个 shor 和 NumPy 阵列会导致错误, 因为所有阵列和 shor 都应该是矩形 。"
606,"Another way would be to truncate the first sequence to the length of the second, but we would then lose a lot of information that may be necessary to properly classify the sentence.",နောက်ထပ် နည်းလမ်းတစ်ခုကတော့ ပထမ sequence ကို ဒုတိယရဲ့ အရှည်အထိ ဖြတ်တောက်လိုက်တာပါ၊ ဒါပေမယ့် အဲဒီအခါ ဝါကျကို သေချာ ခွဲခြားဖို့ လိုအပ်တဲ့ အချက်အလက်တွေ အများကြီး ဆုံးရှုံးသွားနိုင်တယ်။,"另一种方式是将第一个顺序缩短到第二个顺序的长度,但我们将失去许多可能为适当分类该句而必要的信息。"
607,The value used to pad the second sentence should not be picked randomly.,ဒုတိယဝါကျကို pad လုပ်ဖို့ သုံးတဲ့ တန်ဖိုးကို ကျပန်း ရွေးချယ်တာမျိုး မလုပ်သင့်ပါဘူး။,不应随机选择用于插入第二句的值。
608,"The model has been pretrained with a certain padding ID, which you can find in tokenizer.pad_token_id.",မော်ဒယ်ကို သတ်မှတ်ထားတဲ့ padding ID တစ်ခုနဲ့ ကြိုတင်လေ့ကျင့်ထားပြီး အဲဒါကို tokenizer.pad_token_id မှာ ရှာတွေ့နိုင်တယ်။,"该模型已经预设了一定的标签标识, 您可以在 mostizer.pad_token_id 中找到该标识 。"
609,"If we pass the two sentences to the model separately or batched together, however, we notice that we don't get the same results for the sentence that is padded.",ဒါပေမယ့် ဝါကျနှစ်ကြောင်းကို သီးခြားစီ ပေးပို့သည်ဖြစ်စေ၊ အစုလိုက် ပေါင်းလုပ်သည်ဖြစ်စေ pad လုပ်ထားတဲ့ ဝါကျအတွက် ရလဒ်မတူတာကို သတိထားမိတယ်။,"但是,如果我们将两句分别或分批地分解到模式中,我们注意到,对于加添的句子,我们没有获得同样的结果。"
610,"Here, the second one.",ဒီမှာ ဒုတိယဝါကျပေါ့။,"在这里,第二个。"
611,Expect the word in the transformer library? No.,Transformer library မှာ ဘာတွေဖြစ်နေလဲဆိုတာကို မျှော်လင့်တာလား။ မဟုတ်ဘူး။,变压器图书馆有消息吗?
612,"If you remember that Transformer models make heavy use of attention layers, it should not come as a total surprise.",Transformer မော်ဒယ်တွေဟာ attention layer တွေကို အဓိက အသုံးပြုတယ်ဆိုတာ မှတ်မိရင် ဒါက လုံးဝ အံ့သြစရာ မဖြစ်သင့်ပါဘူး။,"如果你记得变形模型 大量使用关注层, 它不应该是一个完全的惊喜。"
613,"When computing the contextual representation of each token, the attention layers look at all the other words in the sentence.",token တစ်ခုစီရဲ့ context နဲ့ဆိုင်တဲ့ ကိုယ်စားပြုမှုကို တွက်ချက်တဲ့အခါ attention layer တွေက ဝါကျထဲက တခြားစကားလုံးအားလုံးကို ကြည့်တယ်။,"当计算每个符号的背景代表时, 注意层会查看句子中的所有其它词 。"
614,"If we have just a sentence or the sentence with several padding tokens added, it's logical we don't get the same values.",ကျွန်တော်တို့မှာ ဝါကျသက်သက် ဒါမှမဟုတ် padding token တွေ ထပ်ထည့်ထားတဲ့ ဝါကျ ရှိနေရင် တန်ဖိုးတွေ မတူညီတာက ဆင်ခြင်တုံတရားနဲ့ ကိုက်ညီပါတယ်။,"如果我们只有一句句子或句子,加上几张挂牌, 这是合乎逻辑的, 我们没有得到相同的值。"
615,"This is done by creating an attention mask, a tensor with the same shape as the input IDs with zeros and ones.",ဒါကို input ID တွေနဲ့ ပုံသဏ္ဍာန်တူပြီး သုညနဲ့ တစ် တွေပါတဲ့ tensor တစ်ခုဖြစ်တဲ့ attention mask ကို ဖန်တီးခြင်းဖြင့် လုပ်ဆောင်တယ်။,"这样做的方法是制作一个关注面罩,一个与输入代号无和无相同的阵列,形状与输入代号相同。"
616,"Ones indicate the tokens the attention layers should consider in the context, and zeros, the tokens they should ignore.",တစ် ကတော့ attention layer တွေက context မှာ ထည့်သွင်းစဉ်းစားသင့်တဲ့ token တွေကို ညွှန်ပြပြီး သုည ကတော့ လျစ်လျူရှုသင့်တဲ့ token တွေပေါ့။,"一个表示注意层在上下文中应考虑的象征物,零表示它们应该忽略的象征物。"
617,"Now, passing this attention mask along with the input IDs will give us the same results as when we sent the two sentences individually to the model.",အခု attention mask ကို input ID နဲ့အတူ ပေးပို့လိုက်ရင် ဝါကျနှစ်ကြောင်းကို မော်ဒယ်ဆီ တစ်သီးပုဂ္ဂလ ပို့ခဲ့တုန်းကလိုပဲ တူညီတဲ့ ရလဒ်တွေကို ပေးပါလိမ့်မယ်။,"现在,通过这个关注面罩 加上输入ID 将给我们同样的结果 当我们把两句话 单独送到模型。"
618,This is all done behind the scenes by the tokenizer when you apply it to several sentences with the flag padding equals true.,padding equals true flag နဲ့ စာကြောင်းများစွာကို အသုံးပြုတဲ့အခါ tokenizer က ဒါတွေအားလုံးကို နောက်ကွယ်ကနေ လုပ်ဆောင်ပေးတာပါ။,"这一切都在幕后由象征器在幕后完成 当您将其应用到几个句子上时, 旗杆等于真实。"
619,"The Hugging Face Datasets library, a quick overview.",Hugging Face Datasets library ကို အမြန်ကြည့်ရအောင်။,"抱抱脸数据集图书馆,简要概述。"
620,The Hugging Face Datasets library is a library that provides an API to quickly download many public datasets and preprocess them.,Hugging Face Datasets library က အများသုံး ဒေတာအတွဲများစွာကို အမြန် ဒေါင်းလုဒ်လုပ်ပြီး ကြိုတင် စီမံဆောင်ရွက်ဖို့ API ကို ပေးထားတဲ့ library တစ်ခု ဖြစ်ပါတယ်။,"Huging Face数据集图书馆是一个图书馆,提供API,用于快速下载和预处理许多公共数据集。"
621,In this video we will explore how to do that.,ဒီဗီဒီယိုမှာတော့ အဲဒီလို လုပ်ဆောင်ပုံကို လေ့လာသွားမှာပါ။,我们将探索如何做到这一点。
622,"The downloading part is easy, with the load_dataset function.",ဒေါင်းလုဒ်လုပ်တဲ့ အပိုင်းကတော့ load_dataset function နဲ့ လွယ်ကူပါတယ်။,"下载部分比较容易, 带有load_ dataset 函数 。"
623,You can directly download and cache a dataset from its identifier on the Dataset hub.,Dataset hub ပေါ်က သူ့ရဲ့ ခွဲခြားသတ်မှတ်ချက်ကို သုံးပြီး ဒေတာအတွဲတစ်ခုကို တိုက်ရိုက် ဒေါင်းလုဒ်လုပ်ပြီး သိမ်းဆည်းနိုင်တယ်။,您可以直接从数据集枢纽的标识符上下载数据集并将其缓存。
624,"Here, we fetch the MRPC dataset from the GLUE benchmark, which is a dataset containing pairs of sentences where the task is to determine the paraphrases.",ဒီမှာ GLUE benchmark ကနေ MRPC ဒေတာအတွဲကို ယူလာတယ်၊ ဒါကတော့ စာကြောင်းအတွဲတွေ ပါဝင်ပြီး ရည်ရွယ်ချက်က အဲဒီစာကြောင်းတွေ တူညီတဲ့ အဓိပ္ပာယ်လားဆိုတာ ဆုံးဖြတ်ဖို့ ဖြစ်တယ်။,"在此, 我们从 GLUE 基准中获取 MRPC 数据集, 即包含一对句子的数据集, 该数据集的任务是确定参数 。"
625,"The object returned by the load_dataset function is a DatasetDict, which is a sort of dictionary containing each split of our dataset.",load_dataset function ကနေ ပြန်လာတဲ့ object က DatasetDict ဖြစ်ပြီး၊ ဒါက ကျွန်တော်တို့ရဲ့ ဒေတာအတွဲရဲ့ split တစ်ခုစီ ပါဝင်တဲ့ dictionary တစ်မျိုးပါပဲ။,"负载数据设置函数返回的对象是一个数据集Dict, 它是一种包含我们数据集各部分的字典 。"
626,We can access each split by indexing with its name.,သူ့ရဲ့ နာမည်နဲ့ အညွှန်းတပ်ပြီး split တစ်ခုစီကို ဝင်ကြည့်နိုင်တယ်။,"我们可以通过以其名称编制索引的方式, 访问每个分割点。"
627,"This split is then an instance of the Dataset class, with columns, here sentence1, sentence2, label and idx, and rows.",ဒီ split က Dataset class ရဲ့ instance တစ်ခုဖြစ်ပြီး ဒီမှာ sentence1၊ sentence2၊ label နဲ့ idx စတဲ့ column တွေနဲ့ row တွေ ပါဝင်တယ်။,"此分割为数据集类的例子, 包括列、 句子、 句子、 句子、 标签、 idx 和行 。"
628,We can access a given element by its index.,ပေးထားတဲ့ element ကို သူ့ရဲ့ index နဲ့ ဝင်ကြည့်နိုင်တယ်။,我们可以通过指数获取某个元素。
629,"The amazing thing about the Hugging Face Datasets library is that everything is saved to disk using Apache Arrow, which means that even if your dataset is huge, you won't get out of RAM.",Hugging Face Datasets library ရဲ့ အံ့သြစရာကောင်းတဲ့ အချက်ကတော့ အရာအားလုံးကို Apache Arrow ကို သုံးပြီး disk မှာ သိမ်းဆည်းထားတာကြောင့် သင့်ရဲ့ ဒေတာအတွဲက အရမ်းကြီးနေရင်တောင် RAM ပြည့်သွားမှာ မဟုတ်ဘူး။,"Huggging Face Datas 库的惊人之处是,所有的东西都用 Apache Arrow 保存在磁盘上,这意味着,即使你的数据集巨大,你也不会离开内存。"
630,Only the elements you request are loaded in memory.,သင်တောင်းဆိုတဲ့ element တွေကိုပဲ memory ထဲကို တင်ပေးတယ်။,只有您要求的元素装入了内存 。
631,Accessing a slice of your dataset is as easy as one element.,သင့်ဒေတာအတွဲရဲ့ အပိုင်းအစတစ်ခုကို ဝင်ကြည့်တာက element တစ်ခုကို ဝင်ကြည့်သလို လွယ်ကူပါတယ်။,访问您的数据集的片段和元素一样容易。
632,The result is then a dictionary with list of values for each keys.,ရလဒ်ကတော့ key တစ်ခုချင်းစီအတွက် တန်ဖိုးစာရင်းတွေပါတဲ့ dictionary တစ်ခု ဖြစ်တယ်။,结果是包含每个键值列表的字典。
633,"Here the list of labels, the list of first sentences and the list of second sentences.",ဒီမှာ label တွေရဲ့ စာရင်း၊ ပထမဝါကျတွေရဲ့ စာရင်းနဲ့ ဒုတိယဝါကျတွေရဲ့ စာရင်းပေါ့။,在此列出标签清单、第一句清单和第二句清单。
634,The features attribute of a Dataset gives us more information about its columns.,Dataset ရဲ့ features attribute က သူ့ရဲ့ column တွေအကြောင်း အချက်အလက်တွေ ပိုပေးတယ်။,数据集的属性使我们获得更多有关其列的信息。
635,"In particular, we can see here it gives us the correspondence between the integers and names for the labels.",အထူးသဖြင့် ဒီမှာ integer တွေနဲ့ label တွေရဲ့ နာမည်တွေကြားက ဆက်စပ်မှုကို ပေးထားတာကို တွေ့ရတယ်။,"特别是,我们可以看到,这里它给我们提供了标签的整数和名称之间的对应关系。"
636,Zero stands for not equivalent and one for equivalent.,သုညက တူညီခြင်းမရှိ ကို ကိုယ်စားပြုပြီး တစ် ကတော့ တူညီခြင်း ကို ကိုယ်စားပြုတယ်။,"零表示不等同,一表示等同。"
637,"To preprocess all the elements of our dataset, we need to tokenize them.",ကျွန်တော်တို့ရဲ့ ဒေတာအတွဲထဲက element အားလုံးကို ကြိုတင်စီမံဆောင်ရွက်ဖို့အတွက် သူတို့ကို tokenization လုပ်ဖို့ လိုတယ်။,"要预处理我们数据集的所有元素, 我们需要标记它们 。"
638,"Have a look at the video ""Preprocess sentence pairs"" for a refresher, but you just have to send the two sentences to the tokenizer with some additional keyword arguments.","ပြန်လန်းဆန်းစေဖို့ ""Preprocess sentence pairs"" ဗီဒီယိုကို ကြည့်လိုက်ပါ၊ ဒါပေမယ့် ဝါကျနှစ်ကြောင်းကို keyword argument အချို့နဲ့အတူ tokenizer ဆီ ပို့ဖို့ပဲ လိုပါတယ်။","看一下录影带“前期句子配对”的复习器, 但你只需要把两句话连同一些额外的关键词参数一起寄给代号器。"
639,"Here we indicate a maximum length of 128 and pad inputs shorter than this length, truncate inputs that are longer.",ဒီမှာ အများဆုံးအရှည် ၁၂၈ ကို သတ်မှတ်ပြီး ဒီအရှည်ထက် တိုတဲ့ inputs တွေကို pad လုပ်တယ်၊ ရှည်တဲ့ inputs တွေကို ဖြတ်တောက်တယ်။,"这里我们表示最长长度为128个,小于这一长度的垫面输入,短于这一长度的截断输入。"
640,We put all of this in a tokenize_function that we can directly apply to all the splits in our dataset with the map method.,ဒီအရာအားလုံးကို tokenize_function ထဲ ထည့်လိုက်ပြီး map method နဲ့ ကျွန်တော်တို့ရဲ့ ဒေတာအတွဲထဲက split အားလုံးကို တိုက်ရိုက် အသုံးချနိုင်တယ်။,"我们把这些都放在一个象征性的功能中, 我们可以直接应用到我们的数据集中 与地图方法的所有分割中。"
641,"As long as the function returns a dictionary-like object, the map method will add new columns as needed or update existing ones.",function က dictionary လို object တစ်ခုကို ပြန်ပေးသရွေ့ map method က လိုအပ်သလို column အသစ်တွေ ထည့်ပေးနိုင်သလို ရှိပြီးသားတွေကိုလည်း update လုပ်နိုင်တယ်။,"只要该函数返回类似于字典的天体,地图方法将根据需要添加新列或更新现有列。"
642,"To speed up preprocessing and take advantage of the fact our tokenizer is backed by Rust, thanks to the Hugging Face Tokenizers library, we can process several elements at the same time to our tokenize function, using the batched=True argument.",ကြိုတင်စီမံဆောင်ရွက်မှုကို ပိုမိုမြန်ဆန်စေဖို့နဲ့ Hugging Face Tokenizers library ကြောင့် ကျွန်တော်တို့ရဲ့ tokenizer က Rust ရဲ့ ထောက်ခံမှုကို ရထားတယ်ဆိုတဲ့ အချက်ကို အခွင့်ကောင်းယူဖို့အတွက် batched=True argument ကို သုံးပြီး element အများအပြားကို တစ်ချိန်တည်းမှာ ကျွန်တော်တို့ရဲ့ tokenize function ကို စီမံဆောင်ရွက်နိုင်တယ်။,"为了加快预处理速度,利用我们的代号器 得到鲁斯特的支持, 多亏了哈格的脸调试器图书馆, 我们可以同时处理几个元素 来发挥象征功能, 使用批量的“ True” 参数 。"
643,"Since the tokenizer can handle list of first sentences, list of second sentences, the tokenize_function does not need to change for this.",tokenizer က ပထမဝါကျများစာရင်း၊ ဒုတိယဝါကျများစာရင်းကို ကိုင်တွယ်နိုင်တဲ့အတွက် tokenize_function က ဒီအတွက် ပြောင်းလဲဖို့ မလိုအပ်ဘူး။,"由于表示器可以处理第一个句子、第二个句子的清单,因此,表示器的功能无需为此更改。"
644,You can also use multiprocessing with the map method.,map method နဲ့ multiprocessing ကိုလည်း သုံးနိုင်တယ်။,您也可以使用地图方法的多处理。
645,Check out its documentation in the linked video.,အသေးစိတ်ကို လင့်ခ်ချိတ်ထားတဲ့ ဗီဒီယိုမှာ ကြည့်နိုင်ပါတယ်။,在链接视频中查看其文件。
646,"Once this is done, we are almost ready for training.",ဒါတွေ ပြီးပြီဆိုရင် ကျွန်တော်တို့ လေ့ကျင့်ဖို့အတွက် အသင့်ဖြစ်ပြီ။,"一旦完成这项工作,我们几乎准备接受训练。"
647,"We just remove the columns we don't need anymore with the remove_columns method, rename label to labels, since the models from the Hugging Face Transformers library expect that, and set the output format to our desired backend, Torch, TensorFlow or NumPy.",မလိုအပ်တော့တဲ့ column တွေကို remove_columns method နဲ့ ဖယ်ရှားတယ်၊ Hugging Face Transformers library က မော်ဒယ်တွေ လိုအပ်တဲ့အတိုင်း label ကို labels လို့ နာမည်ပြောင်းတယ်၊ ပြီးတော့ အထွက် format ကို ကျွန်တော်တို့ လိုချင်တဲ့ backend၊ Torch၊ TensorFlow ဒါမှမဟုတ် NumPy ကို သတ်မှတ်တယ်။,"我们只要删除我们不再需要的柱子, 使用移除校友的方法, 重新命名标签标签, 因为从 Hugging Face Trangers 库的模型 期望, 并设置输出格式到我们想要的后端, 火炬, TensorFlow 或 NumPy 。"
648,"If needed, we can also generate a short sample of a dataset using the select method.",လိုအပ်ရင် select method ကို သုံးပြီး ဒေတာအတွဲရဲ့ အတိုချုံး နမူနာတစ်ခုကိုလည်း ထုတ်လုပ်နိုင်ပါတယ်။,"如有必要,我们还可以使用选定方法生成一个简短的数据集样本。"
649,The Hugging Face Datasets library: A Quick overview.,Hugging Face Datasets library ကို အမြန်ကြည့်ရအောင်။,Huging Face数据集库:快速概览。
650,The Hugging Face Datasets library is a library that provides an API to quickly download many public datasets and pre-process them.,Hugging Face Datasets library က အများသုံး ဒေတာအတွဲများစွာကို အမြန် ဒေါင်းလုဒ်လုပ်ပြီး ကြိုတင် စီမံဆောင်ရွက်ဖို့ API ကို ပေးထားတဲ့ library တစ်ခု ဖြစ်ပါတယ်။,"Huging Face数据集图书馆是一个图书馆,提供API,以快速下载许多公共数据集并预处理。"
651,In this video we will explore to do that.,ဒီဗီဒီယိုမှာတော့ အဲဒီလို လုပ်ဆောင်ပုံကို လေ့လာသွားမှာပါ။,我们将在这段影片中探索如何做到这一点。
652,"The downloading part is easy with the load_dataset function, you can directly download and cache a dataset from its identifier on the Dataset hub.",ဒေါင်းလုဒ်လုပ်တဲ့ အပိုင်းကတော့ load_dataset function နဲ့ လွယ်ကူပါတယ်၊ Dataset hub ပေါ်က သူ့ရဲ့ ခွဲခြားသတ်မှတ်ချက်ကို သုံးပြီး ဒေတာအတွဲတစ်ခုကို တိုက်ရိုက် ဒေါင်းလုဒ်လုပ်ပြီး သိမ်းဆည်းနိုင်တယ်။,"下载部分使用load_ dataset 函数很容易,您可以直接下载并在数据集枢纽的标识符上缓存数据集。"
653,"Here we fetch the MRPC dataset from the GLUE benchmark, is a dataset containing pairs of sentences where the task is to determine the paraphrases.",ဒီမှာ GLUE benchmark ကနေ MRPC ဒေတာအတွဲကို ယူလာတယ်၊ ဒါကတော့ စာကြောင်းအတွဲတွေ ပါဝင်ပြီး ရည်ရွယ်ချက်က အဲဒီစာကြောင်းတွေ တူညီတဲ့ အဓိပ္ပာယ်လားဆိုတာ ဆုံးဖြတ်ဖို့ ဖြစ်တယ်။,"在此我们从 GLUE 基准中获取 MRPC 数据集, 是一个包含一对句子的数据集, 任务就是确定参数句 。"
654,"The amazing thing about the Hugging Face Datasets library is that everything is saved to disk using Apache Arrow, which means that even if your dataset is huge you won't get out of RAM, only the elements you request are loaded in memory.",Hugging Face Datasets library ရဲ့ အံ့သြစရာကောင်းတဲ့ အချက်ကတော့ အရာအားလုံးကို Apache Arrow ကို သုံးပြီး disk မှာ သိမ်းဆည်းထားတာကြောင့် သင့်ရဲ့ ဒေတာအတွဲက အရမ်းကြီးနေရင်တောင် RAM ပြည့်သွားမှာ မဟုတ်ဘူး၊ သင်တောင်းဆိုတဲ့ element တွေကိုပဲ memory ထဲကို တင်ပေးတယ်။,"Huggging Face Datas 库的惊人之处在于,所有的东西都用 Apache Arrow 保存在磁盘上,这意味着即使你的数据集巨大,你也不会从内存中出来,但只有你所要求的元素被装入了内存中。"
655,"The result is then a dictionary with list of values for each keys, here the list of labels, the list of first sentences, and the list of second sentences.",ရလဒ်ကတော့ key တစ်ခုချင်းစီအတွက် တန်ဖိုးစာရင်းတွေပါတဲ့ dictionary တစ်ခု ဖြစ်တယ်။ ဒီမှာ label တွေရဲ့ စာရင်း၊ ပထမဝါကျတွေရဲ့ စာရင်းနဲ့ ဒုတိယဝါကျတွေရဲ့ စာရင်းပေါ့။,"然后,结果将是一个包含每个键值列表的字典,这里是标签列表、第一句列表和第二句列表。"
656,"In particular, we can see here it gives us a correspondence between the integers and names for the labels.",အထူးသဖြင့် ဒီမှာ integer တွေနဲ့ label တွေရဲ့ နာမည်တွေကြားက ဆက်စပ်မှုကို ပေးထားတာကို တွေ့ရတယ်။,"特别是,我们可以看到,它给我们提供了 标签的整数和名称之间的对应。"
657,0 stands for not equivalent and 1 for equivalent.,သုညက တူညီခြင်းမရှိ ကို ကိုယ်စားပြုပြီး တစ် ကတော့ တူညီခြင်း ကို ကိုယ်စားပြုတယ်။,"0表示不等值,1表示等值。"
658,"To pre-process all the elements of our dataset, we need to tokenize them.",ကျွန်တော်တို့ရဲ့ ဒေတာအတွဲထဲက element အားလုံးကို ကြိုတင်စီမံဆောင်ရွက်ဖို့အတွက် သူတို့ကို tokenization လုပ်ဖို့ လိုတယ်။,"要预处理我们数据集的所有元素, 我们需要将它们标记为符号 。"
659,"Have a look at the video ""Pre-process sentence pairs"" for a refresher, but you just have to send the two sentences to the tokenizer with some additional keyword arguments.","ပြန်လန်းဆန်းစေဖို့ ""Pre-process sentence pairs"" ဗီဒီယိုကို ကြည့်လိုက်ပါ၊ ဒါပေမယ့် ဝါကျနှစ်ကြောင်းကို keyword argument အချို့နဲ့အတူ tokenizer ဆီ ပို့ဖို့ပဲ လိုပါတယ်။","看一下录像“预处理前的句子配对”作为复习器, 但你只需要把两句话连同一些额外的关键词参数一起寄给代号器。"
660,"To speed up pre-processing and take advantage of the fact our tokenizer is backed by Rust thanks to the Hugging Face Tokenizers library, we can process several elements at the same time in our tokenize function, using the batched=True argument.",ကြိုတင်စီမံဆောင်ရွက်မှုကို ပိုမိုမြန်ဆန်စေဖို့နဲ့ Hugging Face Tokenizers library ကြောင့် ကျွန်တော်တို့ရဲ့ tokenizer က Rust ရဲ့ ထောက်ခံမှုကို ရထားတယ်ဆိုတဲ့ အချက်ကို အခွင့်ကောင်းယူဖို့အတွက် batched=True argument ကို သုံးပြီး element အများအပြားကို တစ်ချိန်တည်းမှာ ကျွန်တော်တို့ရဲ့ tokenize function ကို စီမံဆောင်ရွက်နိုင်တယ်။,"为了加快预处理速度,利用这个事实,我们的代号器得到了鲁斯特的支持, 感谢Hugging Face Tokenizers图书馆, 我们可以同时处理我们象征性功能中的若干元素, 使用批量=True 参数 。"
661,"Since the tokenizer can handle a list of first or second sentences, the tokenize_function does not need to change for this.",tokenizer က ပထမ ဒါမှမဟုတ် ဒုတိယဝါကျများစာရင်းကို ကိုင်တွယ်နိုင်တဲ့အတွက် tokenize_function က ဒီအတွက် ပြောင်းလဲဖို့ မလိုအပ်ဘူး။,"由于表示器可以处理第一个或第二个句子的列表, 代号化的功能无需为此更改 。"
662,"You can also use multiprocessing with the map method, check out its documentation linked below.",map method နဲ့ multiprocessing ကိုလည်း သုံးနိုင်တယ်၊ အသေးစိတ်ကို အောက်က လင့်ခ်ချိတ်ထားတဲ့ စာရွက်စာတမ်းမှာ ကြည့်နိုင်တယ်။,"您也可以使用地图方法的多处理方式,查看以下链接的文档。"
663,"Once this is done, we are almost ready for training, we just remove the columns we don't need anymore with the remove_columns method, rename label to labels, since the models from the transformers library expect that, and set the output format to our desired backend, torch, tensorflow or numpy.",ဒါတွေ ပြီးပြီဆိုရင် ကျွန်တော်တို့ လေ့ကျင့်ဖို့အတွက် အသင့်ဖြစ်ပြီ၊ မလိုအပ်တော့တဲ့ column တွေကို remove_columns method နဲ့ ဖယ်ရှားတယ်၊ transformers library က မော်ဒယ်တွေ လိုအပ်တဲ့အတိုင်း label ကို labels လို့ နာမည်ပြောင်းတယ်၊ ပြီးတော့ အထွက် format ကို ကျွန်တော်တို့ လိုချင်တဲ့ backend၊ torch၊ tensorflow ဒါမှမဟုတ် numpy ကို သတ်မှတ်တယ်။,"一旦完成这项工作,我们几乎准备好接受训练了, 我们只要删除那些我们不再需要的柱子, 使用除去- 校友方法, 重新命名标签标签, 因为变压器图书馆的模型预期, 并设置输出格式到我们想要的后端, 火炬, 高压流或numpy 。"
664,How to pre-process pairs of sentences.,စာကြောင်းအတွဲတွေကို ဘယ်လို ကြိုတင်စီမံရမလဲ။,如何对判决进行预处理。
665,"We have seen how to tokenize single sentences and batch them together in the, ""Batching inputs together video.""","ကျွန်တော်တို့ စာကြောင်းတစ်ကြောင်းချင်းစီကို ဘယ်လို tokenize လုပ်ရမယ်၊ ပြီးတော့ ""Batching inputs together"" ဗီဒီယိုမှာ အတူတကွ batch လုပ်ရမယ်ဆိုတာ မြင်ပြီးပါပြီ။","我们已看到如何将单句判决化为象征,"
666,"If this code look unfamiliar to you, be sure to check that video again.",ဒီ code တွေက မရင်းနှီးဘူးဆိုရင် အဲဒီဗီဒီယိုကို သေချာပြန်ကြည့်ဖို့ မမေ့ပါနဲ့။,"如果这个代码在你看来不熟悉, 请务必再检查一遍视频。"
667,Here will focus on tasks that classify pair of sentences.,ဒီမှာတော့ စာကြောင်းအတွဲတွေကို ခွဲခြားသတ်မှတ်တဲ့ လုပ်ငန်းတွေအပေါ် အာရုံစိုက်သွားမှာပါ။,这里将侧重于对一对刑期进行分类的任务。
668,"For instance, we may want to classify whether two texts are paraphrased or not.",ဥပမာ၊ စာသားနှစ်ခုဟာ စကားလုံး အတူတူနီးပါးလား၊ မတူဘူးလားဆိုတာကို ခွဲခြားချင်တာမျိုး ဖြစ်နိုင်တယ်။,"例如,我们也许想对两个案文是否被转写或删除进行分类。"
669,"Here is an example taken from the Quora Question Pairs dataset, which focuses on identifying duplicate questions.",ဒီမှာ Quora Question Pairs dataset ကနေ ယူထားတဲ့ ဥပမာတစ်ခု ရှိတယ်၊ ဒါက မေးခွန်းတူတွေကို ဖော်ထုတ်ဖို့ အာရုံစိုက်ထားတာပါ။,"以下是Quora问题对等数据集的一个例子,该数据集的重点是查明重复的问题。"
670,"In the first pair, the two questions are duplicates, in the second they are not.",ပထမအတွဲမှာ မေးခွန်းနှစ်ခုက တူတယ်၊ ဒုတိယအတွဲမှာတော့ မတူပါဘူး။,"在第一对中,两个问题是重复的,第二个不是重复的。"
671,"Another pair classification problem is when we want to know if two sentences are logically related or not, a problem called natural language inference or NLI.",နောက်ထပ် အတွဲခွဲခြားသတ်မှတ်ခြင်း ပြဿနာတစ်ခုက စာကြောင်းနှစ်ကြောင်းဟာ ယုတ္တိရှိရှိ ဆက်စပ်မှု ရှိမရှိ သိချင်တာမျိုးပါ၊ အဲဒါကို natural language inference ဒါမှမဟုတ် NLI လို့ ခေါ်ကြတယ်။,"另一个夫妻分类问题是,当我们想知道两句在逻辑上是否相关时,这个问题被称为自然语言推断或非语言指数。"
672,"In this example, taken from the MultiNLI data set, we have a pair of sentences for each possible label.",MultiNLI ဒေတာအတွဲကနေ ယူထားတဲ့ ဒီဥပမာမှာ ဖြစ်နိုင်တဲ့ label တစ်ခုစီအတွက် စာကြောင်းအတွဲတစ်ခုစီ ရှိတယ်။,"在这个例子中,从多民族联盟数据集中取出,我们为每一个可能的标签加了一对句子。"
673,"Contradiction, natural or entailment, which is a fancy way of saying the first sentence implies the second.,Contradiction (ဆန့်ကျင်ဘက်)", natural (ကြားနေ) ဒါမှမဟုတ် entailment (ဆိုလိုရင်း)၊ ဒါက ပထမစာကြောင်းက ဒုတိယစာကြောင်းကို ဆိုလိုတယ်လို့ ပြောတဲ့ အမိုက်စားနည်းလမ်းပေါ့။,"矛盾、自然的或必然的,这是第一句引人入胜的一种说法。"
674,So classifying pairs of sentences is a problem worth studying.,ဒါကြောင့် စာကြောင်းအတွဲတွေကို ခွဲခြားသတ်မှတ်တာဟာ လေ့လာသင့်တဲ့ ပြဿနာတစ်ခု ဖြစ်ပါတယ်။,"因此,对判刑进行分类是一个值得研究的问题。"
675,"In fact, in the GLUE benchmark, which is an academic benchmark for text classification eight of the 10 data sets are focused on tasks using pairs of sentences.",တကယ်တော့ စာသားခွဲခြားသတ်မှတ်ခြင်းအတွက် ပညာရပ်ဆိုင်ရာ GLUE benchmark မှာ ဒေတာအတွဲ ၁၀ ခုထဲက ၈ ခုဟာ စာကြောင်းအတွဲတွေကို အသုံးပြုတဲ့ လုပ်ငန်းတွေပေါ်မှာ အာရုံစိုက်ထားတာပါ။,"事实上,GLUE基准是文本分类的学术基准,在10个数据集中,有8个数据集侧重于使用对等句子的任务。"
676,That's why models like BERT are often pre-trained with a dual objective.,အဲဒါကြောင့် BERT လို မော်ဒယ်တွေကို ရည်ရွယ်ချက်နှစ်ခုနဲ့ ကြိုတင်လေ့ကျင့်လေ့ ရှိတာပေါ့။,这就是为什么像BERT这样的模型 经常被预先训练 具有双重目的。
677,"On top of the language modeling objective, they often have an objective related to sentence pairs.",language modeling ရည်ရွယ်ချက်အပြင် စာကြောင်းအတွဲတွေနဲ့ ဆက်စပ်တဲ့ ရည်ရွယ်ချက်တစ်ခုလည်း မကြာခဏ ပါဝင်တတ်တယ်။,"在语言建模目标之外,它们往往有一个与对等刑罚有关的目标。"
678,"For instance, during pretraining BERT is shown pairs of sentences and must predict both the value of randomly masked tokens, and whether the second sentence follow from the first or not.",ဥပမာအားဖြင့် ကြိုတင်လေ့ကျင့်နေစဉ်အတွင်း BERT ကို စာကြောင်းအတွဲတွေ ပြသပြီး ကျပန်း ဖုံးကွယ်ထားတဲ့ tokens တွေရဲ့ တန်ဖိုးနဲ့ ဒုတိယစာကြောင်းက ပထမစာကြောင်းနောက်ကို လိုက်သလား မလိုက်ဘူးလားဆိုတာ နှစ်ခုလုံးကို ခန့်မှန်းရမယ်။,"例如,在培训前BERT期间,将显示一对判决,必须预测随机遮盖的标志的价值,以及第二句是否从第一句起算。"
679,"Fortunately, the tokenizer from the Transformers library has a nice API to deal with pairs of sentences.",ကံကောင်းစွာနဲ့ Transformers library က tokenizer မှာ စာကြောင်းအတွဲတွေကို ကိုင်တွယ်ဖို့ ကောင်းမွန်တဲ့ API ရှိတယ်။,"幸运的是,来自变异者图书馆的代言人 拥有一个很好的API 来处理一对判决。"
680,You just have to pass them as two arguments to the tokenizer.,သင်က အဲဒါတွေကို tokenizer ဆီကို argument နှစ်ခုအဖြစ် ပေးပို့လိုက်ရုံပါပဲ။,你只需要把它们作为两个论据 传给代言人就行了
681,"On top of the input IDs and the attention mask we studied already, it returns a new field called token type IDs, which tells the model which tokens belong to the first sentence, and which ones belong to the second sentence.",ကျွန်တော်တို့ လေ့လာပြီးသား input IDs နဲ့ attention mask တွေအပြင် token type IDs လို့ခေါ်တဲ့ field အသစ်တစ်ခုကို သူက ပြန်ပေးတယ်၊ အဲဒါက ဘယ် tokens တွေက ပထမစာကြောင်းမှာ ပါသလဲ၊ ဘယ်ဟာတွေက ဒုတိယစာကြောင်းမှာ ပါသလဲဆိုတာ မော်ဒယ်ကို ပြောပြပေးတယ်။,"在输入的 ID 和我们已经研究过的注意面罩上, 它返回一个新的字段, 叫做象征性的 ID, 它告诉模型, 哪些符号属于第一句, 哪些属于第二句 。"
682,"Zooming in a little bit, here has an input IDs aligned with the tokens they correspond to, their respective token type ID and attention mask.",နည်းနည်း ချဲ့ကြည့်မယ်ဆိုရင် ဒီမှာ input IDs တွေက သူတို့နဲ့ ကိုက်ညီတဲ့ tokens တွေ၊ token type ID နဲ့ attention mask တွေနဲ့ ချိန်ညှိထားတာကို တွေ့ရတယ်။,"放大一点, 这里有一个输入的 ID 与它们对应的符号、 各自的代号 ID 和 关注面罩匹配 。"
683,We can see the tokenizer also added special tokens.,Tokenizer က အထူး tokens တွေပါ ထည့်ပေးထားတာကို မြင်နိုင်ပါတယ်။,我们可以看到代币器还添加了特别的标志。
684,"So we have a CLS token, the tokens from the first sentence, a SEP token, the tokens from the second sentence, and a final SEP token.",ဒါကြောင့် CLS token၊ ပထမစာကြောင်းက tokens တွေ၊ SEP token၊ ဒုတိယစာကြောင်းက tokens တွေနဲ့ နောက်ဆုံး SEP token တစ်ခု ပါဝင်တယ်။,"因此,我们有一个CLS标记, 第一句的标记, SEP标记, 第二句的标记, 和最后的SEP标记。"
685,"If we have several pairs of sentences, we can tokenize them together by passing the list of first sentences, then the list of second sentences and all the keyword arguments we studied already like padding=True.",စာကြောင်းအတွဲများစွာ ရှိရင် ပထမစာကြောင်းများ စာရင်းကို ပေးပို့ပြီး၊ ဒုတိယစာကြောင်းများ စာရင်းကို ပေးပို့ကာ ကျွန်တော်တို့ လေ့လာပြီးသား padding=True လိုမျိုး keyword argument တွေအားလုံးနဲ့ အတူတကွ tokenize လုပ်နိုင်တယ်။,"如果我们有几句,我们可以通过头一句清单,然后通过第二句话清单和我们研究的所有关键词参数,来将它们同名化。"
686,"Zooming in at the result, we can see also tokenize added padding to the second pair sentences to make the two outputs the same length, and properly dealt with token type IDs and attention masks for the two sentences.",ရလဒ်ကို ချဲ့ကြည့်လိုက်ရင် output နှစ်ခုကို အရှည်တူအောင် ဒုတိယအတွဲ စာကြောင်းတွေမှာ padding ထည့်သွင်းထားတာကို တွေ့ရတယ်၊ ပြီးတော့ token type IDs နဲ့ attention masks တွေကိုလည်း စာကြောင်းနှစ်ကြောင်းလုံးအတွက် သင့်လျော်စွာ ကိုင်တွယ်ထားတယ်။,"放大结果后,我们可以看到,在第二句话中也象征性地加了加边,使两项产出的长度相同,并适当处理两句话的象征性身份证和注意面罩。"
687,This is then all ready to pass through our model.,ဒါဆိုရင် ဒါတွေအားလုံး ကျွန်တော်တို့ရဲ့ မော်ဒယ်ထဲကို ဖြတ်သန်းဖို့ အဆင်သင့် ဖြစ်နေပါပြီ။,"然后,这一切都准备通过我们的模型。"
688,How to preprocess pairs of sentences?,စာကြောင်းအတွဲတွေကို ဘယ်လို ကြိုတင်စီမံရမလဲ။,如何预处理对判决的预处理?
689,"We have seen how to tokenize single sentences and batch them together in the ""Batching inputs together"" video.","ကျွန်တော်တို့ စာကြောင်းတစ်ကြောင်းချင်းစီကို ဘယ်လို tokenize လုပ်ရမယ်၊ ပြီးတော့ ""Batching inputs together"" ဗီဒီယိုမှာ အတူတကွ batch လုပ်ရမယ်ဆိုတာ မြင်ပြီးပါပြီ။","我们已看到如何将单项判决化为象征,"
690,"If this code looks unfamiliar to you, be sure to check that video again!",ဒီ code တွေက မရင်းနှီးဘူးဆိုရင် အဲဒီဗီဒီယိုကို သေချာပြန်ကြည့်ဖို့ မမေ့ပါနဲ့။,"如果这个代码在你看来不熟悉, 请务必再检查一遍录像!"
691,"Here, we will focus on tasks that classify pairs of sentences.",ဒီမှာတော့ စာကြောင်းအတွဲတွေကို ခွဲခြားသတ်မှတ်တဲ့ လုပ်ငန်းတွေအပေါ် အာရုံစိုက်သွားမှာပါ။,"在此,我们将集中处理对判决进行分类的任务。"
692,"For instance, we may want to classify whether two texts are paraphrases or not.",ဥပမာ၊ စာသားနှစ်ခုဟာ စကားလုံးအတူတူနီးပါးလား၊ မတူဘူးလားဆိုတာကို ခွဲခြားချင်တာမျိုး ဖြစ်နိုင်တယ်။,"例如,我们也许想对两个案文是否是副句子进行分类。"
693,"In the first pair, the two questions are duplicates; in the second, they are not.",ပထမအတွဲမှာ မေးခွန်းနှစ်ခုက တူတယ်၊ ဒုတိယအတွဲမှာတော့ မတူပါဘူး။,"在第一对中,两个问题是重复的;在第二对中,不是重复的。"
694,"Another classification problem is when we want to know if two sentences are logically related or not, a problem called Natural Language Inference or NLI.",နောက်ထပ် ခွဲခြားသတ်မှတ်ခြင်း ပြဿနာတစ်ခုက စာကြောင်းနှစ်ကြောင်းဟာ ယုတ္တိရှိရှိ ဆက်စပ်မှု ရှိမရှိ သိချင်တာမျိုးပါ၊ အဲဒါကို Natural Language Inference ဒါမှမဟုတ် NLI လို့ ခေါ်ကြတယ်။,"另一个分类问题是当我们想知道两句在逻辑上是否相关时,"
695,"In this example taken from the MultiNLI dataset, we have a pair of sentences for each possible label: contradiction, neutral or entailment, which is a fancy way of saying the first sentence implies the second.",MultiNLI ဒေတာအတွဲကနေ ယူထားတဲ့ ဒီဥပမာမှာ ဖြစ်နိုင်တဲ့ label တစ်ခုစီအတွက် စာကြောင်းအတွဲတစ်ခုစီ ရှိတယ်၊ contradiction၊ neutral ဒါမှမဟုတ် entailment၊ ဒါက ပထမစာကြောင်းက ဒုတိယစာကြောင်းကို ဆိုလိုတယ်လို့ ပြောတဲ့ အမိုက်စားနည်းလမ်းပေါ့။,"在这个例子中,我们从多国家指数数据集中提取出,对每一个可能的标签都有一对句子:自相矛盾、中性或含意,这是说第一句意指第二句的巧妙方式。"
696,"In fact, in the GLUE benchmark, which is an academic benchmark for text classification, eight of the 10 datasets are focused on tasks using pairs of sentences.",တကယ်တော့ စာသားခွဲခြားသတ်မှတ်ခြင်းအတွက် ပညာရပ်ဆိုင်ရာ GLUE benchmark မှာ ဒေတာအတွဲ ၁၀ ခုထဲက ၈ ခုဟာ စာကြောင်းအတွဲတွေကို အသုံးပြုတဲ့ လုပ်ငန်းတွေပေါ်မှာ အာရုံစိုက်ထားတာပါ။,"事实上,GLUE基准是文本分类的学术基准,在10个数据集中,有8个侧重于使用对等句子的任务。"
697,"That's why models like BERT are often pretrained with a dual objective: on top of the language modeling objective, they often have an objective related to sentence pairs.",အဲဒါကြောင့် BERT လို မော်ဒယ်တွေကို ရည်ရွယ်ချက်နှစ်ခုနဲ့ ကြိုတင်လေ့ကျင့်လေ့ ရှိတာပေါ့၊ language modeling ရည်ရွယ်ချက်အပြင် စာကြောင်းအတွဲတွေနဲ့ ဆက်စပ်တဲ့ ရည်ရွယ်ချက်တစ်ခုလည်း မကြာခဏ ပါဝင်တတ်တယ်။,"这就是为什么像BERT这样的模型经常受到双重目标的预先训练:除了语言建模目标之外,它们往往有一个与判刑配对有关的目标。"
698,"For instance, during pretraining, BERT is shown pairs of sentences and must predict both the value of randomly masked tokens and whether the second sentence follows from the first or not.",ဥပမာအားဖြင့် ကြိုတင်လေ့ကျင့်နေစဉ်အတွင်း BERT ကို စာကြောင်းအတွဲတွေ ပြသပြီး ကျပန်း ဖုံးကွယ်ထားတဲ့ tokens တွေရဲ့ တန်ဖိုးနဲ့ ဒုတိယစာကြောင်းက ပထမစာကြောင်းနောက်ကို လိုက်သလား မလိုက်ဘူးလားဆိုတာ နှစ်ခုလုံးကို ခန့်မှန်းရမယ်။,"例如,在培训前,BERT是配对判刑,必须预测随机遮盖的标志的价值,以及第二句是否从第一句起算。"
699,"Fortunately, the tokenizer from the Transformers library has a nice API to deal with pairs of sentences: you just have to pass them as two arguments to the tokenizer.",ကံကောင်းစွာနဲ့ Transformers library က tokenizer မှာ စာကြောင်းအတွဲတွေကို ကိုင်တွယ်ဖို့ ကောင်းမွန်တဲ့ API ရှိတယ်၊ သင်က အဲဒါတွေကို tokenizer ဆီကို argument နှစ်ခုအဖြစ် ပေးပို့လိုက်ရုံပါပဲ။,"幸运的是,来自变异者图书馆的代言人拥有一个很好的 API 来处理一对判决:你只需要把它们作为两个论点 传给代言人。"
700,"On top of the input IDs and the attention mask we studied already, it returns a new field called token type IDs, which tells the model which tokens belong to the first sentence and which ones belong to the second sentence.",ကျွန်တော်တို့ လေ့လာပြီးသား input IDs နဲ့ attention mask တွေအပြင် token type IDs လို့ခေါ်တဲ့ field အသစ်တစ်ခုကို သူက ပြန်ပေးတယ်၊ အဲဒါက ဘယ် tokens တွေက ပထမစာကြောင်းမှာ ပါသလဲ၊ ဘယ်ဟာတွေက ဒုတိယစာကြောင်းမှာ ပါသလဲဆိုတာ မော်ဒယ်ကို ပြောပြပေးတယ်။,"在输入的 ID 和我们已经研究过的注意面罩上, 它返回一个新的字段, 叫做象征性的 ID , 它告诉模型哪些符号属于第一句, 哪些属于第二句。"
701,"Zooming in a little bit, here are the input IDs, aligned with the tokens they correspond to, their respective token type ID and attention mask.",နည်းနည်း ချဲ့ကြည့်မယ်ဆိုရင် ဒီမှာ input IDs တွေက သူတို့နဲ့ ကိုက်ညီတဲ့ tokens တွေ၊ token type ID နဲ့ attention mask တွေနဲ့ ချိန်ညှိထားတာကို တွေ့ရတယ်။,"放大一点, 这是输入的 ID, 和它们对应的代号一致, 它们各自的代号 ID 和 关注面罩 。"
702,"We can see the tokenizer also added special tokens so we have a CLS token, the tokens from the first sentence, a SEP token, the tokens from the second sentence, and a final SEP token.",Tokenizer က အထူး tokens တွေပါ ထည့်ပေးထားတာကို မြင်နိုင်တယ်၊ ဒါကြောင့် CLS token၊ ပထမစာကြောင်းက tokens တွေ၊ SEP token၊ ဒုတိယစာကြောင်းက tokens တွေနဲ့ နောက်ဆုံး SEP token တစ်ခု ပါဝင်တယ်။,"我们可以看到代币器还添加了特殊标记,所以我们有一个CLS标记,第一句的标记,一个SEP标记,第二句话的标记,以及最后的SEP标记。"
703,"If we have several pairs of sentences, we can tokenize them together by passing the list of first sentences, then the list of second sentences and all the keyword arguments we studied already, like padding=True.",စာကြောင်းအတွဲများစွာ ရှိရင် ပထမစာကြောင်းများ စာရင်းကို ပေးပို့ပြီး၊ ဒုတိယစာကြောင်းများ စာရင်းကို ပေးပို့ကာ ကျွန်တော်တို့ လေ့လာပြီးသား padding=True လိုမျိုး keyword argument တွေအားလုံးနဲ့ အတူတကွ tokenize လုပ်နိုင်တယ်။,"如果我们有几句,我们可以通过头一句清单,然后通过第二句话清单和我们已经研究过的所有关键词参数,例如拼写字“True”。"
704,"Zooming in at the result, we can see how the tokenizer added padding to the second pair of sentences, to make the two outputs the same length.",ရလဒ်ကို ချဲ့ကြည့်လိုက်ရင် output နှစ်ခုကို အရှည်တူအောင် ဒုတိယအတွဲ စာကြောင်းတွေမှာ tokenizer က padding ထည့်သွင်းထားတာကို တွေ့ရတယ်။,"放大结果后,我们可以看到质记器如何在第二句话上加了垫子,使两个产出的长度相同。"
705,It also properly dealt with token type IDS and attention masks for the two sentences.,ဒါ့အပြင် token type IDs နဲ့ attention masks တွေကိုလည်း စာကြောင်းနှစ်ကြောင်းလုံးအတွက် သင့်လျော်စွာ ကိုင်တွယ်ထားတယ်။,它还适当地处理了象征性的IDS类型和两句的注意面罩。
706,This is then all ready to pass through our model!,ဒါဆိုရင် ဒါတွေအားလုံး ကျွန်တော်တို့ရဲ့ မော်ဒယ်ထဲကို ဖြတ်သန်းဖို့ အဆင်သင့် ဖြစ်နေပါပြီ။,这一切都准备通过我们的模型!
707,What is dynamic padding?,Dynamic Padding ဆိုတာ ဘာလဲ။,什么是动态垫?
708,"In the ""Batching Inputs together"" video, we have seen that to be able to group inputs of different lengths in the same batch, we need to add padding tokens to all the short inputs until they are all of the same length.",Batching Inputs together ဗီဒီယိုမှာ မတူညီတဲ့ အရှည်ရှိတဲ့ ထည့်သွင်းချက်တွေကို တစ်စုတည်း batch လုပ်နိုင်ဖို့အတွက် အတိုဆုံး ထည့်သွင်းချက်တွေအားလုံးကို အရှည်တူတဲ့အထိ padding tokens တွေ ထည့်ပေးဖို့ လိုတယ်ဆိုတာကို မြင်ခဲ့ရပါတယ်။,"在“将输入内容集中在一起”的视频中,我们看到,为了能够将不同长度的输入内容分组在同一批中,我们需要在所有简短输入内容中添加标牌,直到它们都相同长度。"
709,"Here, for instance, the longest sentence is the third one, and we need to add five, two, or seven pad tokens to the other sentences to have four sentences of the same lengths.",ဥပမာ၊ ဒီမှာ အရှည်ဆုံးဝါကျက တတိယဝါကျဖြစ်ပြီး တခြားဝါကျတွေကို အရှည်တူတဲ့ ဝါကျလေးကြောင်း ရအောင် pad tokens ၅ ခု၊ ၂ ခု ဒါမှမဟုတ် ၇ ခု ထည့်ဖို့ လိုတယ်။,"例如,这里最长的句子是第三句,我们需要在其他句子上加上5、2或7个贴纸牌,四句长度相同。"
710,"When dealing with a whole dataset, there are various padding strategies we can apply.",ဒေတာအတွဲတစ်ခုလုံးကို ကိုင်တွယ်တဲ့အခါ ကျွန်တော်တို့ အသုံးချနိုင်တဲ့ padding နည်းဗျူဟာ အမျိုးမျိုး ရှိတယ်။,"在处理整个数据集时,我们可采用各种拼接策略。"
711,The most obvious one is to pad all the elements of the dataset to the same length: the length of the longest sample.,အထင်ရှားဆုံး နည်းလမ်းကတော့ ဒေတာအတွဲထဲက အစိတ်အပိုင်းအားလုံးကို အရှည်ဆုံးနမူနာရဲ့ အရှည်အတိုင်း တူညီတဲ့အရှည်ဖြစ်အောင် pad လုပ်တာပဲ ဖြစ်တယ်။,最明显的是将数据集的所有要素都插入相同的长度:最长样本的长度。
712,This will then give us batches that all have the same shape determined by the maximum sequence length.,ဒီနည်းက အဲဒီအခါမှာ အများဆုံး sequence အရှည်က သတ်မှတ်ထားတဲ့ ပုံစံတူ batch တွေကို ပေးပါလိမ့်မယ်။,"这将给我们分批的分批数量,它们都具有由最大序列长度决定的相同形状。"
713,The downside is that batches composed from short sentences will have a lot of padding tokens which will introduce more computations in the model we ultimately don't need.,အားနည်းချက်ကတော့ စာကြောင်းတိုတွေနဲ့ ဖွဲ့စည်းထားတဲ့ batch တွေမှာ padding tokens တွေ အများကြီး ပါလာမှာဖြစ်ပြီး ဒါက မလိုအပ်ဘဲ မော်ဒယ်မှာ တွက်ချက်မှု ပိုများလာစေတယ်။,其缺点是 由短句组成的批量 将有很多贴贴符 将引入更多的计算 模型我们最终不需要。
714,"To avoid this, another strategy is to pad the elements when we batch them together, to the longest sentence inside the batch.",ဒါကို ရှောင်ရှားဖို့အတွက် နောက်ထပ်နည်းဗျူဟာတစ်ခုကတော့ ဒေတာတွေကို batch အတူတကွ လုပ်တဲ့အခါ batch ထဲမှာ အရှည်ဆုံးဝါကျအထိပဲ pad လုပ်တာပါ။,"为了避免这种情况,另一种策略是,当我们一起分批时,将元素粘贴在分批中最长的句子上。"
715,"This way, batches composed of short inputs will be smaller than the batch containing the longest sentence in the dataset.",ဒီနည်းနဲ့ စာကြောင်းတိုတွေပါတဲ့ batch တွေဟာ ဒေတာအတွဲထဲက အရှည်ဆုံးဝါကျပါတဲ့ batch ထက် ပိုသေးသွားပါလိမ့်မယ်။,"这样,由短输入组成的批次将小于数据集中包含最长句子的批次。"
716,This will yield some nice speedup on CPU and GPU.,ဒါက CPU နဲ့ GPU မှာ အရှိန်အဟုန် ကောင်းကောင်း ရစေပါလိမ့်မယ်။,这将在 CPU 和 GPU 上产生一些良好的加速 。
717,"The downside is that all batches will then have different shapes, which slows down training on accelerators like TPUs.",အားနည်းချက်ကတော့ batch အားလုံးဟာ ပုံစံမတူဘဲ ကွဲပြားသွားမှာဖြစ်ပြီး ဒါက TPU လို accelerator တွေပေါ်မှာ လေ့ကျင့်မှုကို နှေးကွေးစေတယ်။,"其缺点是,所有批量的形状都会不同,这减缓了对像TPUs这样的加速器的培训。"
718,Let's see how to apply both strategies in practice.,ဒီနည်းဗျူဟာ နှစ်ခုလုံးကို လက်တွေ့မှာ ဘယ်လိုအသုံးချရမလဲ ကြည့်ရအောင်။,让我们看看如何在实际中应用这两种战略。
719,"We have actually seen how to apply fixed padding in the Datasets Overview video, when we preprocessed the MRPC dataset:",MRPC dataset ကို ကြိုတင်စီမံတဲ့အခါ Datasets Overview ဗီဒီယိုမှာ fixed padding ကို ဘယ်လိုအသုံးပြုရမယ်ဆိုတာ တကယ်တမ်း မြင်ခဲ့ရပါတယ်။,"当我们预处理MRPC数据集时, 我们实际上看到如何在数据集概览视频中应用固定的嵌入板:"
720,"after loading the dataset and tokenizer, we applied the tokenization to all the dataset with padding and truncation to make all samples of length 128.",ဒေတာအတွဲနဲ့ tokenizer ကို တင်ပြီးနောက် နမူနာအားလုံးကို ၁၂၈ အရှည်ရှိစေဖို့ padding နဲ့ truncation ပါတဲ့ tokenization ကို ဒေတာအတွဲတစ်ခုလုံးမှာ အသုံးပြုခဲ့တယ်။,"在加载数据集和代谢器后,我们对所有数据集都应用了标记,加贴和短时标记,以制成128长的所有样本。"
721,"As a result, if we pass this dataset to a PyTorch DataLoader, we get batches of shape batch size, here 16, by 128.",ရလဒ်အနေနဲ့ ဒီဒေတာအတွဲကို PyTorch DataLoader ကို ပေးပို့လိုက်ရင် batch size ၁၆ နဲ့ ၁၂၈ ပုံစံရှိတဲ့ batch တွေကို ရရှိပါတယ်။,"因此,如果我们把这个数据集传送给一个PyTorrch Data Loader, 我们就会得到一批形状的批量, 这里16个, 128个。"
722,"To apply dynamic padding, we must defer the padding to the batch preparation, so we remove that part from our tokenize function.",dynamic padding ကို အသုံးပြုဖို့အတွက် batch ပြင်ဆင်မှုအထိ padding ကို ရွှေ့ဆိုင်းထားရမယ်၊ ဒါကြောင့် tokenize function ကနေ အဲဒီအပိုင်းကို ဖယ်ရှားလိုက်တယ်။,"为了应用动态版面板,我们必须将版面板推迟到批量准备时, 所以我们要把这部分从象征性功能中删除 。"
723,"We still leave the truncation part so that inputs that are bigger than the maximum length accepted by the model, usually 512, get truncated to that length.",truncation အပိုင်းကိုတော့ ချန်ထားခဲ့ပါတယ်၊ ဒါမှ မော်ဒယ် လက်ခံနိုင်တဲ့ အများဆုံးအရှည် ၅၁၂ ထက် ပိုကြီးတဲ့ ထည့်သွင်းချက်တွေဟာ အဲဒီအရှည်အထိ ဖြတ်တောက်ခံရမှာ ဖြစ်တယ်။,"我们仍然留下缺勤部分,这样,超过模型所接受的最大长度(通常为512)的输入就会缩短到这一长度。"
724,Then we pad our samples dynamically by using a data collator.,ပြီးရင် data collator ကို သုံးပြီး နမူနာတွေကို dynamic ပုံစံနဲ့ pad လုပ်တယ်။,然后我们用数据核对器 以动态方式将样本粘贴在地上
725,"Those classes in the Transformers library are responsible for applying all the final processing needed before forming a batch, here DataCollatorWithPadding will pad the samples to the maximum length inside the batch of sentences.",Transformers library ထဲက ဒီ class တွေဟာ batch တစ်ခု မဖွဲ့စည်းခင် လိုအပ်တဲ့ နောက်ဆုံး စီမံဆောင်ရွက်မှုအားလုံးကို လုပ်ဆောင်ဖို့ တာဝန်ယူပါတယ်၊ ဒီမှာ DataCollatorWithPadding က စာကြောင်း batch ထဲမှာ အများဆုံးအရှည်အထိ နမူနာတွေကို pad လုပ်ပေးလိမ့်မယ်။,"变压器图书馆的这些班级负责在组装一批之前应用所有所需的最后处理,这里的数据核对器和铺垫将把样品放在批量刑期内的最大长度。"
726,"We pass it to the PyTorch DataLoader as a collate function, then observe that the batches generated have various lengths, all way below the 128 from before.",ဒါကို PyTorch DataLoader ကို collate function အဖြစ် ပေးပို့ပြီး အဲဒီအခါ ထုတ်လုပ်လိုက်တဲ့ batch တွေဟာ အရှည်အမျိုးမျိုးရှိပြီး အရင်က ၁၂၈ အရှည်ထက် အများကြီး နည်းနေတာကို တွေ့ရတယ်။,"我们把它作为核对功能传递给PyTorrch Dataloader, 然后观察产生的批量有不同的长度, 远低于之前的128。"
727,"Dynamic batching will almost always be faster on CPUs and GPUs, so you should apply it if you can.",Dynamic batching က CPU နဲ့ GPU တွေမှာ အမြဲလိုလို ပိုမြန်နေမှာပါ၊ ဒါကြောင့် လုပ်နိုင်ရင် အသုံးပြုသင့်ပါတယ်။,"在 CPU 和 GPU 上,动态的批量几乎总是更快,所以如果可以,你应该应用它。"
728,"Remember to switch back to fixed padding, however, if you run your training script on TPU or need batches of fixed shapes.",ဒါပေမယ့် သင့်ရဲ့ လေ့ကျင့်မှု script ကို TPU မှာ run ရင် ဒါမှမဟုတ် ပုံသေပုံစံ batch တွေ လိုအပ်ရင်တော့ fixed padding ကို ပြန်ပြောင်းဖို့ မမေ့ပါနဲ့။,"记住,如果您在 TPU 上运行您的训练脚本, 或者需要批次的固定形状, 则可以重新转换到固定的布局。"
729,So Trainer API.,ကဲ Trainer API အကြောင်း ပြောရအောင်။,所以训练员API。
730,So Transformers Library provides a Trainer API that allows you to easily find tune transformers models on your dataset.,Transformers Library က Trainer API တစ်ခု ပေးထားတယ်၊ ဒါက သင့်ရဲ့ ဒေတာအတွဲပေါ်မှာ transformer မော်ဒယ်တွေကို fine tune လုပ်ဖို့ အရမ်းလွယ်ကူစေတယ်။,"因此变换者图书馆提供训练员API, 方便您在数据集中找到调制变压器模型 。"
731,"Trainer class takes your datasets, your model as well as the training hyperparameters and can perform the training on any kind of setup, CPU, GPU, multiple GPUs, TPUs can also compute the predictions on any dataset and if you provided metrics evaluate your model on any dataset.",Trainer class က သင့်ဒေတာအတွဲတွေ၊ သင့်မော်ဒယ်နဲ့ လေ့ကျင့်မှု hyperparameters တွေကို ယူပြီး CPU၊ GPU၊ GPU များစွာ၊ TPU စတဲ့ ဘယ်လို စနစ်မျိုးမှာမဆို လေ့ကျင့်မှုကို လုပ်ဆောင်နိုင်တယ်၊ ပြီးတော့ ဘယ်ဒေတာအတွဲပေါ်မှာမဆို ခန့်မှန်းချက်တွေ တွက်ချက်နိုင်သလို metrics တွေ ပေးထားရင် သင့်မော်ဒယ်ကို ဘယ်ဒေတာအတွဲပေါ်မှာမဆို အကဲဖြတ်နိုင်တယ်။,"教练班将使用你的数据集、模型和培训超常参数,并可就任何类型的设置、 CPU、 GPU、 多个 GPU、 TPU 进行训练,还可计算任何数据集的预测,如果您提供了衡量标准,则对任何数据集的模型进行评估。"
732,"You can also involve final data processing such as dynamic padding, as long as you provide the tokenizer or given data collator.",dynamic padding လိုမျိုး နောက်ဆုံး data processing တွေကိုလည်း ထည့်သွင်းနိုင်ပါတယ်၊ ဒါပေမယ့် tokenizer ဒါမှမဟုတ် သတ်မှတ်ထားတဲ့ data collator ကို ပေးဖို့တော့ လိုတယ်။,"您也可以使用动态拼贴板等最终数据处理方法,只要您提供质记器或给定的数据拼贴器。"
733,"We will try this API on the MRPC dataset, since it's relatively small and easy to preprocess.",ဒီ API ကို MRPC dataset ပေါ်မှာ စမ်းကြည့်ပါမယ်၊ ဘာလို့လဲဆိုတော့ သူက သေးငယ်ပြီး ကြိုတင်စီမံဖို့ လွယ်ကူလို့ ဖြစ်တယ်။,"我们将在MRPC数据集上试一下这个API,因为它相对小,容易预处理。"
734,"As we saw in the Datasets overview video, however we can preprocess it.",Datasets overview ဗီဒီယိုမှာ မြင်ခဲ့ရတဲ့အတိုင်း ကျွန်တော်တို့ ဘယ်လိုပဲ ကြိုတင်စီမံနိုင်ပါစေ။,"正如我们在《数据集概览》视频中看到的, 但是我们可以提前处理它。"
735,"We do not apply padding during the preprocessing, as we will use dynamic padding before DataCollatorWithPadding.",ကြိုတင်စီမံတဲ့အခါ padding မလုပ်ပါဘူး၊ ဘာလို့လဲဆိုတော့ DataCollatorWithPadding မလုပ်ခင် dynamic padding ကို သုံးမှာ ဖြစ်လို့ပါ။,"在预处理期间,我们不使用床垫,因为在数据连接器与铺垫之前,我们将使用动态床垫。"
736,Note that we don't do the final steps of renaming removing columns or set the format to torch tensors.,columns တွေ နာမည်ပြောင်းတာ ဒါမှမဟုတ် ဖယ်ရှားတာ၊ ဒါမှမဟုတ် format ကို torch tensors အဖြစ် သတ်မှတ်တာ စတဲ့ နောက်ဆုံးအဆင့်တွေကို မလုပ်ဘူးဆိုတာ သတိထားပါ။,"请注意,我们不做最后的步骤 重新命名去掉柱子 或设置格式 火炬加压器。"
737,So Trainer will do all of this automatically for us by analyzing the model signature.,Trainer က မော်ဒယ်ရဲ့ signature ကို စစ်ဆေးပြီး ဒီအရာတွေအားလုံးကို ကျွန်တော်တို့အတွက် အလိုအလျောက် လုပ်ပေးပါလိမ့်မယ်။,所以训练员会通过分析模型签名 自动为我们做所有这些事情。
738,The last step before creating the Trainer are to define a model and some training hyperparameters.,Trainer မဖန်တီးခင် နောက်ဆုံးအဆင့်တွေကတော့ မော်ဒယ်တစ်ခုနဲ့ လေ့ကျင့်မှု hyperparameters အချို့ကို သတ်မှတ်ဖို့ပဲ ဖြစ်ပါတယ်။,创建培训师之前的最后一步是定义一个模型和一些培训超参数。
739,We saw to do the first in the model API video.,ပထမတစ်ခုကို model API ဗီဒီယိုမှာ လုပ်ခဲ့တာ မြင်ရပြီးသားပါ။,我们想在API模型视频中做第一部。
740,For the second we use the TrainingArguments class.,ဒုတိယတစ်ခုအတွက် TrainingArguments class ကို သုံးတယ်။,"第二,我们使用培训师资课程。"
741,"It only takes a path to a folder where results and checkpoint will be saved, but you can also customize all the hyperparameters your Trainer will use, learning weight, number of training impacts, et cetera.",သူက ရလဒ်တွေနဲ့ checkpoint တွေ သိမ်းမယ့် folder လမ်းကြောင်းတစ်ခုပဲ လိုတယ်၊ ဒါပေမယ့် သင့် Trainer သုံးမယ့် hyperparameters အားလုံးကိုလည်း စိတ်ကြိုက်ပြင်ဆင်နိုင်တယ်၊ ဥပမာ- learning weight၊ လေ့ကျင့်မှုအကြိမ်အရေအတွက် စတာတွေပေါ့။,"它只需要到一个文件夹的路径, 该文件夹将保存结果和检查站, 但是您也可以自定义您的导师将使用的所有超参数、 学习重量、 训练影响的数量等等 。"
742,It's been very easy to create a Trainer and launch a training.,Trainer တစ်ခု ဖန်တီးပြီး လေ့ကျင့်မှု စတင်ဖို့ အရမ်းလွယ်ပါတယ်။,建立培训员和启动培训是非常容易的。
743,You should display a progress bar and after a few minutes if you're running on a GPU you should have the training finished.,progress bar တစ်ခု ပြသနေမှာဖြစ်ပြီး GPU မှာ run နေရင် မိနစ်အနည်းငယ်ကြာရင် လေ့ကျင့်မှု ပြီးသွားလိမ့်မယ်။,"您应该显示一个进度栏, 过几分钟后, 如果您在 GPU 上运行, 您应该完成训练 。"
744,"The result will be rather anticlimactic however, as you will only get a training loss which doesn't really tell you anything about how well your model is performing.",ရလဒ်ကတော့ စိတ်ပျက်စရာ ဖြစ်နိုင်တယ်၊ ဘာလို့လဲဆိုတော့ သင်က training loss ကိုပဲ ရမှာဖြစ်ပြီး ဒါက သင့်မော်ဒယ် ဘယ်လောက် ကောင်းကောင်း လုပ်ဆောင်နေလဲဆိုတာ သိပ်မပြောပြနိုင်ဘူး။,"结果将会是相当反气候的, 因为只有培训失败, 并不会真正告诉你你的模型表现有多好。"
745,This is because we didn't specify any metric for the evaluation.,ဒါက ကျွန်တော်တို့ အကဲဖြတ်မှုအတွက် metrics တွေ ဘာမှ မသတ်မှတ်ခဲ့လို့ ဖြစ်တယ်။,这是因为我们没有为评估指定任何标准。
746,"To get those metrics, we will first gather the predictions on the whole evaluation set using the predict method.",အဲဒီ metrics တွေ ရဖို့အတွက် predict method ကို သုံးပြီး evaluation set တစ်ခုလုံးရဲ့ ခန့်မှန်းချက်တွေကို အရင် စုဆောင်းမယ်။,"为了获得这些衡量标准,我们将首先利用预测方法收集整个评价组的预测。"
747,"It returns a namedtuple with three fields, Prediction, which contains the model of predictions.",သူက namedtuple တစ်ခုကို field သုံးခုနဲ့ ပြန်ပေးတယ်၊ Prediction က မော်ဒယ်ရဲ့ ခန့်မှန်းချက်တွေ ပါဝင်တယ်။,"它返回一个有三个字段的命名图,即预测,它包含预测模型。"
748,"Label_IDs, which contains the labels if your dataset had them and metrics which is empty here.",Label_IDs ကတော့ သင့်ဒေတာအတွဲမှာ labels တွေ ရှိခဲ့ရင် ပါဝင်ပြီး metrics က ဒီမှာတော့ ဗလာ ဖြစ်နေတယ်။,"标签_IDs, 它包含标签, 如果您的数据集有标签的话, 以及此处空的度量 。"
749,We're trying to do that.,အဲဒါကို လုပ်ဖို့ ကြိုးစားနေတယ်။,我们正在尝试这样做。
750,The predictions are the logits of the models for all the sentences in the dataset.,ခန့်မှန်းချက်တွေကတော့ ဒေတာအတွဲထဲက ဝါကျအားလုံးအတွက် မော်ဒယ်ရဲ့ logits တွေ ဖြစ်တယ်။,这些预测是数据集中所有句子的模型日志。
751,So a NumPy array of shape 408 by 2.,ဒါကြောင့် ၄၀၈ x ၂ ပုံစံရှိတဲ့ NumPy array တစ်ခုပေါ့။,所以一个NumPy阵列 形状408乘以2
752,"To match them with our labels, we need to take the maximum logit for each prediction to know which of the two classes was predicted.",သူတို့ကို ကျွန်တော်တို့ရဲ့ labels တွေနဲ့ ကိုက်ညီအောင် လုပ်ဖို့အတွက် ခန့်မှန်းချက်တစ်ခုစီအတွက် အများဆုံး logit ကို ယူရပါမယ်၊ ဒါမှ အတန်းနှစ်ခုထဲက ဘယ်တစ်ခုကို ခန့်မှန်းခဲ့လဲဆိုတာ သိနိုင်မယ်။,"为了把它们和我们的标签匹配, 我们需要使用每个预测的最大日志 才能知道其中哪类是预测的。"
753,We do this with the argmax function.,ဒါကို argmax function နဲ့ လုပ်တယ်။,我们用 rgmax 函数这样做 。
754,Then we can use a metric from the Datasets library.,ပြီးရင် Datasets library က metrics တစ်ခုကို သုံးနိုင်တယ်။,然后我们可以使用数据资料库的测量数据。
755,It can be loaded as easily as a dataset with the load metric function and each returns the evaluation metric used for the dataset.,ဒါကို load metric function နဲ့ ဒေတာအတွဲတစ်ခုလို အလွယ်တကူ တင်နိုင်ပြီး ဒေတာအတွဲအတွက် အသုံးပြုတဲ့ အကဲဖြတ် metrics ကို ပြန်ပေးတယ်။,"它可以像一个带有载量度功能的数据集一样容易地装入,每套数据都返回用于数据集的评价指标。"
756,We can see our model did learn something as it is 85.7% accurate.,ကျွန်တော်တို့ရဲ့ မော်ဒယ်က တစ်ခုခုတော့ သင်ယူခဲ့တယ်ဆိုတာကို မြင်နိုင်တယ်၊ ဘာလို့လဲဆိုတော့ ၈၅.၇% တိကျလို့ ဖြစ်တယ်။,"我们可以看到,我们的模型确实学到了一些东西,因为它准确率为85.7%。"
757,"To monitor the evaluation matrix during training, we need to define a compute_metrics function that does the same step as before.",လေ့ကျင့်နေစဉ်အတွင်း evaluation matrix ကို စောင့်ကြည့်ဖို့အတွက် အရင်က အဆင့်အတိုင်း လုပ်ဆောင်တဲ့ compute_metrics function ကို သတ်မှတ်ဖို့ လိုတယ်။,"为了在培训期间监测评价矩阵,我们需要界定一个与以前相同的计算函数。"
758,It takes a namedtuple with predictions and labels and must return a dictionary with the metrics we want to keep track of.,သူက predictions နဲ့ labels တွေပါတဲ့ namedtuple တစ်ခုကို ယူပြီး ကျွန်တော်တို့ ခြေရာခံချင်တဲ့ metrics တွေပါတဲ့ dictionary တစ်ခု ပြန်ပေးရမယ်။,"它需要一个带有预测和标签的命名图, 并且必须返回一个带我们想要追踪的量度的字典。"
759,"By passing the epoch evaluation strategy to our training arguments, we tell the Trainer to evaluate at the end of every epoch.",epoch evaluation strategy ကို ကျွန်တော်တို့ရဲ့ training arguments တွေဆီ ပေးပို့ခြင်းအားဖြင့် epoch တိုင်းရဲ့ အဆုံးမှာ အကဲဖြတ်ဖို့ Trainer ကို ပြောလိုက်တာ ဖြစ်တယ်။,"通过将时代评价战略纳入我们的培训论据,我们让培训者在每个时代的末期进行评估。"
760,Launching a training inside a notebook will then display a progress bar and complete the table you see here as you pass every epoch.,Notebook ထဲမှာ လေ့ကျင့်မှု စတင်လိုက်ရင် progress bar တစ်ခု ပြသပြီး epoch တစ်ခုစီ ဖြတ်သွားတာနဲ့အမျှ ဒီမှာ မြင်ရတဲ့ ဇယားကို ဖြည့်ပေးသွားမှာပါ။,"在笔记本内启动训练后, 将显示一个进度栏, 完成您在通过各个时代时看到的表格 。"
761,"In this video, we're going to see how to load and fine tune a pre-trained model.",ဒီဗီဒီယိုမှာ ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်တစ်ခုကို ဘယ်လို load လုပ်ပြီး fine tune လုပ်မလဲဆိုတာ ကြည့်ကြမယ်။,"在这个视频中,我们将看到如何 装货和精细调整一个预训练模型。"
762,It's very quick.,အရမ်းမြန်တယ်။,"很快的,我马上回来 It's very quick."
763,"And if you've watched our pipeline videos, which I'll link below, the process is very similar.",ကျွန်တော်တို့ရဲ့ pipeline ဗီဒီယိုတွေကို ကြည့်ဖူးတယ်ဆိုရင်ပေါ့၊ အဲဒါတွေကို အောက်မှာ လင့်ခ်ပေးထားပါတယ်၊ လုပ်ငန်းစဉ်က အရမ်းဆင်တူပါတယ်။,"如果你看过我们的管道视频, 我会在下面连线, 这个过程非常相似。"
764,"This time, though, we're going to be using transfer learning and doing some training ourselves, rather than just loading a model and using it as is.",ဒါပေမယ့် ဒီတစ်ခါတော့ မော်ဒယ်ကို load လုပ်ပြီး အရှိအတိုင်း သုံးရုံသက်သက်မဟုတ်ဘဲ transfer learning ကို သုံးပြီး ကိုယ်တိုင် လေ့ကျင့်မှုတချို့ လုပ်ကြည့်မယ်။,"不过,这次,我们将要使用转移学习 和做一些训练自己, 而不是仅仅装一个模型 并像现在这样使用它。"
765,"So to learn more about transfer learning, head to the 'What is transfer learning?' video, and we'll link that below as well.",ဒါကြောင့် transfer learning အကြောင်း ပိုသိချင်ရင် 'What is transfer learning?' ဆိုတဲ့ ဗီဒီယိုကို သွားကြည့်ပါ၊ အဲဒါကိုလည်း အောက်မှာ လင့်ခ်ချပေးထားပါတယ်။,"所以要了解更多关于转移学习的知识, 直接到“什么是转移学习?” 视频, 我们也将连接下面的视频。"
766,"But for now, let's look at this code.",ဒါပေမယ့် အခုတော့ ဒီ code ကို ကြည့်ကြရအောင်။,"但现在,让我们看看这个代码。"
767,"To start, we pick which model we want to start with.",စတင်ဖို့အတွက် ဘယ်မော်ဒယ်နဲ့ စချင်လဲဆိုတာ ရွေးရမယ်။,"首先,我们选择我们想要从哪一种模式开始。"
768,"In this case, we're going to use the famous, the original BERT, as the foundation for our training today.",ဒီကိစ္စမှာတော့ နာမည်ကြီးတဲ့ မူရင်း BERT ကို ကျွန်တော်တို့ရဲ့ ဒီနေ့ လေ့ကျင့်မှုအတွက် အခြေခံအဖြစ် သုံးသွားပါမယ်။,"在此情况下,我们将使用 著名的,原始的BERT, 作为今天我们训练的基础。"
769,"But what is this monstrosity line, this 'TFAutoModelForSequenceClassification'?",ဒါပေမယ့် ဒီ 'TFAutoModelForSequenceClassification' ဆိုတဲ့ ကြောက်မက်ဖွယ်ကောင်းတဲ့ စာကြောင်းက ဘာလဲ။,"但是,什么是这个怪物线, 这个“TFAUTOModelForAcquencesClassization ”?"
770,What does that mean?,အဲဒါ ဘာကိုဆိုလိုတာလဲ။,这是什么意思?
771,"Well, the TF stands for TensorFlow.",ကဲ၊ TF ဆိုတာက TensorFlow ကို ကိုယ်စားပြုတယ်။,"嗯,TF代表TensorFlow。"
772,"And the rest means, take a language model, and stick a sequence classification head onto it if it doesn't have one already.",ကျန်တာကတော့ language model တစ်ခုကို ယူပြီး သူ့မှာ sequence classification head မရှိသေးရင် အဲဒါကို ကပ်ထည့်လိုက်ပါလို့ ပြောတာပါ။,"其余的意思是,使用语言模型, 并坚持一个序列分类 头在它上,如果它没有 已经有一个。"
773,"So this line of code loads BERT, which is a general purpose language model, it loads at weights, architecture, and all and then adds a new sequence classification head onto it with randomly initialized weights.",ဒါကြောင့် ဒီ code လိုင်းက general purpose language model ဖြစ်တဲ့ BERT ကို load လုပ်တယ်၊ သူ့ရဲ့ အလေးချိန်တွေ၊ ဗိသုကာပုံစံတွေ အားလုံးကို load လုပ်တယ်၊ ပြီးတော့ ကျပန်း အစပြုထားတဲ့ အလေးချိန်တွေနဲ့ sequence classification head အသစ်တစ်ခုကို ထပ်ပေါင်းထည့်လိုက်တယ်။,"因此,这行代码将BERT(通用语言模型)加载到一个通用语言模型, 它以重量、建筑和全部载荷, 然后在它上添加一个新的序列分类, 加上随机初始化的重量。"
774,So this method needs to know two things.,ဒါကြောင့် ဒီနည်းလမ်းက အချက်နှစ်ချက်ကို သိဖို့ လိုတယ်။,所以这个方法需要知道两件事。
775,"Firstly, it needs to know the name of the model you wanted to load, the architecture and weights for.",ပထမအနေနဲ့ သူက ဘယ်မော်ဒယ်ရဲ့ ဗိသုကာနဲ့ အလေးချိန်တွေကို load လုပ်ချင်လဲဆိုတဲ့ မော်ဒယ်နာမည်ကို သိဖို့ လိုတယ်။,"首先,它需要知道你想加载的模型的名称, 建筑和重量。"
776,"And secondly, it needs to know how many classes your problem has, because that will determine the size, the number of neurons in the output head.",ဒုတိယအနေနဲ့ သင့်ပြဿနာမှာ class ဘယ်နှစ်ခုရှိလဲဆိုတာကို သိဖို့လိုတယ်၊ ဘာလို့လဲဆိုတော့ အဲဒါက အထွက် head မှာရှိတဲ့ neuron အရေအတွက်ကို ဆုံးဖြတ်ပေးမှာ ဖြစ်လို့ပါ။,"其次,它需要知道 你的问题有多少类, 因为这将决定输出头的神经元的大小和数量。"
777,"So if you want to follow along with the data from our datasets videos, which I'll link below, then you'll have two classes, positive and negative, and thus num_labels equals two.",အောက်မှာ လင့်ခ်ပေးထားတဲ့ ကျွန်တော်တို့ရဲ့ datasets ဗီဒီယိုတွေက ဒေတာတွေနဲ့အတူ လိုက်လုပ်ချင်တယ်ဆိုရင် သင့်မှာ positive နဲ့ negative ဆိုတဲ့ class နှစ်ခုရှိမယ်၊ ဒါကြောင့် num_labels က နှစ်နဲ့ ညီမျှတယ်။,"所以,如果你想要跟从我们的数据集视频中的数据一起, 我会在下面链接, 那么你将分为两类,正和负, 因此, num_ labels 等于 2 。"
778,But what about this compile line?,ဒါဆို ဒီ compile လိုင်းကရော ဘယ်လိုလဲ။,那么这个编译线呢?
779,"Well, if you're familiar with Keras, you've probably seen this already.",Keras နဲ့ ရင်းနှီးဖူးရင် ဒါကို မြင်ဖူးပြီးသား ဖြစ်ပါလိမ့်မယ်။,如果你对Keras很熟悉 你可能已经看过了
780,"But if not, this is one of the core methods in Keras that you're gonna see again, and again.",ဒါပေမယ့် မရင်းနှီးသေးရင် ဒါက Keras မှာ အရေးပါတဲ့ နည်းလမ်းတစ်ခုဖြစ်ပြီး ထပ်ခါတလဲလဲ မြင်တွေ့ရမှာပါ။,"但如果不是,这是喀拉斯的核心方法之一 你会看到一次又一次。"
781,You always need to compile your model before you train it.,သင့်မော်ဒယ်ကို လေ့ကျင့်ပေးဖို့ မလုပ်ခင် အမြဲတမ်း compile လုပ်ဖို့ လိုတယ်။,在训练之前你总是需要编集你的模型
782,And compile needs to know two things.,Compile လုပ်ဖို့ အချက်နှစ်ချက်ကို သိဖို့ လိုတယ်။,汇编需要知道两件事。
783,"Firstly, it needs to know the loss function, which is what you're trying to optimize.",ပထမအနေနဲ့ သူက သင် optimize လုပ်ဖို့ ကြိုးစားနေတဲ့ loss function ကို သိဖို့ လိုတယ်။,"首先,它需要知道损失功能, 这就是你试图优化的功能。"
784,"So here, we import the SparseCategoricalCrossentropy loss function.",ဒီမှာတော့ ကျွန်တော်တို့ SparseCategoricalCrossentropy loss function ကို import လုပ်လိုက်တယ်။,"因此,在这里,我们输入了 失序的分类 血清丧失功能。"
785,"So that's a mouthful, but it's the standard loss function for any neural network that's doing a classification task.",ဒီစကားလုံးက ရှည်ပေမယ့် classification လုပ်ငန်းလုပ်နေတဲ့ မည်သည့် neural network အတွက်မဆို ဒါဟာ စံသတ်မှတ်ထားတဲ့ loss function ဖြစ်တယ်။,"所以,这是一个口语, 但它是标准损失函数 对任何神经网络来说, 做分类任务。"
786,"It basically encourages the network to output large values for the right class, and low values for the wrong classes.",အခြေခံအားဖြင့် သူက မှန်ကန်တဲ့ class အတွက် တန်ဖိုးကြီးကြီးတွေ ထုတ်ပေးဖို့နဲ့ မှားယွင်းတဲ့ class တွေအတွက် တန်ဖိုးနည်းနည်းတွေ ထုတ်ပေးဖို့ network ကို အားပေးတယ်။,"它基本上鼓励网络为正确的等级输出大值,为错误的等级输出低值。"
787,"Note that you can specify the loss function as a string, like we did with the optimizer.",Optimizer နဲ့ လုပ်ခဲ့သလိုပဲ loss function ကို စာသား string အနေနဲ့ သတ်မှတ်နိုင်တယ်ဆိုတာ သတိပြုပါ။,"注意,您可以指定损失函数为字符串,就像我们对优化器所做的那样。"
788,"But there's a risk there, there's a very common trap people fall into, which is that by default, this loss assumes the output is probabilities after a softmax layer.",ဒါပေမယ့် အန္တရာယ်တစ်ခု ရှိတယ်၊ လူတွေ မကြာခဏ ကျရောက်တတ်တဲ့ ထောင်ချောက်တစ်ခုကတော့ ဒီ loss က softmax layer ပြီးနောက် အထွက်က probabilities တွေလို့ မူလအားဖြင့် ယူဆထားတာပဲ ဖြစ်တယ်။,"但有一个风险,有一个非常常见的陷阱 人们会陷入, 也就是说,默认情况下,这种损失 假设产出是概率 后软式层。"
789,"But what our model has actually output is the values before the softmax, often called the logits, sometimes logits.",ဒါပေမယ့် ကျွန်တော်တို့ရဲ့ မော်ဒယ်က တကယ်တမ်း ထုတ်ပေးတာက softmax မတိုင်ခင်က တန်ဖိုးတွေပါ၊ အများအားဖြင့် logits လို့ ခေါ်ကြတယ်၊ တချို့ကလည်း logit လို့ အသံထွက်ကြတယ်။,"但是我们的模型实际输出的 是软峰值之前的值, 通常称为日志,有时是日志。"
790,No one's quite sure how to pronounce that one.,ဘယ်လို အသံထွက်ရမယ်ဆိုတာ ဘယ်သူမှ သေချာမသိကြဘူး။,没人知道该怎么发音
791,But you probably seen these before in the video about pipelines.,ဒါပေမယ့် ဒါတွေကို pipeline တွေအကြောင်း ဗီဒီယိုမှာ သင်မြင်ဖူးမှာပါ။,但你可能以前在关于管道的视频里见过这些
792,"So if you get this wrong, your model won't train and it'll be very annoying to figure out why.",ဒါကြောင့် ဒါကို မှားသွားရင် သင့်မော်ဒယ်က လေ့ကျင့်မှာ မဟုတ်ဘဲ ဘာကြောင့်လဲဆိုတာကို ရှာဖွေရတာ အရမ်း စိတ်ရှုပ်စရာ ဖြစ်သွားလိမ့်မယ်။,所以如果你搞错了 你的模特儿不会训练 知道为什么会很烦人
793,"In future videos, we're gonna see how to use the model's internal loss computations, so that you don't have to specify the loss yourself and you don't have to worry about these details.",နောင်လာမယ့် ဗီဒီယိုတွေမှာတော့ မော်ဒယ်ရဲ့ အတွင်းပိုင်း loss တွက်ချက်မှုတွေကို ဘယ်လိုသုံးမလဲဆိုတာ ကြည့်ရမှာပါ၊ ဒါမှ သင်ကိုယ်တိုင် loss ကို သတ်မှတ်စရာ မလိုတော့ဘဲ ဒီအသေးစိတ်အချက်အလက်တွေကို စိတ်ပူစရာ မလိုတော့ဘူး။,"在未来的视频中, 我们会看到如何使用模型的内部损失计算, 这样你就可以不用自己具体说明损失, 也不必担心这些细节。"
794,"But for now, remember to set from_logits to true.",ဒါပေမယ့် အခုချိန်အတွက်တော့ from_logits ကို true လို့ သတ်မှတ်ဖို့ မမေ့ပါနဲ့။,"但现在,记住从 logits 设置为真实。"
795,The second thing compile needs to know is the optimizer you want.,Compile လုပ်ဖို့ သိရမယ့် ဒုတိယအချက်ကတော့ သင်လိုချင်တဲ့ optimizer ပဲ ဖြစ်တယ်။,第二件事是编译需要知道的 是想要的优化器
796,"In our case, we use adam, which is sort of the standard optimizer for deep learning these days.",ကျွန်တော်တို့ကတော့ adam ကို သုံးမယ်၊ အခုခေတ် deep learning အတွက် ဒါက စံသတ်မှတ်ထားတဲ့ optimizer လိုမျိုး ဖြစ်နေပြီ။,"以我们的情况来说,我们使用Adam, 这是一种标准的优化 用于这些天的深层学习。"
797,The one thing you might want to change is the learning rate.,သင်ပြောင်းလဲချင်တဲ့ တစ်ခုတည်းသောအရာကတော့ learning rate ဖြစ်နိုင်တယ်။,你可能想改变的一件事 就是学习率
798,"And to do that, we'll need to import the actual optimizer rather than just calling it by string.",ဒါကို လုပ်ဖို့အတွက် string နဲ့ ခေါ်ဆိုရုံထက် အမှန်တကယ် optimizer ကို import လုပ်ဖို့ လိုလိမ့်မယ်။,"要做到这一点,我们需要进口实际的优化器, 而不是用字符串来称呼它。"
799,"But we'll talk about that in another video, which I'll link below.",ဒါပေမယ့် အဲဒါကို နောက်ထပ် ဗီဒီယိုတစ်ခုမှာ ပြောပါမယ်၊ အောက်မှာ လင့်ခ်ချပေးထားပါတယ်။,"但是我们会在另一段视频里讨论这个问题, 我会在下面连线。"
800,"For now, let's just try training the model.",အခုတော့ မော်ဒယ်ကို လေ့ကျင့်ကြည့်ရအောင်။,"现在,让我们尝试 训练模型。"
801,"Well, so how do you train the model?",ကဲ၊ မော်ဒယ်ကို ဘယ်လိုလေ့ကျင့်မလဲ။,"那么,你怎么训练模型?"
802,"Again, if you've used Keras before, this is all going to be very familiar to you.",Keras ကို သုံးဖူးရင် ဒါတွေအားလုံး သင့်အတွက် အရမ်းရင်းနှီးနေပါလိမ့်မယ်။,"再说一次,如果你以前用过Keras的话 这一切都会让你很熟悉的"
803,"But if not, let's very quickly look at what we're doing here.",ဒါပေမယ့် မရင်းနှီးသေးရင် ဒီမှာ ကျွန်တော်တို့ ဘာလုပ်နေလဲဆိုတာ အမြန်ကြည့်ရအောင်။,"但是如果不是的话,让我们很快地看看我们在这里做什么。"
804,fit is pretty much the central method for Keras models.,fit ဆိုတာ Keras မော်ဒယ်တွေအတွက် အဓိက နည်းလမ်းပါပဲ။,适合是Keras模型的核心方法。
805,It tells the model to train on the data we're passing in.,ဒါက ကျွန်တော်တို့ ထည့်ပေးနေတဲ့ ဒေတာပေါ်မှာ လေ့ကျင့်ဖို့ မော်ဒယ်ကို ပြောပြတယ်။,"它告诉模型 培训数据,我们正在通过。"
806,"So here we pass the datasets we made in the previous section, the dataset contains both our inputs and our labels.",ဒီမှာတော့ အရင်အပိုင်းမှာ လုပ်ခဲ့တဲ့ datasets တွေကို ပို့လိုက်တယ်၊ dataset မှာ ကျွန်တော်တို့ရဲ့ inputs တွေရော labels တွေရော ပါဝင်တယ်။,"因此,我们在这里传递我们在上一节中制作的数据集, 数据集包含我们的投入和标签。"
807,"So we don't need to specify separate labels, when we're calling fit.",ဒါကြောင့် fit ကို ခေါ်တဲ့အခါ သီးခြား label တွေကို သတ်မှတ်ပေးဖို့ မလိုဘူး။,"所以我们不需要指定不同的标签, 当我们叫合适的时候。"
808,Then we do the same thing with the validation_data.,ပြီးရင် validation_data နဲ့လည်း အတူတူ လုပ်တယ်။,然后我们做同样的事情 验证数据。
809,"And then we can if we want, we can specify details, like the number of epochs for training where there's some other arguments you can pass to fit.",ပြီးတော့ ကျွန်တော်တို့ လိုချင်ရင် လေ့ကျင့်မှုအတွက် epoch အရေအတွက်လိုမျိုး အသေးစိတ်တွေကို သတ်မှတ်နိုင်တယ်၊ fit ကို ပေးပို့နိုင်တဲ့ တခြား arguments တွေလည်း ရှိသေးတယ်။,"然后我们可以,如果我们想要的话, 我们可以具体说明细节, 比如训练的时代数量, 在那里你还可以通过一些其他的论据。"
810,"But in the end, you just pass all of this to model.fit and you let it run.",ဒါပေမယ့် နောက်ဆုံးမှာတော့ ဒီအရာအားလုံးကို model.fit ကို ပေးပို့ပြီး လည်ပတ်ဖို့ ချထားလိုက်ရုံပဲ။,"但最终,你只是把这一切 传给模特,你让它运行。"
811,"If everything works out, you should see a little training bar progressing along as your loss goes down.",အရာအားလုံး အဆင်ပြေရင် သင့် loss ကျသွားတာနဲ့အမျှ လေ့ကျင့်မှု bar လေးတစ်ခု တိုးတက်နေတာကို မြင်ရမှာပါ။,"如果一切顺利,你应该看到 一个小训练棒在前进 随着你的损失下降。"
812,And that's it.,ဒီလောက်ပါပဲ။,就是这样。
813,"While that's running, you know, you can call your boss and tell them you're a senior NLP machine learning engineer now and you're gonna want a salary review next quarter.",အဲဒါ လည်ပတ်နေတုန်းမှာပဲ သင်က သင့်အထက်လူကြီးကို ဖုန်းခေါ်ပြီး သင်က senior NLP machine learning engineer ဖြစ်သွားပြီ၊ နောက်သုံးလပတ်မှာ လစာတိုးဖို့ လိုချင်တယ်လို့ ပြောနိုင်တယ်။,在竞选期间 你可以打电话给你的老板 告诉他们你现在是NLP高级机器学习工程师 下季度你就要接受薪金审查
814,"These few lines of code are really all it takes to apply the power of a massive pre-trained language problem, massive pre-trained language model, excuse me, to your NLP problem.",ဒီ code လိုင်းအနည်းငယ်ကပဲ ကြီးမားတဲ့ ကြိုတင်လေ့ကျင့်ထားတဲ့ language model ရဲ့ စွမ်းအားကို သင့် NLP ပြဿနာအတွက် အသုံးပြုဖို့ လုံလောက်ပါတယ်။,"这几行的代码 真正需要的只是 应用力量 一个大规模的预先训练语言问题, 大规模的预先训练语言模式, 对不起, 对于你的NLP问题。"
815,But could we do better than this?,ဒါပေမယ့် ဒီထက် ပိုကောင်းအောင် လုပ်နိုင်မလား။,但我们能做得更好吗?
816,"I mean, we certainly could.",လုပ်နိုင်တာပေါ့။,"我的意思是,我们当然可以。"
817,"With a few more advanced Keras features like a tuned, scheduled learning rate, we can get an even lower loss and an even more accurate, more useful model.",အဆင့်မြင့် Keras အင်္ဂါရပ်အချို့ ဥပမာ- ချိန်ညှိထားတဲ့၊ အချိန်ဇယားဆွဲထားတဲ့ learning rate တွေကို သုံးပြီး loss ပိုနည်းစေမယ့် ပိုတိကျပြီး အသုံးဝင်တဲ့ မော်ဒယ်ကို ရနိုင်ပါတယ်။,"有了几个更先进的喀拉士山脉特征, 比如一个有收音机的定期学习率, 我们可以得到更低的损失, 一个更准确、更有用的模型。"
818,And what do we do with our model after we train it?,ပြီးတော့ မော်ဒယ်ကို လေ့ကျင့်ပြီးရင် ဘာဆက်လုပ်မလဲ။,训练后我们怎么处理模型呢?
819,"So all of this is going to be covered in the videos that are coming up, so stay tuned.",ဒါတွေအားလုံးကို နောက်လာမယ့် ဗီဒီယိုတွေမှာ ဖော်ပြပေးသွားမှာမို့ စောင့်မျှော်ကြည့်ရှုပါ။,"所以所有这一切将会在即将到来的视频中被报道, 所以请保持关注。"
820,"In our other videos, and as always, there'll be links below if you want to check those out, we talked about the basics of fine-tuning a language model with Tensorflow.",ကျွန်တော်တို့ရဲ့ တခြားဗီဒီယိုတွေမှာ TensorFlow နဲ့ language model တစ်ခုကို fine-tuning လုပ်တဲ့ အခြေခံတွေကို ပြောခဲ့တယ်၊ ကြည့်ချင်ရင်တော့ အောက်မှာ လင့်ခ်တွေ ပေးထားပါတယ်။,"在其它的视频中, 和往常一样, 下面会有链接, 如果你想检查这些, 我们谈论了对Tensorflow 语言模型进行微调的基本原理。"
821,"Still, can we do better?",ဒါပေမယ့် ဒီထက် ပိုကောင်းအောင် လုပ်နိုင်သေးလား။,"但是,我们能做得更好吗?"
822,"So here's the code from our model fine-tuning video, and while it works, we could definitely tweak a couple of things.",ဒါက ကျွန်တော်တို့ရဲ့ မော်ဒယ် fine-tuning ဗီဒီယိုက code ပါ၊ အလုပ်တော့ လုပ်တယ်၊ ဒါပေမယ့် အချက်အချို့ကိုတော့ ချိန်ညှိနိုင်သေးတယ်။,"这是我们的模范微调视频的代码, 虽然它有效, 我们肯定可以调整一些东西。"
823,By far the most important thing is the learning rate.,အရေးအကြီးဆုံးကတော့ learning rate ပဲ ဖြစ်တယ်။,"到目前为止,最重要的事情是学习率。"
824,"In this video we'll talk about how to change it, which will make your training much more consistently successful.",ဒီဗီဒီယိုမှာ ဒါကို ဘယ်လိုပြောင်းမလဲဆိုတာ ပြောပြပေးသွားမှာပါ၊ ဒါက သင့်ရဲ့ လေ့ကျင့်မှုကို ပိုပြီး အောင်မြင်အောင် လုပ်ပေးနိုင်ပါတယ်။,"我们将在这个视频中谈论如何改变它, 这将使你的训练更加持续成功。"
825,"In fact, really there are two things we want to change about the default learning rate for Adam.",တကယ်တော့ Adam ရဲ့ မူလ learning rate နဲ့ ပတ်သက်ပြီး ကျွန်တော်တို့ ပြောင်းလဲချင်တဲ့ အချက်နှစ်ချက် ရှိတယ်။,"事实上,在亚当的默认学习率方面, 我们确实有两件事想改变。"
826,"So the first we want to change is that it's way too high for our models, by default, Adam uses a learning rate of 10 to the minus 3, 1 E minus 3, and that's very high for training transformer models.",ပထမဆုံး ပြောင်းချင်တာကတော့ ဒါဟာ ကျွန်တော်တို့ရဲ့ မော်ဒယ်တွေအတွက် အရမ်းမြင့်နေတာပဲ၊ မူလအားဖြင့် Adam က learning rate ၁၀ ရဲ့ အနုတ် ၃ ထပ် ဒါမှမဟုတ် ၁ E-၃ ကို သုံးတယ်၊ ဒါက transformer မော်ဒယ်တွေကို လေ့ကျင့်ဖို့အတွက် အရမ်းမြင့်တယ်။,"所以首先我们要改变的是,这对我们的模型来说太高了, 默认情况下,亚当的学习率是10到3,1 E减3, 而对于培训变压器模型来说,这是非常高的。"
827,"We're going to start at 5 by 10 to the minus 5, 5 E minus 5, which is 20 times lower than the default.",ကျွန်တော်တို့ကတော့ မူလတန်ဖိုးထက် အဆ ၂၀ ပိုနည်းတဲ့ ၅ ရဲ့ ၁၀ အနုတ် ၅ ထပ်၊ ဒါမှမဟုတ် ၅ E-၅ ကနေ စတင်မှာပါ။,"我们从5乘10到5乘5, 5E减5开始, 比违约率低20倍。"
828,"And secondly, we don't just want a constant learning rate, we can get even better performance if we decay the learning rate down to a tiny value, or even to zero , over the course of training.",ဒုတိယအနေနဲ့ ကျွန်တော်တို့က ပုံသေ learning rate ကို မလိုချင်ဘူး၊ လေ့ကျင့်မှုအတွင်း learning rate ကို အလွန်သေးငယ်တဲ့ တန်ဖိုး ဒါမှမဟုတ် သုညအထိ လျော့ချနိုင်ရင် ပိုကောင်းတဲ့ စွမ်းဆောင်ရည်ကို ရနိုင်တယ်။,"其次,我们不只是想要一个恒定的学习率, 如果我们把学习率降低到一个微小的价值, 甚至到零, 在培训过程中,我们就可以得到更好的表现。"
829,"So that's what this thing here, this Polynomial Decay schedule thing is doing.",ဒီနေရာမှာရှိတဲ့ Polynomial Decay schedule ဆိုတဲ့ အရာက အဲဒါကို လုပ်ဆောင်နေတာပါ။,"所以这就是这里的这个东西, 这个多面性衰减计划的事情正在做的。"
830,"So I'll show you what that decay looks like in a second, but first we need to tell the scheduler how long training is going to be, so that it decays at the right speed, and that's what this code here is doing.",အဲဒီ decay ပုံစံ ဘယ်လိုရှိလဲဆိုတာ ခဏနေ ပြပေးပါမယ်၊ ဒါပေမယ့် ပထမဆုံး လျော့ချမှုကို မှန်ကန်တဲ့ အရှိန်နဲ့ လုပ်နိုင်ဖို့အတွက် လေ့ကျင့်မှုက ဘယ်လောက်ကြာမလဲဆိုတာ scheduler ကို ပြောပြဖို့ လိုပါတယ်၊ ဒီ code က အဲဒါကို လုပ်ဆောင်နေတာပါ။,我一秒钟就会告诉你 腐烂是什么样子 但首先我们要告诉调度员 训练要持续多久 所以它会以正确的速度腐烂 这就是这个代码正在做的
831,"We're computing how many minibatches the model is going to see over its entire training run, which is the size of the training set, and then we multiply that by the number of epochs to get the total number of batches across the whole training run.",ကျွန်တော်တို့ မော်ဒယ်က လေ့ကျင့်မှု တစ်လျှောက်လုံးမှာ minibatches ဘယ်နှစ်ခု မြင်ရမလဲဆိုတာကို တွက်ချက်နေပါတယ်၊ ဒါက training set ရဲ့ အရွယ်အစားပါ၊ ပြီးတော့ စုစုပေါင်း batch အရေအတွက်ကို ရဖို့အတွက် epoch အရေအတွက်နဲ့ မြှောက်လိုက်တယ်။,"我们正在计算模型将在其整个培训运行中看到多少小型小机箱, 也就是训练的大小, 然后我们乘以这个小机箱的数目, 在整个培训运行中,将批量的总数 乘以这个小机箱的数目。"
832,"Once we know how many training steps we're taking, we just pass all that information to the scheduler and we're ready to go.",ကျွန်တော်တို့ လေ့ကျင့်မှု အဆင့် ဘယ်လောက်ယူမလဲ သိပြီဆိုတာနဲ့ အဲဒီအချက်အလက်အားလုံးကို scheduler ကို ပေးပို့လိုက်ရုံပါပဲ။,"一旦我们知道我们正在采取多少培训步骤, 我们就把所有的信息传递给排程器, 我们准备就绪。"
833,What does the polynomial decay schedule look like?,polynomial decay schedule က ဘယ်လိုပုံစံ ရှိလဲ။,多边衰变时间表是什么样子?
834,"Well, it looks like this, it starts at 5 E minus 5, which means 5 times 10 to the minus 5, and then decays down at a constant rate until it hits zero right at the very end of training.",ဒီလို ပုံစံရှိပါတယ်၊ ၅ E-၅ ကနေ စတင်တယ်၊ ဆိုလိုတာက ၅ ရဲ့ ၁၀ အနုတ် ၅ ထပ်ကို ဆိုလိုပြီး ပြီးရင် လေ့ကျင့်မှုရဲ့ နောက်ဆုံးမှာ သုညရောက်တဲ့အထိ ပုံသေနှုန်းနဲ့ လျော့ကျသွားတယ်။,"看起来是这样的,它从5 E -5开始, 这意味着5乘以10 到5, 然后以恒定的速度衰落, 直到它到达零 右在训练结束。"
835,"So hold on, I can already hear you yelling at your monitor, though, and yes, I know, this is actually constant or a linear decay, and I know the name is polynomial, and you're feeling cheated that, you know, you were promised a polynomial and haven't gotten it, so calm down though, it's okay, because, of course, linear functions are just first-order special cases of the general polynomial functions, and if you tweak the options to this class, you can get a truly polynomial, a higher-order decay schedule, but this linear schedule will work fine for us for now, we don't actually need all those fancy tweaks and fancy gadgets.","ခဏလေး၊ သင်တို့ monitor ကို အော်ဟစ်နေတာ ကြားနေရပြီ၊ ဟုတ်တယ်၊ ကျွန်တော်သိပါတယ်၊ ဒါက တကယ်တော့ ပုံသေ ဒါမှမဟုတ် linear decay ဖြစ်ပြီး နာမည်က polynomial ဖြစ်နေတာကို သင်ခံရတာ မဟုတ်ဘူးလို့ ခံစားရမှာပါ၊ စိတ်လျှော့ပါ၊ ရပါတယ်၊ ဘာလို့လဲဆိုတော့ linear function တွေဟာ ယေဘုယျ polynomial function တွေရဲ့ ပထမအဆင့် အထူးကိစ္စတွေ ဖြစ်တယ်၊ ဒီ class ရဲ့ ရွေးချယ်မှုတွေကို ချိန်ညှိလိုက်ရင် တကယ့် polynomial, အဆင့်မြင့် decay schedule ကို ရနိုင်ပါတယ်၊ ဒါပေမယ့် ဒီ linear schedule က အခုချိန်မှာ ကျွန်တော်တို့အတွက် အဆင်ပြေပါတယ်၊ ကျွန်တော်တို့ အဲဒီ စတိုင်ကျတဲ့ ချိန်ညှိမှုတွေနဲ့ ကိရိယာတွေ အများကြီး မလိုအပ်ပါဘူး။","等等,我已经听到你在监视器上大喊大叫了, 不过,是的,我知道,这其实是常态的或者线性衰变, 我知道这个名字是多式的, 而你觉得被骗了, 你知道,你得到过一个多式的保证, 你还没有拿到它, 所以冷静下来,"
836,"So coming back, how do we actually use this learning rate schedule once we've created it?",ကဲ ပြန်လာပြီ၊ ဒီ learning rate schedule ကို ဖန်တီးပြီးတာနဲ့ တကယ်တမ်း ဘယ်လိုသုံးမလဲ။,"所以,回来后,我们如何实际使用这个学习进度表? 一旦我们创建了这个学习进度表?"
837,"So it's simple, we just pass it to Adam.",ရိုးရှင်းပါတယ်၊ Adam ကို ပေးလိုက်ရုံပါပဲ။,"所以很简单,我们把它传给亚当"
838,"So the first time we compiled the model, we just passed the string Adam, to get our optimizer.",မော်ဒယ်ကို ပထမဆုံး compile လုပ်တုန်းက ကျွန်တော်တို့ optimizer ရဖို့အတွက် Adam ဆိုတဲ့ string ကို ပေးလိုက်ရုံပါပဲ။,"所以,我们第一次编集模型时, 我们刚刚通过了亚当的弦, 以获得我们的优化器。"
839,"So Keras recognizes the names of common optimizers and loss functions if you pass them as strings, so it saves time to do that if you only want the default settings.",Keras က အဖြစ်များတဲ့ optimizer တွေနဲ့ loss function တွေရဲ့ နာမည်တွေကို string အနေနဲ့ ပေးလိုက်ရင် မှတ်မိပါတယ်၊ ဒါကြောင့် မူလ setting တွေကိုပဲ လိုချင်ရင် အချိန်ကုန်သက်သာစေတယ်။,"所以 Keras 识别通用优化器的名称和丢失函数, 如果您把它们作为字符串传递的话, 这样可以节省时间, 如果您只想要默认设置的话 。"
840,"But now we're professional machine learners, and, you know, that salary review is upcoming, so we've got our very own learning rate schedule, and we're gonna do things properly.",ဒါပေမယ့် အခု ကျွန်တော်တို့ကတော့ ကျွမ်းကျင်တဲ့ machine learner တွေ ဖြစ်နေပြီ၊ ပြီးတော့ လစာတိုးဖို့လည်း နီးနေပြီ၊ ဒါကြောင့် ကျွန်တော်တို့ရဲ့ ကိုယ်ပိုင် learning rate schedule ကို သုံးပြီး အရာရာကို စနစ်တကျ လုပ်ဆောင်သွားမယ်။,"但现在,我们是专业的机器学习者, 而且,你知道, 薪资审查即将到来, 所以我们已经有了我们自己的学习进度表, 我们会做正确的事情。"
841,"So the first we do is we import the optimizer, and then we initialize it with a scheduler, which is getting passed to to the learning rate argument of that optimizer.",ပထမဆုံးအနေနဲ့ optimizer ကို import လုပ်ပြီး၊ ပြီးရင် scheduler နဲ့ အစပြုပါတယ်၊ အဲဒါကို optimizer ရဲ့ learning rate argument ကို ပေးပို့လိုက်တာ ဖြစ်တယ်။,"所以我们首先要进口优化器, 然后我们先用一个排程器来初始化它, 它被传递到那个优化器的学习率参数上。"
842,"And now we compile the model with this new optimizer, and again, whatever loss function you want, so this is going to be sparse categorical crossentropy if you're following along from the fine-tuning video.",အခု ဒီ optimizer အသစ်နဲ့ မော်ဒယ်ကို compile လုပ်မယ်၊ ပြီးတော့ သင်လိုချင်တဲ့ loss function ဘာပဲဖြစ်ဖြစ် သုံးနိုင်တယ်၊ fine-tuning ဗီဒီယိုကနေ လိုက်လုပ်နေတယ်ဆိုရင် ဒါက sparse categorical crossentropy ဖြစ်ပါလိမ့်မယ်။,"现在,我们用这个新的优化器来编集模型, 并且,无论你想要什么损失功能, 所以如果你跟着微调的视频, 它将会是稀疏的 绝对的交叉物种。"
843,"And then, we're we're ready to go, now we have a high-performance model, and ready for training.",ဒါဆို အဆင်သင့်ဖြစ်ပြီ၊ အခု ကျွန်တော်တို့မှာ စွမ်းဆောင်ရည်မြင့်မားတဲ့ မော်ဒယ်တစ်ခု ရှိပြီ၊ လေ့ကျင့်ဖို့ အဆင်သင့်ပဲ။,"然后,我们准备出发了, 现在我们有了高性能模型, 准备接受训练。"
844,All that remains is to fit the model just like we did before.,ကျန်တာကတော့ အရင်က လုပ်ခဲ့သလိုပဲ မော်ဒယ်ကို fit လုပ်ဖို့ပဲ ဖြစ်တယ်။,剩下的就是和我们以前一样 适合模型
845,"Remember, because we compiled the model with the new optimizer and the new learning rate schedule, we actually don't need to change anything at all when we call fit, we just call it again, with exactly the same command as before, but now we get a beautiful training, with a nice, smooth learning rate decay, starting from a good value, and decaying down to zero.",သတိထားရမှာက optimizer အသစ်နဲ့ learning rate schedule အသစ်နဲ့ မော်ဒယ်ကို compile လုပ်ထားတဲ့အတွက် fit ကို ခေါ်တဲ့အခါ ဘာမှ ပြောင်းလဲစရာ မလိုပါဘူး၊ အရင်ကအတိုင်းပဲ တူညီတဲ့ command နဲ့ ထပ်ခေါ်လိုက်ရုံပါပဲ၊ ဒါပေမယ့် အခုဆိုရင် တန်ဖိုးကောင်းတစ်ခုကနေ စတင်ပြီး သုညအထိ လျော့ကျသွားတဲ့ ချောမွေ့လှပတဲ့ learning rate decay နဲ့ လေ့ကျင့်မှု ကောင်းကောင်း ရပါလိမ့်မယ်။,"记住,因为我们用新的优化器和新的学习进度表 汇编了模型, 我们实际上不需要改变任何东西 当我们称之为适合的时候, 我们只是再次叫它, 与以前完全一样的指令, 但现在我们得到了一个美丽的训练, 学习速度下降, 从一个好的值开始, 从一个好的值开始, 衰落到零。"
846,"In our other videos, and as always, there'll be links below if you want to check those out, we showed you how to initialize and fine-tune a transformer model in TensorFlow.",ကျွန်တော်တို့ရဲ့ တခြားဗီဒီယိုတွေမှာ TensorFlow နဲ့ transformer မော်ဒယ်တစ်ခုကို ဘယ်လို စတင်ပြီး fine-tune လုပ်ရမလဲဆိုတာ ပြခဲ့တယ်၊ ကြည့်ချင်ရင်တော့ အောက်မှာ လင့်ခ်တွေ ပေးထားပါတယ်။,"在其它的视频中, 和往常一样, 下面会有链接, 如果你想检查这些, 我们教你如何在TensorFlow 初始化和微调一个变压器模型。"
847,"So the question now is, what can we do with a model after we train it?",ဒါဆို အခု မေးစရာရှိတာက မော်ဒယ်ကို လေ့ကျင့်ပြီးရင် ဘာလုပ်လို့ရလဲ။,"所以,现在的问题是,我们训练一个模型之后,我们能做些什么?"
848,"The obvious thing to try is to use it to get predictions for new data, so let's see how to do that.",ထင်ရှားတဲ့အရာကတော့ ဒေတာအသစ်အတွက် ခန့်မှန်းချက်တွေရဖို့ အဲဒါကို သုံးကြည့်ဖို့ပဲ၊ ဒါကို ဘယ်လိုလုပ်ရမလဲ ကြည့်ရအောင်။,"显而易见的尝试是利用它来预测新的数据, 让我们来看看如何做到这一点。"
849,"Again, if you're familiar with Keras, the good news is that because there are just standard Keras models, we can use the standard Keras predict method, as shown here.",Keras နဲ့ ရင်းနှီးတယ်ဆိုရင် သတင်းကောင်းကတော့ ဒါတွေက စံ Keras မော်ဒယ်တွေ ဖြစ်တဲ့အတွက် ဒီမှာ ပြထားတဲ့အတိုင်း စံ Keras predict method ကို သုံးနိုင်တယ်။,"如果你对Keras很熟悉, 好消息是,因为只有标准的Keras模型, 我们可以使用标准的Keras预测方法, 如这里所示。"
850,"You simply pass in tokenized text to this method, like you'd get from a tokenizer, and you get your results.",tokenizer ကနေ ရသလိုမျိုး tokenized text ကို ဒီ method ထဲ ပေးပို့လိုက်ရုံနဲ့ ရလဒ်တွေ ရပါလိမ့်မယ်။,"你只是将象征性的文字传递给这个方法, 就像你从一个象征器得到的一样, 然后你得到你的结果。"
851,"Our models can output several different things, depending on the options you set, but most of the time the thing you want is the output logits.",ကျွန်တော်တို့ရဲ့ မော်ဒယ်တွေက သင်သတ်မှတ်ထားတဲ့ ရွေးချယ်မှုတွေပေါ် မူတည်ပြီး မတူညီတဲ့ အရာများစွာကို ထုတ်ပေးနိုင်တယ်၊ ဒါပေမယ့် အများအားဖြင့် သင်လိုချင်တာကတော့ အထွက် logits တွေပဲ ဖြစ်တယ်။,"我们的模型可以产生一些不同的东西, 取决于您设定的选项, 但大部分时间你想要的是输出日志 。"
852,"If you haven't come across them before logits, sometimes pronounced to logits because no one's sure, are the outputs of the last layer of the network because before a softmax has been applied.",ဒီ logit တွေနဲ့ မတွေ့ဖူးသေးဘူးဆိုရင် ဘယ်လိုအသံထွက်ရမှန်း မသိတဲ့အတွက် logit လို့လည်း တခါတလေ အသံထွက်ကြတယ်၊ ဒါတွေက softmax အသုံးမပြုခင်က network ရဲ့ နောက်ဆုံး layer က အထွက်တွေ ဖြစ်တယ်။,"如果你在登录前没有遇到它们, 有时因为没人肯定而宣布登录, 是网络最后一层的输出, 因为在应用软键之前。"
853,"So if you want to turn the logits into the model's probability outputs, you just apply a softmax, like so.",ဒါကြောင့် logit တွေကို မော်ဒယ်ရဲ့ probability အထွက်တွေအဖြစ် ပြောင်းချင်ရင် ဒီလိုမျိုး softmax ကို သုံးလိုက်ရုံပါပဲ။,"所以,如果你想将登入的日志 输入模型的概率输出, 你只需要应用一个软最大值, 就像这样。"
854,What if we want to turn those probabilities into class predictions?,အဲဒီ probability တွေကို class predictions တွေအဖြစ် ပြောင်းချင်ရင် ဘယ်လိုလုပ်မလဲ။,如果我们想把这些概率 变成阶级预测呢?
855,"Again, it's very straightforward.",ဒါကလည်း အရမ်းရိုးရှင်းပါတယ်။,"再说一遍,这是非常直截了当的。"
856,We just pick the biggest probability for each output and you can get that immediately with the argmax function.,အထွက်တစ်ခုစီအတွက် အကြီးဆုံး probability ကို ရွေးလိုက်ရုံပါပဲ၊ argmax function နဲ့ ဒါကို ချက်ချင်း ရနိုင်တယ်။,"我们只选择每项输出的最大概率, 并且您可以立即得到它, 使用 rgmax 函数 。"
857,argmax will return the index of the largest probability in each row which means that we'll get a vector of integers.,argmax က အတန်းတစ်ခုစီမှာ အကြီးဆုံး probability ရဲ့ index ကို ပြန်ပေးလိမ့်မယ်၊ ဆိုလိုတာက ကျွန်တော်တို့ integer vector တစ်ခု ရပါလိမ့်မယ်။,"agmax 会返回每行最大概率的指数, 这意味着我们会得到一个整数矢量。"
858,"So zero if the largest probability was in the zero position, one in the first position, and so on.",အကြီးဆုံး probability က သုညနေရာမှာ ရှိရင် သုည၊ ပထမနေရာမှာဆိုရင် တစ်၊ စသည်ဖြင့်ပေါ့။,"所以,如果最大概率是零位, 最大概率是零, 第一位,等等。"
859,"So these are our class predictions indicating class zero, class one, and so on.",ဒါတွေကတော့ class သုည၊ class တစ် စသည်တို့ကို ညွှန်ပြနေတဲ့ ကျွန်တော်တို့ရဲ့ class predictions တွေပဲ ဖြစ်တယ်။,这就是我们班级的预测 显示为零级 一级等等
860,"In fact, if class predictions are all you want, you can skip the softmax step entirely because the largest logit will always be the largest probability as well.",တကယ်တော့ class predictions တွေပဲ လိုချင်တယ်ဆိုရင် softmax အဆင့်ကို လုံးဝ ကျော်သွားနိုင်တယ်၊ ဘာလို့လဲဆိုတော့ အကြီးဆုံး logit ဟာ အကြီးဆုံး probability လည်း အမြဲတမ်း ဖြစ်နေမှာ ဖြစ်လို့ပါ။,"事实上,如果班级预测只是你想要的, 你可以完全跳过软体步, 因为最大的日志也总是最大的概率。"
861,"So if probabilities and class predictions are all you want, then you've seen everything you need at this point.",ဒါကြောင့် probability တွေနဲ့ class predictions တွေပဲ လိုချင်တယ်ဆိုရင် ဒီအဆင့်မှာ သင်သိသင့်တာတွေ အားလုံး မြင်ခဲ့ရပြီးပါပြီ။,"所以,如果概率和阶级预测是你想要的, 那么你已经看到了你现在需要的一切。"
862,"But if you're interested in benchmarking your model or using it for research, you might want to delve deeper into the results you get.",ဒါပေမယ့် သင့်မော်ဒယ်ကို စွမ်းဆောင်ရည် စမ်းသပ်တာ ဒါမှမဟုတ် သုတေသနအတွက် သုံးချင်တယ်ဆိုရင်တော့ သင်ရတဲ့ ရလဒ်တွေကို ပိုပြီး နက်နက်နဲနဲ လေ့လာချင်မှာပါ။,但如果你有兴趣为模型设定基准 或将其用于研究 你可能会想更深入地了解你得到的结果
863,And one way to do that is to compute some metrics for the model's predictions.,ဒါကို လုပ်နိုင်တဲ့ နည်းလမ်းတစ်ခုကတော့ မော်ဒယ်ရဲ့ ခန့်မှန်းချက်တွေအတွက် metrics တွေ တွက်ချက်တာပဲ ဖြစ်တယ်။,其中一个方法就是计算模型预测的一些指标。
864,"If you're following along with our datasets and fine tuning videos, we got our data from the MRPC dataset, which is part of the GLUE benchmark.",ကျွန်တော်တို့ရဲ့ datasets နဲ့ fine tuning ဗီဒီယိုတွေနဲ့အတူ လိုက်လုပ်နေတယ်ဆိုရင် GLUE benchmark ရဲ့ အစိတ်အပိုင်းဖြစ်တဲ့ MRPC dataset ကနေ ဒေတာတွေကို ရယူခဲ့တယ်။,"如果你跟着我们的数据集和微调视频, 我们从MRPC数据集得到数据, 这是GLUE基准的一部分。"
865,"Each of the GLUE datasets as well as many other datasets in our dataset, Light Hub has some predefined metrics, and we can load them easily with the datasets load metric function.",GLUE datasets တစ်ခုစီတိုင်းမှာနဲ့ datasets Light Hub မှာရှိတဲ့ တခြား datasets များစွာမှာ ကြိုတင်သတ်မှတ်ထားတဲ့ metrics တွေ ရှိပြီး datasets load metric function နဲ့ အလွယ်တကူ load လုပ်နိုင်ပါတယ်။,"GLUE 每个数据集以及我们数据集中的许多其他数据集, 光枢有一些预设的测量标准, 我们可以很容易地用数据集的负载测量功能加载它们。"
866,"For the MRPC dataset, the built-in metrics are accuracy which just measures the percentage of the time the model's prediction was correct, and the F1 score, which is a slightly more complex measure that measures how well the model trades off precision and recall.",MRPC dataset အတွက်တော့ built-in metrics တွေက accuracy ဖြစ်ပြီး ဒါက မော်ဒယ်ရဲ့ ခန့်မှန်းချက် မှန်ကန်တဲ့ ရာခိုင်နှုန်းကို တိုင်းတာပေးတယ်၊ နောက်တစ်ခုက F1 score ဖြစ်ပြီး ဒါက precision နဲ့ recall ကို မော်ဒယ် ဘယ်လောက် ကောင်းကောင်း ချိန်ညှိနိုင်တယ်ဆိုတာ တိုင်းတာတဲ့ နည်းနည်း ပိုရှုပ်ထွေးတဲ့ တိုင်းတာမှုတစ်ခု ဖြစ်တယ်။,"就MRPC数据集而言,内在指标是精确度,仅衡量模型预测正确时间的百分比,而F1评分则略为复杂,衡量模型如何与精确度和回溯率相权衡。"
867,"To compute those metrics to benchmark our model, we just pass them the model's predictions, and to the ground truth labels, and we get our results in a straightforward Python dict.",ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို စွမ်းဆောင်ရည် စမ်းသပ်ဖို့အတွက် အဲဒီ metrics တွေကို တွက်ချက်ဖို့ မော်ဒယ်ရဲ့ ခန့်မှန်းချက်တွေနဲ့ ground truth labels တွေကို ပေးပို့လိုက်ရုံပါပဲ၊ ပြီးရင် ရလဒ်တွေကို ရိုးရှင်းတဲ့ Python dict မှာ ရပါလိမ့်မယ်။,"为了计算这些衡量标准 以衡量我们的模型, 我们只是通过它们 模型的预测, 和地面的真相标签, 我们得到我们的结果 在一个直截了当的Pythondict。"
868,"If you're familiar with Keras though, you might notice that this is a slightly weird way to compute metrics, because we're only computing metrics at the very end of training.",Keras နဲ့ ရင်းနှီးဖူးရင် ဒါက metrics တွေ တွက်ချက်ဖို့ နည်းနည်း ထူးဆန်းတဲ့ နည်းလမ်းဖြစ်တယ်လို့ သတိထားမိမှာပါ၊ ဘာလို့လဲဆိုတော့ လေ့ကျင့်မှုရဲ့ အဆုံးမှာမှ metrics တွေကို တွက်ချက်နေလို့ ဖြစ်တယ်။,"如果你对Keras很熟悉,你可能会注意到 这是计算量度的有点怪异的方法, 因为我们只是在训练结束时计算量度。"
869,"But in Keras, you have this built-in ability to compute a wide range of metrics on the fly while you're training, which gives you a very useful insight into how training is going.",ဒါပေမယ့် Keras မှာတော့ လေ့ကျင့်နေစဉ်အတွင်းမှာပဲ metrics အမျိုးမျိုးကို ချက်ချင်း တွက်ချက်နိုင်တဲ့ built-in စွမ်းရည်ရှိတယ်၊ ဒါက လေ့ကျင့်မှု ဘယ်လိုဖြစ်နေလဲဆိုတာကို အသုံးဝင်တဲ့ ထိုးထွင်းသိမြင်မှု ပေးနိုင်တယ်။,"但在喀拉斯,你有内在的能力 在训练期间 计算飞翔上的各种量度, 这使你对训练如何进行有了非常有用的洞察力。"
870,"So if you want to use built-in metrics, it's very straightforward and you use the standard Keras approach again.",ဒါကြောင့် built-in metrics တွေကို သုံးချင်တယ်ဆိုရင် အရမ်းရိုးရှင်းပြီး စံ Keras နည်းလမ်းကို ထပ်သုံးလိုက်ရုံပါပဲ။,"所以,如果你想使用内置的量度, 它非常直截了当, 你再次使用标准的Keras方法。"
871,You just pass a metric argument to the compile method.,compile method ကို metric argument တစ်ခု ပေးလိုက်ရုံပါပဲ။,你只需将一个标准参数 传递到编译方法。
872,"As with things like loss and optimizer, you can specify the metrics you want by string or you can import the actual metric objects and pass specific arguments to them.",loss နဲ့ optimizer လိုမျိုးပဲ သင်လိုချင်တဲ့ metrics တွေကို string နဲ့ သတ်မှတ်နိုင်တယ်၊ ဒါမှမဟုတ် တကယ့် metric object တွေကို import လုပ်ပြီး သီးခြား arguments တွေ ပေးနိုင်တယ်။,"与损失和优化等事项一样,您可以通过字符串指定您想要的量度,也可以导入实际的量度物体,并将具体参数传递给它们。"
873,"But note that unlike loss and accuracy, you have to supply metrics as a list even if there's only one metric you want.",ဒါပေမယ့် loss နဲ့ accuracy နဲ့ မတူတာကတော့ သင်လိုချင်တဲ့ metric တစ်ခုတည်း ရှိရင်တောင် metrics တွေကို list အနေနဲ့ ပေးပို့ရမယ်ဆိုတာ သတိပြုပါ။,"但请注意,与损失和准确性不同, 你必须提供衡量标准作为一个清单, 即使只有一个衡量标准你想要。"
874,"Once a model has been compiled with a metric, it will report that metric for training, validation, and predictions.",မော်ဒယ်တစ်ခုကို metric နဲ့ compile လုပ်ပြီးတာနဲ့ လေ့ကျင့်မှု၊ validation နဲ့ predictions တွေအတွက် အဲဒီ metric ကို အစီရင်ခံပါလိမ့်မယ်။,"一旦将一个模型编制成一个衡量标准,它将报告培训、验证和预测的衡量标准。"
875,Assuming there are labels passed to the predictions.,predictions တွေဆီ label တွေ ပေးပို့ထားတယ်ဆိုရင်ပေါ့။,假设有标签 传递到预测。
876,You can even write your own metric classes.,သင်ကိုယ်တိုင် metric class တွေကိုတောင် ရေးနိုင်တယ်။,你甚至可以写自己的标准课程。
877,"Although this is a bit beyond the scope of this course, I'll link to the relevant TF docs below because it can be very handy if you want a metric that isn't supported by default in Keras, such as the F1 score.",ဒါက ဒီသင်တန်းရဲ့ အတိုင်းအတာထက် နည်းနည်းကျော်လွန်သွားပေမယ့် Keras မှာ မူလအားဖြင့် မပံ့ပိုးပေးထားတဲ့ metric တစ်ခု ဥပမာ- F1 score ကို လိုချင်တယ်ဆိုရင် အရမ်း အသုံးဝင်နိုင်တဲ့အတွက် သက်ဆိုင်ရာ TF docs ကို အောက်မှာ လင့်ခ်ချပေးထားပါမယ်။,"虽然这有点超出这个课程的范围, 但我会联系到下面的相关TF医生, 因为如果你想要一个 Keras 的默认数据, 比如 F1 得分, 而不支持 。"
878,Write your own training loop with PyTorch.,PyTorch နဲ့ ကိုယ်ပိုင် training loop ကို ရေးကြည့်ရအောင်။,和皮托尔奇一起写你自己的训练圈
879,"In this video, we'll look at how we can do the same fine-tuning as in the Trainer video, but without relying on that class.",ဒီဗီဒီယိုမှာ Trainer ဗီဒီယိုမှာလို fine-tuning ကို အဲဒီ class ကို အားမကိုးဘဲ ဘယ်လိုလုပ်နိုင်မလဲဆိုတာ ကြည့်သွားမယ်။,"在这部影片中,我们将研究我们如何做与培训者视频同样的微调, 但不必依赖那门课。"
880,"This way, you'll be able to easily customize each step to the training loop to your needs.",ဒီနည်းနဲ့ သင်က training loop ရဲ့ အဆင့်တစ်ခုချင်းစီကို သင့်လိုအပ်ချက်နဲ့အညီ အလွယ်တကူ စိတ်ကြိုက်ပြင်ဆင်နိုင်ပါလိမ့်မယ်။,"这样,你就可以很容易地 量身定做每一步的训练循环 以满足你的需求"
881,This is also very useful to manually debug something that went wrong with the Trainer API.,Trainer API မှာ မှားသွားတဲ့အရာတစ်ခုကို ကိုယ်တိုင် အမှားရှာပြင်ဖို့အတွက်လည်း ဒါက အရမ်းအသုံးဝင်တယ်။,这对于手动调试与训练员API有问题的东西也是非常有用的。
882,"Before we dive into the code, here is a sketch of a training loop.",code ထဲ မဝင်ခင်မှာ training loop ရဲ့ ပုံကြမ်းကို ဒီမှာ ကြည့်ရအောင်။,在潜入代码之前 这是训练圈的草图
883,We take a batch of training data and feed it to the model.,Training data တစ်အုပ်ယူပြီး မော်ဒယ်ကို ထည့်ပေးလိုက်တယ်။,我们收集一批训练数据 并将其输入模型
884,"With the labels, we can then compute a loss.",Label တွေနဲ့ဆိုရင် loss တစ်ခုကို တွက်ချက်နိုင်တယ်။,有了标签 我们可以计算损失
885,"That number is not useful in its own, that is used to compute the ingredients of our model weights, that is the derivative of the loss with respect to each model weight.",ဒီဂဏန်းက သူ့ဘာသာသူ အသုံးမဝင်ပါဘူး၊ ဒါက ကျွန်တော်တို့ရဲ့ မော်ဒယ်အလေးချိန်တွေရဲ့ ပါဝင်ပစ္စည်းတွေကို တွက်ချက်ဖို့ သုံးတာဖြစ်တယ်၊ ဆိုလိုတာက loss ရဲ့ derivative ကို မော်ဒယ်အလေးချိန်တစ်ခုစီနဲ့ တွက်တာပေါ့။,"这个数字本身没有用处,它被用来计算我们模型重量的成分,即每一模型重量损失的衍生物。"
886,"Those gradients are then used by the optimizer to update the model weights, and make them a little bit better.",အဲဒီ gradient တွေကို optimizer က မော်ဒယ်အလေးချိန်တွေကို update လုပ်ဖို့နဲ့ နည်းနည်း ပိုကောင်းလာအောင် လုပ်ဖို့ အသုံးပြုတယ်။,"然后这些梯度被优化器用于更新模型加权数,使其稍好一点。"
887,We then repeat the process with a new batch of training data.,ပြီးရင် training data အသစ်တစ်အုပ်နဲ့ ဒီလုပ်ငန်းစဉ်ကို ပြန်လုပ်တယ်။,然后我们再用一批新的培训数据来重复这一过程。
888,"If any of this isn't clear, don't hesitate to take a refresher on your favorite deep learning course.",ဒီအထဲက ဘယ်အရာမှ မရှင်းသေးဘူးဆိုရင် သင်အကြိုက်ဆုံး deep learning သင်တန်းမှာ ပြန်လေ့လာဖို့ တုံ့ဆိုင်းမနေပါနဲ့။,"如果这些都不清楚的话, 请不要犹豫地去复习一下你最喜欢的深层学习课程。"
889,"We'll use the GLUE MRPC data set here again, and we've seen how to prepropose the data using the Datasets library with dynamic padding.",ဒီမှာ GLUE MRPC data set ကို ထပ်သုံးမယ်၊ dynamic padding ပါတဲ့ Datasets library ကို သုံးပြီး ဒေတာကို ဘယ်လို ကြိုတင်ပြင်ဆင်ရမလဲဆိုတာ မြင်ခဲ့ရပြီးပါပြီ။,"我们将在这里再次使用GLUE MRPC数据集, 我们已经观察了如何使用数据集库 以动态垫板来预示数据。"
890,Check out the videos link below if you haven't seen them already.,မကြည့်ရသေးရင် အောက်မှာ လင့်ခ်ချပေးထားတဲ့ ဗီဒီယိုတွေကို ကြည့်လိုက်ပါ။,"如果你们还没有看到,请看看下面的视频链接。"
891,"With this done, we only have to define PyTorch DataLoaders which will be responsible to convert the elements of our dataset into patches.",ဒါပြီးပြီဆိုရင် ကျွန်တော်တို့ရဲ့ dataset ထဲက elements တွေကို batches တွေအဖြစ် ပြောင်းလဲပေးမယ့် PyTorch DataLoaders တွေကိုပဲ သတ်မှတ်ဖို့ လိုတော့တယ်။,"完成这项工作后,我们只需定义 PyTorrch Data Loaders 就可以将我们数据集的元素转换成补丁。"
892,"We use our DataColletorForPadding as a collate function, and shuffle the training set to make sure we don't go over the samples in the same order at a epoch.",ကျွန်တော်တို့ DataColletorForPadding ကို collate function အဖြစ် သုံးပြီး training set ကို ရောနှောလိုက်တယ်၊ ဒါမှ epoch တစ်ခုမှာ samples တွေကို အတူတူ အစီအစဉ်အတိုင်း မသွားမိအောင်ပေါ့။,"我们用我们的数据采集器 来做一个校验功能, 并打乱训练组 以确保我们不会在一个时代 以同样的顺序 检查样品。"
893,"To check that everything works as intended, we try to grab a batch of data, and inspect it.",အရာအားလုံး ရည်ရွယ်ထားတဲ့အတိုင်း အလုပ်လုပ်ကြောင်း စစ်ဆေးဖို့အတွက် data တစ်အုပ်ကို ယူပြီး စစ်ဆေးကြည့်တယ်။,"为了检查一切工作是否如期进行, 我们试图收集一批数据, 并检查它。"
894,"Like our data set elements, it's a dictionary, but these times the values are not a single list of integers but a tensor of shape batch size by sequence length.",ကျွန်တော်တို့ရဲ့ dataset element တွေလိုပဲ ဒါက dictionary တစ်ခုပါ၊ ဒါပေမယ့် ဒီတစ်ခါတော့ တန်ဖိုးတွေက integer list တစ်ခုတည်း မဟုတ်ဘဲ batch size နဲ့ sequence length ပုံစံရှိတဲ့ tensor တစ်ခု ဖြစ်နေတယ်။,"和我们的数据组元素一样,它是一本字典, 但是这些时候的数值并不是一个整数列表, 而是一个按序列长度排列的形状批量大小的数组。"
895,The next step is to send the training data in our model.,နောက်တစ်ဆင့်ကတော့ training data တွေကို ကျွန်တော်တို့ရဲ့ မော်ဒယ်ထဲ ပို့ဖို့ပဲ ဖြစ်တယ်။,下一步是把训练数据输入我们的模型
896,"For that, we'll need to actually create a model.",ဒါအတွက် မော်ဒယ်တစ်ခုကို တကယ် ဖန်တီးဖို့ လိုလိမ့်မယ်။,"为此,我们需要 真正创造一个模型。"
897,"As seen in the Model API video, we use the from_pretrained method, and adjust the number of labels to the number of classes we have on this data set, here two.",Model API ဗီဒီယိုမှာ မြင်ခဲ့ရတဲ့အတိုင်း from_pretrained method ကို သုံးပြီး label အရေအတွက်ကို ဒီ dataset မှာရှိတဲ့ classes အရေအတွက်၊ ဒီမှာ နှစ်ခုနဲ့ ချိန်ညှိတယ်။,"从模型 API 视频中可以看出, 我们使用使用预设方法, 并调整标签数量, 以适应我们在这个数据集上的分类数量, 这里有两个。"
898,"Again to be sure everything is going well, we pass the batch we grabbed to our model, and check there is no error.",အရာအားလုံး အဆင်ပြေကြောင်း သေချာစေဖို့အတွက် ကျွန်တော်တို့ ယူထားတဲ့ batch ကို မော်ဒယ်ဆီ ပို့ပြီး error မရှိဘူးဆိုတာ စစ်ဆေးတယ်။,"为了再次确保一切顺利, 我们把拿到的批量 送到我们的模型, 检查有没有错误。"
899,"If the labels are provided, the models of the Transformers library always returns a loss directly.",Labels တွေ ပေးထားရင် Transformers library ရဲ့ မော်ဒယ်တွေက loss ကို တိုက်ရိုက် ပြန်ပေးတယ်။,"如果提供标签,变换器图书馆的模型总是直接返回损失。"
900,"We will be able to do loss.backward() to compute all the gradients, and will then need an optimizer to do the training step.",loss.backward() လုပ်ပြီး gradients တွေအားလုံးကို တွက်ချက်နိုင်တယ်၊ ပြီးရင် training step လုပ်ဖို့အတွက် optimizer တစ်ခု လိုအပ်ပါလိမ့်မယ်။,"我们将能够进行损失。 向后( ) 来计算所有的梯度, 然后需要一个优化者来完成训练步骤 。"
901,"We use the AdamW optimizer here, which is a variant of Adam with proper weight decay, but you can pick any PyTorch optimizer you like.",ဒီမှာတော့ Adam ရဲ့ weight decay မှန်ကန်တဲ့ AdamW optimizer ကို သုံးထားတယ်၊ ဒါပေမယ့် သင်ကြိုက်တဲ့ PyTorch optimizer ကို ရွေးနိုင်တယ်။,"我们在这里使用亚当W的优化器, 这是亚当的变体, 有适当的重量衰减, 但你可以选择任何你喜欢的PyTorrch优化器。"
902,"Using the previous loss, and computing the gradients with loss.backward(), we check that we can do the optimizer step without any error.",အရင် loss ကို သုံးပြီး loss.backward() နဲ့ gradients တွေကို တွက်ချက်ပြီးတဲ့နောက် optimizer step ကို error မရှိဘဲ လုပ်နိုင်မလားဆိုတာ စစ်ဆေးတယ်။,"使用上一个损失, 并用损失来计算梯度。 向上 () , 我们检查是否可以做到优化步骤, 没有任何错误 。"
903,"Don't forget to zero your gradient afterwards, or at the next step, they will get added to the gradients you computed.",ပြီးရင် gradient တွေကို သုည ပြန်ထားဖို့ မမေ့ပါနဲ့၊ မဟုတ်ရင် နောက်အဆင့်မှာ သင်တွက်ချက်ခဲ့တဲ့ gradient တွေနဲ့ ထပ်ပေါင်းသွားလိမ့်မယ်။,"以后不要忘了零梯度, 或者在下一步, 他们会被加到你计算的梯度上。"
904,"We could already write our training loop, but we will add two more things to make it as good as it can be.",ကျွန်တော်တို့ training loop ကို ရေးနိုင်နေပြီ၊ ဒါပေမယ့် ဖြစ်နိုင်သလောက် ကောင်းအောင်လုပ်ဖို့အတွက် နောက်ထပ် နှစ်ခု ထပ်ထည့်မယ်။,"我们本可以写下训练循环, 但我们还会增加两件事, 让它尽可能好。"
905,"The first one is a learning rate scheduler, to progressively decay our learning rate to zero.",ပထမတစ်ခုကတော့ learning rate ကို တဖြည်းဖြည်း သုညအထိ လျှော့ချဖို့အတွက် learning rate scheduler ဖြစ်တယ်။,"第一个是学习进度表,让我们的学习速度逐渐下降到零。"
906,The get_scheduler function from the Transformers library is just a convenience function to easily build such a scheduler.,Transformers library က get_scheduler function က ဒီလို scheduler ကို အလွယ်တကူ တည်ဆောက်နိုင်ဖို့အတွက် အဆင်ပြေတဲ့ function တစ်ခုပါ။,"变换器库的获取调度器函数只是方便功能, 便于建立这样的调度器 。"
907,You can again use any PyTorch learning rate scheduler instead.,သင်က အဲဒီအစား မည်သည့် PyTorch learning rate scheduler ကိုမဆို သုံးနိုင်တယ်။,您可以再次使用任何PyTorrch学习进度调度器。
908,"Finally, if we want our training to take a couple of minutes instead of a few hours, we will need to use a GPU.",နောက်ဆုံးအနေနဲ့ ကျွန်တော်တို့ရဲ့ training ကို နာရီအနည်းငယ်ကြာမယ့်အစား မိနစ်အနည်းငယ်ပဲ ကြာစေချင်တယ်ဆိုရင် GPU ကို သုံးဖို့ လိုလိမ့်မယ်။,"最后,如果我们想让我们的训练用几分钟而不是几个小时, 我们需要使用GPU。"
909,"The first step is to get one, for instance by using a collab notebook.",ပထမအဆင့်ကတော့ တစ်ခုရဖို့ပဲ၊ ဥပမာ- Colab notebook ကို သုံးခြင်းဖြင့်ပေါ့။,"第一步是获得一个,例如,使用合作笔记本。"
910,"Then you need to actually send your model, and training data on it by using a torch device.",ပြီးရင် torch device ကို သုံးပြီး သင့်မော်ဒယ်နဲ့ training data တွေကို သူ့ဆီ တကယ် ပို့ဖို့ လိုတယ်။,"然后,你需要实际发送你的模型, 并使用火炬装置对模型进行数据培训。"
911,Double-check the following lines print a CUDA device for you.,အောက်ပါ လိုင်းတွေက သင့်အတွက် CUDA device ကို print ထုတ်ပေးလားဆိုတာ သေချာအောင် စစ်ပါ။,双倍检查下行打印 CUDA 设备。
912,"or be prepared for your training to less, more than an hour.",မဟုတ်ရင် သင့်ရဲ့ training က တစ်နာရီထက် ပိုကြာဖို့ ပြင်ဆင်ထားပါ။,"或为训练做好准备,培训时间不超过一个小时。"
913,We can now put everything together.,အခု အရာအားလုံးကို ပေါင်းစပ်နိုင်ပါပြီ။,我们现在可以把一切都集中起来了。
914,"First, we put our model in training mode which will activate the training behavior for some layers, like Dropout.",ပထမဦးစွာ ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို training mode မှာ ထားလိုက်တယ်၊ ဒါက Dropout လိုမျိုး အချို့ layers တွေအတွက် training အမူအကျင့်ကို ဖွင့်ပေးပါလိမ့်မယ်။,"首先,我们把我们的模型放在培训模式中, 它将激活一些层次的培训行为, 比如辍学。"
915,"Then go through the number of epochs we picked, and all the data in our training dataloader.",ပြီးရင် ကျွန်တော်တို့ ရွေးချယ်ထားတဲ့ epoch အရေအတွက်နဲ့ training dataloader ထဲက data အားလုံးကို ဖြတ်သွားပါ။,然后翻遍我们所选的时代 和我们训练数据载荷中的所有数据
916,"Then we go through all the steps we have seen already; send the data to the GPU, compute the model outputs, and in particular the loss.",ပြီးရင် ကျွန်တော်တို့ မြင်ခဲ့ရတဲ့ အဆင့်တွေအားလုံးကို ဖြတ်သွားတယ်၊ data ကို GPU ဆီ ပို့၊ မော်ဒယ်အထွက်တွေ တွက်၊ အထူးသဖြင့် loss ကို တွက်။,"然后我们走过我们已经看到的所有步骤; 将数据发送到 GPU, 计算模型输出, 特别是损失。"
917,"Use the loss to compute gradients, then make a training step with the optimizer.",loss ကို သုံးပြီး gradient တွေ တွက်၊ ပြီးရင် optimizer နဲ့ training step ကို လုပ်ပါ။,"使用损失来计算梯度,然后与优化器一起进行训练。"
918,"Update the learning rate in our scheduler for the next iteration, and zero the gradients of the optimizer.",နောက်လာမယ့် iteration အတွက် scheduler ထဲမှာ learning rate ကို update လုပ်ပြီး optimizer ရဲ့ gradients တွေကို သုည ပြန်ထားလိုက်ပါ။,"为下次迭代更新我们的调度器中的学习率, 并且为优化器的梯度为零 。"
919,"Once this is finished, we can evaluate our model very easily with a metric from the Datasets library.",ဒါပြီးပြီဆိုရင် Datasets library က metric တစ်ခုနဲ့ ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို အလွယ်တကူ စွမ်းဆောင်ရည် စမ်းသပ်နိုင်ပါတယ်။,"一旦完成,我们就可以很容易地用数据资料库的量度来评估我们的模型。"
920,"First, we put our model in evaluation mode, to deactivate layers like Dropout, then go through all the data in the evaluation data loader.",ပထမဦးစွာ ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို evaluation mode မှာ ထားလိုက်တယ်၊ ဒါမှ Dropout လိုမျိုး layers တွေကို ပိတ်ဖို့၊ ပြီးရင် evaluation data loader ထဲက data အားလုံးကို ဖြတ်သွားပါ။,"首先,我们把模型放在评价模式中, 放到像辍学一样的废旧层, 然后通过评价数据载荷中的所有数据。"
921,"As we have seen in the Trainer video, the model outputs logits, and we need to apply the argmax function to convert them into predictions.",Trainer ဗီဒီယိုမှာ မြင်ခဲ့ရတဲ့အတိုင်း မော်ဒယ်က logits တွေ ထုတ်ပေးတယ်၊ ပြီးတော့ သူတို့ကို predictions တွေအဖြစ် ပြောင်းလဲဖို့ argmax function ကို အသုံးချဖို့ လိုတယ်။,"正如我们从培训者视频中看到的那样,模型输出日志,我们需要应用矩阵功能将其转换成预测。"
922,"The metric object then has an add_batch method, we can use to send it those intermediate predictions.",metric object မှာ add_batch method တစ်ခု ရှိတယ်၊ အဲဒါကို သုံးပြီး ကြားခံ predictions တွေကို ပို့နိုင်တယ်။,"测量对象然后有一个添加-批次方法, 我们可以用来发送中间预测。"
923,"Once the evaluation loop is finished, we just have to call the compute method to get our final results.",evaluation loop ပြီးသွားတာနဲ့ compute method ကို ခေါ်လိုက်ရုံနဲ့ ကျွန်တော်တို့ရဲ့ နောက်ဆုံးရလဒ်တွေကို ရနိုင်ပါတယ်။,"一旦评价循环完成, 我们只需要调用计算方法 获得我们的最终结果。"
924,"Congratulations, you have now fine-tuned a model all by yourself.",ဂုဏ်ယူပါတယ်၊ အခု သင်ကိုယ်တိုင် မော်ဒယ်တစ်ခုကို fine-tune လုပ်ပြီးပါပြီ။,"恭喜你,你现在已经 精细调整一个模型 全部由你自己。"
925,Supercharge your PyTorch training loop with Hugging Face Accelerate.,Hugging Face Accelerate နဲ့ သင့် PyTorch training loop ကို စွမ်းအားဖြည့်လိုက်ပါ။,超级充电你的皮托尔奇训练循环 与抱抱脸加速。
926,"There are multiple setups on which you can run your training: it could be on CPU, GPUs, TPUs, distributed on one machine with several devices, or even several machines, often called nodes, each with multiple devices.",သင့် training ကို လုပ်ဆောင်နိုင်တဲ့ setup တွေ အများကြီးရှိတယ်၊ CPU၊ GPU၊ TPU တွေပေါ်မှာ ဖြစ်နိုင်တယ်၊ ဒါမှမဟုတ် devices များစွာပါတဲ့ စက်တစ်ခုတည်းမှာ ဖြန့်ဝေတာ၊ ဒါမှမဟုတ် nodes လို့ ခေါ်တဲ့ devices များစွာပါတဲ့ စက်များစွာမှာတောင် လုပ်ဆောင်နိုင်တယ်။,"有多个设置可供您运行您的训练:它可以在 CPU、 GPU、 TPU 上, 分布在一台装有数个装置的机器上, 甚至是几台经常被称作节点的机器上, 每个都配有多个装置 。"
927,"On top of that, there are new tweaks to make your training faster or more efficient, like mixed precision and DeepSpeed.",ဒါ့အပြင် mixed precision နဲ့ DeepSpeed လိုမျိုး သင့် training ကို ပိုမြန်အောင် ဒါမှမဟုတ် ပိုထိရောက်အောင် လုပ်ပေးနိုင်တဲ့ နည်းလမ်းအသစ်တွေ ရှိတယ်။,"除此之外,还有新的节奏 让你的训练更快或更有效率, 比如混杂精度和深精度。"
928,Each of those setups or training tweaks requires you to change the code of your training loop in one way or another and to learn a new API.,အဲဒီ setup တွေ ဒါမှမဟုတ် training နည်းလမ်းတွေ တစ်ခုစီတိုင်းက သင့် training loop ရဲ့ code ကို တစ်နည်းမဟုတ်တစ်နည်း ပြောင်းလဲဖို့နဲ့ API အသစ်တစ်ခုကို လေ့လာဖို့ လိုတယ်။,"每一个设置或训练都要求您以某种方式改变培训循环的代码, 并学习新的 API 。"
929,"All those setups are handled by the Trainer API, and there are several third-party libraries that can help.",အဲဒီ setup တွေအားလုံးကို Trainer API က ကိုင်တွယ်ပေးပြီး ကူညီပေးနိုင်တဲ့ third-party library တွေလည်း ရှိတယ်။,"所有这些安排都由培训人员API处理,有几个第三方图书馆可以提供帮助。"
930,The problem with those is that they can feel like a black box and that it might not be easy to implement the tweak to the training loop you need.,သူတို့ရဲ့ ပြဿနာကတော့ သူတို့က black box လို ခံစားရနိုင်ပြီး သင့် training loop အတွက် လိုအပ်တဲ့ ပြောင်းလဲမှုတွေကို အကောင်အထည်ဖော်ဖို့ မလွယ်တာပဲ ဖြစ်တယ်။,"问题在于,他们可以感觉自己像黑盒一样, 实施你需要的培训圈的节奏可能并不容易。"
931,Accelerate has been designed specifically to let you retain full control over your training loop and be as non-intrusive as possible.,Accelerate ကို သင့် training loop အပေါ် အပြည့်အဝ ထိန်းချုပ်ထားနိုင်စေဖို့နဲ့ တတ်နိုင်သမျှ နှောင့်ယှက်မှု နည်းပါးအောင် အထူးဒီဇိုင်းထုတ်ထားတယ်။,加速是专门设计的 让你保持对训练循环的完全控制 并尽量保持无侵扰性
932,"With just four lines of code to add to your training loop, here shown on the example of the training loop video, Accelerate will handle all the setups and training tweaks mentioned on the first slide.",သင့် training loop ထဲကို ထည့်ဖို့ code လေးကြောင်းတည်းနဲ့ ဒီမှာ training loop ဗီဒီယိုရဲ့ ဥပမာအတိုင်း ပြထားတယ်၊ Accelerate က ပထမ slide မှာ ပြောထားတဲ့ setup တွေနဲ့ training နည်းလမ်းတွေအားလုံးကို ကိုင်တွယ်ပေးပါလိမ့်မယ်။,"只有四行代码可以添加到您的培训循环中, 这里展示在培训循环视频的例子中, 加速将处理第一张幻灯片中提到的所有设置和培训节奏。"
933,It's only one API to learn and master instead of 10 different ones.,မတူညီတဲ့ API ၁၀ ခုအစား တစ်ခုတည်းကိုပဲ လေ့လာပြီး ကျွမ်းကျင်ဖို့ လိုတယ်။,"它只是学习和掌握一个API,而不是10个不同的。"
934,"More specifically, you have to import and instantiate an accelerator object, that will handle all the necessary code for your specific setup.",ပိုပြီး အတိအကျ ပြောရရင် accelerator object ကို import လုပ်ပြီး အစပြုရမယ်၊ ဒါက သင့်ရဲ့ သီးခြား setup အတွက် လိုအပ်တဲ့ code တွေအားလုံးကို ကိုင်တွယ်ပေးလိမ့်မယ်။,"更具体地说,您必须导入并即时输入一个加速器对象,该对象将处理您具体设置所需的所有代码。"
935,"Then you have to send it the model, optimizer and dataloaders you are using in the prepare method, which is the main method to remember.",ပြီးရင် သင်အသုံးပြုနေတဲ့ မော်ဒယ်၊ optimizer နဲ့ dataloaders တွေကို prepare method ကို ပေးပို့ရမယ်၊ ဒါက မှတ်ထားရမယ့် အဓိက method ပဲ ဖြစ်တယ်။,"然后,您必须发送您在准备方法中使用的模型、优化器和数据加载器,这是记住的主要方法。"
936,"Accelerate handles device placement, so you don't need to put your batch on the specific device you are using.",Accelerate က device placement ကို ကိုင်တွယ်ပေးတယ်၊ ဒါကြောင့် သင့် batch ကို သင်သုံးနေတဲ့ သီးခြား device ပေါ် ထားဖို့ မလိုတော့ဘူး။,"加速处理设备定位, 所以你不需要把你的批量 放在你正在使用的具体设备上。"
937,"Finally, you have to replace the loss.backward line by accelerator.backwardloss, and that's all you need!",နောက်ဆုံးအနေနဲ့ loss.backward လိုင်းကို accelerator.backwardloss နဲ့ အစားထိုးရပါလိမ့်မယ်၊ ဒီလောက်ပါပဲ။,"最后,你必须用加速器 来代替损失 后退线 后退损失 这就是你需要的!"
938,Accelerate also handles distributed evaluation.,Accelerate က distributed evaluation ကိုလည်း ကိုင်တွယ်ပေးတယ်။,加快处理已分发的评价。
939,"You can still use a classic evaluation loop such as the one we saw in the training loop video, in which case all processes will perform the full evaluation.",training loop ဗီဒီယိုမှာ မြင်ခဲ့ရတဲ့အတိုင်း ပုံမှန် evaluation loop ကို ဆက်သုံးနိုင်သေးတယ်၊ ဒီလိုဆိုရင် process အားလုံးက evaluation အပြည့်အစုံကို လုပ်ဆောင်ပါလိမ့်မယ်။,"您仍然可以使用典型的评价循环,如我们在培训循环视频中看到的循环,在这种情况下,所有流程都将进行全面评价。"
940,"To use a distributed evaluation, you just have to adapt your evaluation loop like this: pass along the evaluation dataloader to the accelerator.prepare method, like for training.",distributed evaluation ကို သုံးဖို့အတွက် သင့် evaluation loop ကို ဒီလို ပြင်ဆင်ရုံပါပဲ၊ training အတွက်လိုပဲ evaluation dataloader ကို accelerator.prepare method ကို ပေးပို့ပါ။,"要使用分布式评价, 您只需要调整您的评价循环 像这样: 将评价数据加载器传送到加速器。 准备方法, 比如训练 。"
941,"Then you can dismiss the line that places the batch on the proper device, and just before passing your predictions and labels to your metric, use accelerator.gather to gather together the predictions and labels from each process.",ပြီးရင် batch ကို သင့်တော်တဲ့ device ပေါ် ထားတဲ့ လိုင်းကို ဖယ်လိုက်နိုင်တယ်၊ ပြီးတော့ သင့် predictions နဲ့ labels တွေကို metric ကို မပေးခင် accelerator.gather ကို သုံးပြီး process တစ်ခုစီက predictions နဲ့ labels တွေကို စုစည်းပါ။,"然后您可以取消将批量放入正确装置的线条, 在将预测和标签传送到公尺之前, 使用加速器. gather 来收集每个过程的预测和标签 。"
942,"A distributed training script has to be launched several times on different processes, for instance, one per GPU you are using.",distributed training script တစ်ခုကို မတူညီတဲ့ process တွေပေါ်မှာ အကြိမ်များစွာ စတင်ရမယ်၊ ဥပမာ- သင်သုံးနေတဲ့ GPU တစ်ခုစီအတွက် တစ်ခုစီပေါ့။,"必须多次在不同进程中推出分布式培训脚本,例如,每个GPU使用一个。"
943,"You can use the PyTorch tools to do that if you are familiar with them, but Accelerate also provides an easy API to configure your setup and launch your training script.",အဲဒါကို လုပ်ဖို့ PyTorch ကိရိယာတွေကို သုံးနိုင်တယ်၊ ဒါပေမယ့် Accelerate က သင့် setup ကို configure လုပ်ပြီး training script ကို စတင်ဖို့ လွယ်ကူတဲ့ API တစ်ခုကိုလည်း ပေးထားတယ်။,"如果您熟悉PyTorrch工具, 您可以使用 PyTorrch 工具做到这一点, 但加速还可以提供一个简单的 API 来配置您的设置并启动您的培训脚本 。"
944,"In a terminal, run accelerate config and answer the small questionnaire to generate a configuration file with all the relevant information.",terminal မှာ accelerate config ကို run ပြီး သက်ဆိုင်ရာ အချက်အလက်အားလုံးပါတဲ့ configuration file တစ်ခု ထုတ်လုပ်ဖို့ မေးခွန်းလေးတွေကို ဖြေပါ။,"在终端中,运行加速配置并回答小问卷,以生成包含所有相关信息的配置文件。"
945,"then you can just run accelerate launch, followed by the path to your training script.",ပြီးရင် accelerate launch ကို run ပြီး သင့် training script ရဲ့ လမ်းကြောင်းကို ထည့်ပေးလိုက်ရုံပဲ။,"然后您可以运行加速启动, 并随后运行您培训脚本的路径 。"
946,"In a notebook, you can use the notebook launcher function to launch your training.",notebook မှာတော့ notebook launcher function ကို သုံးပြီး training ကို စတင်နိုင်တယ်။,"在笔记本上,您可以使用笔记本的发射功能来启动您的训练。"
947,"In this video, we're going to go over the HuggingFace Model Hub navigation.",ဒီဗီဒီယိုမှာ Hugging Face Model Hub ကို ဘယ်လို လှည့်ပတ်သွားလာရမလဲဆိုတာ ကြည့်သွားကြမှာပါ။,"在这段视频中,我们将通过 Hugging Face 模范枢纽导航。"
948,This is the huggingface.co landing page.,ဒါကတော့ huggingface.co ရဲ့ ပင်မစာမျက်နှာပေါ့။,这是抱抱脸 co登陆页
949,"To access the model hub, click on the models tab in the upper right corner.","Model Hub ကို ဝင်ဖို့အတွက် ညာဘက်အပေါ်ထောင့်က ""Models"" ဆိုတဲ့ tab ကို နှိပ်လိုက်ပါ။","访问模型枢纽时,请点击右上角的模型标签。"
950,"You should be facing this web interface, which can be split into several parts.",ဒီလိုမျိုး ဝဘ် interface ကို တွေ့ရမှာဖြစ်ပြီး ဒါကို အပိုင်းများစွာ ခွဲခြားနိုင်တယ်။,"您应该面对这个网络界面, 它可以分为几个部分。"
951,"On the left, you'll find categories, which you can use to tailor your model search.",ဘယ်ဘက်မှာတော့ အမျိုးအစားတွေကို တွေ့ရပါလိမ့်မယ်၊ ဒါတွေကို သင့်ရဲ့ မော်ဒယ်ရှာဖွေမှုကို စိတ်ကြိုက်ပြင်ဆင်ဖို့ သုံးနိုင်ပါတယ်။,"在左侧,你会找到分类, 你可以用这些分类来调整你的模型搜索。"
952,The first category is the tasks.,ပထမဆုံး အမျိုးအစားကတော့ လုပ်ငန်းများ ဖြစ်တယ်။,第一类是任务。
953,Models on the hub may be used for a wide variety of tasks.,Hub ပေါ်က မော်ဒယ်တွေကို လုပ်ငန်းမျိုးစုံအတွက် အသုံးပြုနိုင်ပါတယ်။,中心站上的模型可用于各种各样的任务。
954,"These include natural language processing tasks, such as question answering or text classification, but it isn't only limited to NLP.",ဒါတွေထဲမှာ မေးခွန်းဖြေဆိုခြင်း သို့မဟုတ် စာသား ခွဲခြားသတ်မှတ်ခြင်း စတဲ့ သဘာဝဘာသာစကား စီမံဆောင်ရွက်ခြင်း လုပ်ငန်းတွေ ပါဝင်ပြီး NLP သက်သက်အတွက်ပဲ ကန့်သတ်ထားတာ မဟုတ်ဘူးနော်။,"这些任务包括自然语言处理任务,如问答或文本分类,但不限于非语言语言语言处理。"
955,"Other tasks from other fields are also available, such as image classification for computer vision, or automatic speech recognition for speech.",ကွန်ပျူတာ အမြင်ပိုင်းအတွက် ပုံရိပ် ခွဲခြားသတ်မှတ်ခြင်း ဒါမှမဟုတ် စကားပြောအတွက် အလိုအလျောက် စကားပြော အသိအမှတ်ပြုခြင်း စတဲ့ တခြားနယ်ပယ်တွေက လုပ်ငန်းတွေလည်း ရရှိနိုင်ပါတယ်။,"其他领域还有其他任务,如计算机视觉图像分类或语音自动语音识别。"
956,The second category is the libraries.,ဒုတိယ အမျိုးအစားကတော့ library တွေ ဖြစ်တယ်။,第二类是图书馆。
957,"Models on the hub usually share one of three backbones, PyTorch, TensorFlow, or JAX.",Hub ပေါ်က မော်ဒယ်တွေက များသောအားဖြင့် PyTorch၊ TensorFlow ဒါမှမဟုတ် JAX ဆိုတဲ့ အခြေခံ သုံးခုထဲက တစ်ခုကို မျှဝေသုံးစွဲလေ့ ရှိတယ်။,"枢纽上的模型通常在三个骨干中共用一个,即PyTorrch、Tensor Flow或JAX。"
958,"However, other backbones, such as rust or ONNX also exist.",ဒါပေမယ့် rust ဒါမှမဟုတ် ONNX လိုမျိုး တခြား backbones တွေလည်း ရှိပါသေးတယ်။,"然而,还有其他骨干,如生锈或ONNX。"
959,"Finally, this tab can also be used to specify from which high-level framework the models comes.",နောက်ဆုံးအနေနဲ့ ဒီ tab ကို မော်ဒယ်တွေ ဘယ် high-level framework ကနေ လာတယ်ဆိုတာ သတ်မှတ်ဖို့လည်း သုံးနိုင်တယ်။,"最后,本标签还可以用于具体说明模型来自哪个高级别框架。"
960,"This includes Transformers, but it isn't limited to it.",ဒါက Transformers တွေ ပါဝင်ပေမယ့် အဲဒါသက်သက်အတွက်ပဲ ကန့်သတ်ထားတာ မဟုတ်ဘူး။,"包括变形器,但不限于变形器。"
961,"The model hub is used to host a lot of different frameworks models, and we're actively looking to host other frameworks models.",Model Hub ကို framework အမျိုးမျိုးက မော်ဒယ်တွေ အများကြီး လက်ခံထားဖို့ သုံးပြီး ကျွန်တော်တို့က တခြား framework တွေက မော်ဒယ်တွေကိုလည်း လက်ခံဖို့ တက်ကြွစွာ ရှာဖွေနေပါတယ်။,"模型枢纽被用来容纳许多不同的框架模型, 我们正在积极寻找其他的框架模型。"
962,The third category is the datasets tab.,တတိယ အမျိုးအစားကတော့ datasets tab ဖြစ်တယ်။,第三类是数据集标签。
963,Selecting a dataset from this tab means filtering the models so that they were trained on that specific dataset.,ဒီ tab ကနေ dataset တစ်ခုကို ရွေးလိုက်တာက အဲဒီ မော်ဒယ်တွေကို သတ်မှတ်ထားတဲ့ dataset ပေါ်မှာ လေ့ကျင့်ထားတဲ့ မော်ဒယ်တွေကို စစ်ထုတ်လိုက်တာကို ဆိုလိုတယ်။,"从此标签中选择数据集意味着过滤模型,以便他们接受有关该具体数据集的培训。"
964,The fourth category is the languages tab.,စတုတ္ထ အမျိုးအစားကတော့ language tab ဖြစ်တယ်။,第四类是语言标签。
965,Selecting a language from this tab means filtering the models so that they handle the language selected.,ဒီ tab ကနေ ဘာသာစကားတစ်ခုကို ရွေးလိုက်တာက ရွေးချယ်ထားတဲ့ ဘာသာစကားကို ကိုင်တွယ်နိုင်တဲ့ မော်ဒယ်တွေကို စစ်ထုတ်လိုက်တာကို ဆိုလိုတယ်။,"从此标签中选择一种语言意味着过滤模型,以便处理所选语言。"
966,"Finally, the last category allows to choose the license with which the model is shared.",နောက်ဆုံး အမျိုးအစားကတော့ မော်ဒယ်ကို မျှဝေထားတဲ့ license ကို ရွေးချယ်နိုင်ဖို့ ခွင့်ပြုထားပါတယ်။,"最后,最后一类允许选择分享模型的许可证。"
967,"On the right, you'll find the models available on the model hub.",ညာဘက်မှာတော့ Model Hub မှာ ရရှိနိုင်တဲ့ မော်ဒယ်တွေကို တွေ့ရပါလိမ့်မယ်။,在右边 你会发现模型枢纽上的模型
968,The models are ordered by downloads by default.,မော်ဒယ်တွေက ပုံမှန်အားဖြင့် ဒေါင်းလုဒ်အကြိမ်ရေအလိုက် စီထားတယ်။,这些模型是默认下载后订购的。
969,"When clicking on a model, you should be facing its model card.",မော်ဒယ်တစ်ခုကို နှိပ်လိုက်တဲ့အခါ သူ့ရဲ့ model card ကို တွေ့ရပါလိမ့်မယ်။,"点击模型时,您应该面对模型卡。"
970,"The model card contains information about the model, its description, intended use, limitations and biases.",Model card မှာ မော်ဒယ်အကြောင်း၊ သူ့ရဲ့ ဖော်ပြချက်၊ ရည်ရွယ်အသုံးပြုပုံ၊ ကန့်သတ်ချက်တွေနဲ့ ဘက်လိုက်မှုတွေ ပါဝင်ပါတယ်။,该示范卡载有关于模型、其描述、预期用途、限制和偏见的信息。
971,"It can also show code snippets on how to use the model, as well as any relevant information; training procedure, data processing, evaluation results or copyrights.",ဒါ့အပြင် မော်ဒယ်ကို ဘယ်လိုသုံးရမလဲဆိုတဲ့ code နမူနာလေးတွေအပြင်၊ လေ့ကျင့်မှု လုပ်ငန်းစဉ်၊ ဒေတာ စီမံဆောင်ရွက်မှု၊ အကဲဖြတ် ရလဒ်တွေ ဒါမှမဟုတ် မူပိုင်ခွင့်တွေ စတဲ့ သက်ဆိုင်ရာ အချက်အလက်မှန်သမျှကို ပြသနိုင်တယ်။,"它还可以显示如何使用模型的代码片段,以及任何相关信息;培训程序、数据处理、评价结果或版权。"
972,This information is crucial for the model to be used.,ဒီအချက်အလက်တွေက မော်ဒယ်ကို အသုံးပြုဖို့အတွက် အရေးကြီးပါတယ်။,这一信息对于使用模型至关重要。
973,"The better crafted a model card is, the easier it will be for other users to leverage your model in their applications.",Model card ကောင်းကောင်း ရေးဆွဲထားလေ၊ တခြား အသုံးပြုသူတွေအတွက် သင့်မော်ဒယ်ကို သူတို့ရဲ့ application တွေမှာ အသုံးပြုဖို့ ပိုလွယ်ကူလေ ဖြစ်မှာပါ။,"模型卡设计得越好,其他用户就越容易在应用中利用模型。"
974,On the right of the model card is the inference API.,Model card ရဲ့ ညာဘက်မှာတော့ inference API ရှိပါတယ်။,模型卡右侧是推定API。
975,This inference API can be used to play with the model directly.,ဒီ inference API ကို မော်ဒယ်နဲ့ တိုက်ရိုက် စမ်းသပ်ကြည့်ဖို့ သုံးနိုင်တယ်။,这种推断值API可用来直接与模型一起使用。
976,Feel free to modify the text and click on compute to see how would the model behave to your inputs.,"စာသားကို လွတ်လွတ်လပ်လပ် ပြင်ဆင်ပြီး ""compute"" ကို နှိပ်ကြည့်ပါ၊ ဒါဆိုရင် သင့်ရဲ့ ထည့်သွင်းချက်တွေအပေါ် မော်ဒယ်က ဘယ်လိုတုံ့ပြန်မလဲဆိုတာ မြင်ရပါလိမ့်မယ်။","您可以随意修改文本, 并点击计算来查看模型对输入的处理方式 。"
977,At the top of your screen lies the model tags.,သင့်မျက်နှာပြင်ရဲ့ အပေါ်ဆုံးမှာ model tag တွေ ရှိပါတယ်။,在屏幕的顶部是模型标签
978,"These include the model task, as well as any other tag that is relevant to the categories we have just seen.",ဒါတွေထဲမှာ မော်ဒယ်ရဲ့ လုပ်ငန်းတွေအပြင် ကျွန်တော်တို့ ခုလေးတင် မြင်ခဲ့ရတဲ့ အမျိုးအစားတွေနဲ့ သက်ဆိုင်တဲ့ တခြား tag တွေလည်း ပါဝင်ပါတယ်။,"其中包括示范任务,以及与我们刚刚看到的类别相关的任何其他标记。"
979,The files & versions tab displays the architecture of the repository of that model.,files & versions tab မှာ အဲဒီမော်ဒယ်ရဲ့ repository ပုံစံကို ပြသထားတယ်။,文件及版本标签显示该模型存储库的架构 。
980,"Here, we can see all the files that define this model.",ဒီမှာ ဒီမော်ဒယ်ကို သတ်မှတ်ထားတဲ့ ဖိုင်အားလုံးကို မြင်နိုင်တယ်။,"在这里,我们可以看到所有定义此模型的文件 。"
981,"You'll see all usual features of a Git repository: the branches available, the commit history as well as the commit diff.",Git repository တစ်ခုရဲ့ ပုံမှန်အင်္ဂါရပ်တွေ အားလုံးကို တွေ့ရမှာပါ၊ ဥပမာ- ရရှိနိုင်တဲ့ branch တွေ၊ commit history နဲ့ commit diff တွေပေါ့။,您将会看到 Git 库的所有通常特性: 可用分支、 承诺历史以及承诺 diff 。
982,Three different buttons are available at the top of the model card.,Model card ရဲ့ ထိပ်မှာ ခလုတ်သုံးခု ရရှိနိုင်ပါတယ်။,模型卡片顶部有三个不同的按钮。
983,The first one shows how to use the inference API programmatically.,ပထမတစ်ခုက inference API ကို ပရိုဂရမ်နဲ့ ဘယ်လိုသုံးရမလဲဆိုတာ ပြသထားတယ်။,第一种是说明如何以方案方式使用推定的API。
984,The second one shows how to train this model in SageMaker.,ဒုတိယတစ်ခုကတော့ ဒီမော်ဒယ်ကို SageMaker မှာ ဘယ်လို လေ့ကျင့်ရမလဲဆိုတာ ပြသထားတယ်။,第二套展示了如何在SageMaker培训这一模式。
985,And the last one shows how to load that model within the appropriate library.,နောက်ဆုံးတစ်ခုကတော့ အဲဒီမော်ဒယ်ကို သက်ဆိုင်ရာ library ထဲမှာ ဘယ်လို တင်ရမလဲဆိုတာ ပြသထားတယ်။,最后一个展示了如何在合适的图书馆里 装入模型。
986,"For BERT, this is transformers.",BERT အတွက်ဆိုရင် ဒါက Transformers ဖြစ်ပါတယ်။,"对于BERT,这是变压器。"
987,"In this video, we're going to understand how to manage a model repository on the Hugging Face Hub Model Hub.",ဒီဗီဒီယိုမှာ Hugging Face Hub Model Hub ပေါ်က မော်ဒယ် repository တစ်ခုကို ဘယ်လို စီမံခန့်ခွဲရမလဲဆိုတာ နားလည်အောင် လုပ်သွားမယ်။,"在这个视频中,我们将了解 如何管理一个模范存储库 在抱抱脸中心模范枢纽上。"
988,In order to handle a repository you should first have a Hugging Face account.,Repository တစ်ခုကို ကိုင်တွယ်ဖို့အတွက် Hugging Face အကောင့်တစ်ခု အရင်ရှိထားဖို့ လိုတယ်။,"要处理存储处, 您首先应该有一个 Hugging Face 账户 。"
989,A link to create a new account is available in the description.,အကောင့်အသစ် ဖန်တီးဖို့ လင့်ခ်ကို ဖော်ပြချက်မှာ တွေ့နိုင်ပါတယ်။,描述中可找到用于创建新账户的链接 。
990,"Once you are logged in, you can create a new repository by clicking on the new model option.","ဝင်ရောက်ပြီးတာနဲ့ ""New model"" ဆိုတဲ့ ရွေးချယ်စရာကို နှိပ်ပြီး repository အသစ်တစ်ခု ဖန်တီးနိုင်တယ်။","登录后,您可以通过点击新模式选项创建新仓库。"
991,You should be facing a similar modal to the following.,အောက်ပါအတိုင်း modal နဲ့ ဆင်တူတာမျိုးကို တွေ့ရပါလိမ့်မယ်။,你应该面对一个类似的模式 与以下。
992,"In the owner input, you can put either your own namespace or any of your organization's namespaces.",Owner ထည့်သွင်းတဲ့ နေရာမှာ သင့်ကိုယ်ပိုင် namespace ဒါမှမဟုတ် သင့်အဖွဲ့အစည်းရဲ့ namespace တစ်ခုခုကို ထည့်နိုင်တယ်။,"在所有者输入中,您可以输入您自己的命名空间或您组织的命名空间。"
993,The model name is the model identifier that will then be used to identify your model on the chosen namespace.,Model name ကတော့ သင်ရွေးချယ်ထားတဲ့ namespace မှာ သင့်မော်ဒယ်ကို ခွဲခြားသတ်မှတ်ဖို့ အသုံးပြုမယ့် မော်ဒယ်ရဲ့ သတ်မှတ်ကိရိယာ ဖြစ်ပါတယ်။,"模型名称是模型标识符,然后用来识别选定命名空间上的模型。"
994,The final choice is between public and private.,နောက်ဆုံးရွေးချယ်မှုက public နဲ့ private ကြားမှာ ဖြစ်တယ်။,最后的选择是公共与私人之间的选择。
995,Public models are accessible by anyone.,Public မော်ဒယ်တွေကို ဘယ်သူမဆို ဝင်ရောက်ကြည့်ရှုနိုင်တယ်။,任何人都可以使用公共模式。
996,"This is the recommended free option, as this makes your model easily accessible and shareable.",ဒီရွေးချယ်မှုက သင့်မော်ဒယ်ကို အလွယ်တကူ ဝင်ရောက်နိုင်ပြီး မျှဝေနိုင်တဲ့အတွက် အကြံပြုထားတဲ့ အခမဲ့ ရွေးချယ်မှု ဖြစ်တယ်။,"这是推荐的免费选择,因为这样可以方便地获取和共享您的模型。"
997,The owners of your namespace are the only ones who can update and change your model.,သင့် namespace ရဲ့ ပိုင်ရှင်တွေသာ သင့်မော်ဒယ်ကို အပ်ဒိတ်လုပ်ပြီး ပြောင်းလဲနိုင်တယ်။,您的命名空间的拥有者是唯一能够更新和更改您的模型的人。
998,A more advanced option is the private option.,ပိုမိုအဆင့်မြင့်တဲ့ ရွေးချယ်မှုကတော့ private ရွေးချယ်မှု ဖြစ်တယ်။,较先进的选择是私人选择。
999,"In this case, only the owners of your namespace will have visibility over your model.",ဒီလိုဆိုရင် သင့် namespace ရဲ့ ပိုင်ရှင်တွေသာ သင့်မော်ဒယ်ကို မြင်နိုင်မယ်။,"在此情况下, 只有您的命名空间的拥有者 才能在您的模型上可见。"
1000,Other users won't know it exists and will not be able to use it.,တခြားအသုံးပြုသူတွေက ဒါရှိမှန်းတောင် သိမှာမဟုတ်ဘူး၊ သုံးလည်း သုံးနိုင်မှာ မဟုတ်ဘူး။,"其他用户不会知道它的存在, 也不会使用它。"
1001,Let's create a dummy model to play with.,စမ်းသပ်ကြည့်ဖို့ dummy မော်ဒယ်တစ်ခု ဖန်တီးလိုက်ရအောင်။,让我们创造一个假模型 来玩耍。
1002,"Once your model is created, comes the management of that model.",မော်ဒယ် ဖန်တီးပြီးတာနဲ့ အဲဒီမော်ဒယ်ကို စီမံခန့်ခွဲရမယ့် အပိုင်း ရောက်လာပြီ။,"一旦你的模型建立起来, 就会成为该模型的管理者。"
1003,Three tabs are available to you.,သင့်အတွက် tab သုံးခု ရရှိနိုင်တယ်။,有三个选项卡可供您使用 。
1004,"You're facing the first one, which is the model card page.",သင်မြင်နေရတာက ပထမဆုံး tab ဖြစ်တဲ့ model card စာမျက်နှာ ဖြစ်တယ်။,你正面对着第一个 也就是模范卡页
1005,This is the page you use to showcase your model to the world.,ဒါက သင့်မော်ဒယ်ကို ကမ္ဘာကို ပြသဖို့ အသုံးပြုတဲ့ စာမျက်နှာ ဖြစ်တယ်။,这是您用来向世界展示模型的页面 。
1006,We'll see how it can be completed in a bit.,ဒါကို ဘယ်လိုဖြည့်ရမလဲဆိုတာ ခဏနေ ကြည့်သွားပါမယ်။,我们看看如何在一小会儿完成它
1007,The second one is the files and versions tab.,ဒုတိယတစ်ခုက files and versions tab ဖြစ်တယ်။,第二个是文件和版本标签。
1008,Your model itself is a Git repository.,သင့်မော်ဒယ်ကိုယ်တိုင်က Git repository တစ်ခု ဖြစ်တယ်။,您的模型本身是一个 Git 仓库 。
1009,"If you're unaware of what is a Git repository, you can think of it as a folder containing files.",Git repository ဆိုတာ ဘာလဲ မသိဘူးဆိုရင် ဖိုင်တွေပါဝင်တဲ့ folder တစ်ခုလို့ မှတ်ယူနိုင်ပါတယ်။,"如果您不知道什么是 Git 仓库, 您可以把它视为包含文件的文件夹 。"
1010,"If you have never used Git before, we recommend looking at an introduction like the one provided in this video's description.",Git ကို တစ်ခါမှ မသုံးဖူးဘူးဆိုရင် ဒီဗီဒီယိုရဲ့ ဖော်ပြချက်မှာ ပေးထားတဲ့ နိဒါန်းလိုမျိုးတစ်ခုကို ကြည့်ဖို့ အကြံပြုပါတယ်။,"如果你以前从未使用过Git, 我们建议使用像这段影片描述中的介绍一样的介绍。"
1011,"The Git repository allows you to see the changes happening over time in this folder, hence the term versions.",Git repository က ဒီ folder ထဲမှာ အချိန်ကြာလာတာနဲ့အမျှ ဖြစ်ပေါ်လာတဲ့ ပြောင်းလဲမှုတွေကို မြင်နိုင်စေတယ်၊ ဒါကြောင့် versions ဆိုတဲ့ အသုံးအနှုန်း ပေါ်လာတာပေါ့။,"Git 仓库允许您在此文件夹中看到随时间而发生的更改, 也就是术语版本 。"
1012,We'll see how to add files and versions in a bit.,ဖိုင်တွေနဲ့ ဗားရှင်းတွေကို ဘယ်လို ထည့်ရမလဲဆိုတာ ခဏနေ ကြည့်သွားမယ်။,我们看看如何在一小段时间里 添加文件和版本
1013,"The final tab is the settings tab, which allows you to manage your model's visibility and availability.",နောက်ဆုံး tab ကတော့ settings tab ဖြစ်ပြီး သင့်မော်ဒယ်ရဲ့ မြင်နိုင်စွမ်းနဲ့ ရရှိနိုင်မှုကို စီမံခန့်ခွဲဖို့ ခွင့်ပြုထားပါတယ်။,"最后的标签是设置标签, 它允许您管理模型的可见度和可用性 。"
1014,Let's first start by adding files to the repository.,ပထမဆုံး repository ထဲကို ဖိုင်တွေ ထည့်တာကနေ စကြည့်ရအောင်။,让我们首先开始在仓库中添加文件 。
1015,Files can be added through the web interface thanks to the add file button.,"ဝဘ် interface ကနေ ""add file"" ခလုတ်ကို သုံးပြီး ဖိုင်တွေ ထည့်နိုင်တယ်။","由于添加文件按钮, 文件可以通过 Web 界面添加 。"
1016,"The added files can be of any type, python, JSON, text, you name it.",ထည့်သွင်းထားတဲ့ ဖိုင်တွေက ဘယ်အမျိုးအစားမဆို ဖြစ်နိုင်တယ်၊ Python၊ JSON၊ text စသဖြင့်ပေါ့။,"添加的文件可以是任何类型的文件, Python, JSON, 文本, 由您命名 。"
1017,"Alongside your added file and its content, you should name your change or commit.",သင်ထည့်သွင်းထားတဲ့ ဖိုင်နဲ့ သူ့ရဲ့ အကြောင်းအရာအပြင် သင့်ရဲ့ ပြောင်းလဲမှု ဒါမှမဟုတ် commit ကို နာမည်ပေးသင့်တယ်။,"在您添加的文件及其内容的同时, 您应该点名更改或承诺 。"
1018,"Generally, adding files is simpler by using the Hugging Face Hub Python library or by using the command-line.",ယေဘုယျအားဖြင့် Hugging Face Hub Python library ကို သုံးတာ ဒါမှမဟုတ် command-line ကို သုံးတာက ဖိုင်တွေထည့်ဖို့ ပိုလွယ်တယ်။,"一般而言,通过使用 Hugging Face Hub Python 库或使用命令行,添加文件比较简单。"
1019,"We'll showcase how to do this using the Hugging Face Hub Python library, and there is a link in the description to the previous version of this video, showcasing how to do this using Git and the command-line.",Hugging Face Hub Python library ကို သုံးပြီး ဒါကို ဘယ်လိုလုပ်ရမလဲဆိုတာ ပြသသွားမယ်၊ ပြီးတော့ Git နဲ့ command-line ကို သုံးပြီး ဘယ်လိုလုပ်ရမလဲ ပြသထားတဲ့ ဒီဗီဒီယိုရဲ့ ယခင်ဗားရှင်းကို လင့်ခ်က ဖော်ပြချက်မှာ ရှိပါတယ်။,"我们将使用 Hugging Face Hub Python 库展示如何做到这一点, 描述中有一个链接 与这段视频的上一个版本, 展示如何使用 Git 和命令行来做到这一点 。"
1020,"First, make sure you're logged into your Hugging Face account, either through the command-line or in a Python runtime.",ပထမဆုံး command-line ကနေဖြစ်စေ ဒါမှမဟုတ် Python runtime မှာဖြစ်စေ သင့် Hugging Face အကောင့်ထဲ ဝင်ထားဖို့ သေချာပါစေ။,"首先,确保您通过命令线或 Python 运行时间登录在您的 Hugging Face 账户中。"
1021,The first approach we'll take a look at is using the upload file method.,ပထမဆုံး ချဉ်းကပ်မှုက upload_file နည်းလမ်းကို သုံးတာပဲ ဖြစ်ပါတယ်။,我们首先研究的是使用上传文件的方法。
1022,This offers an extremely simple API to upload files through the hub.,ဒါက Hub မှတစ်ဆင့် ဖိုင်တွေ upload လုပ်ဖို့ အလွန်ရိုးရှင်းတဲ့ API ကို ပေးထားတယ်။,"这将提供一个极其简单的 API , 可以通过中枢上传文件 。"
1023,"The three required parameters are the current location of the file, the path of that file in the repository, and the idea of the repository to which you're pushing.",လိုအပ်တဲ့ parameters သုံးခုကတော့ ဖိုင်ရဲ့ လက်ရှိတည်နေရာ၊ repository ထဲက အဲဒီဖိုင်ရဲ့ လမ်းကြောင်းနဲ့ သင်တွန်းပို့မယ့် repository ရဲ့ ID ဖြစ်တယ်။,"三个需要的参数是文件的当前位置、文件在存储库中的路径, 以及您正在推进的存储库的想法 。"
1024,There are a few additional parameters.,အပို parameters အချို့ ရှိပါသေးတယ်။,还有一些额外的参数。
1025,"The token parameter, if you would like to specify a different token than the one saved in your cache with your login, the repo type parameter, if you would like to push to a data set or a space.",token parameter က သင့်ရဲ့ ဝင်ရောက်မှုနဲ့ cache ထဲမှာ သိမ်းထားတဲ့ token ထက် ကွဲပြားတဲ့ token တစ်ခုကို သတ်မှတ်ချင်တယ်ဆိုရင်၊ repo type parameter က dataset ဒါမှမဟုတ် space တစ်ခုဆီကို တွန်းပို့ချင်တယ်ဆိုရင် သုံးနိုင်တယ်။,"代号参数, 如果您想要指定一个与您登录的缓存中保存的代号不同, 如果您想要按到数据集或空格, 则要指定一个不同的代号, 即 Repo 类型参数 。"
1026,We'll upload a file called readme.md to the repository using this method.,ဒီနည်းလမ်းကို သုံးပြီး readme.md လို့ခေါ်တဲ့ ဖိုင်တစ်ခုကို repository ကို တင်သွားမယ်။,我们将使用这种方法上传一个名为 readme. md 的文件到仓库。
1027,"We first start by saving a file with that name, which contains some information about the repository itself.",ပထမဆုံးအနေနဲ့ repository အကြောင်း အချက်အလက်အချို့ပါဝင်တဲ့ အဲဒီနာမည်နဲ့ ဖိုင်တစ်ခုကို သိမ်းဆည်းခြင်းဖြင့် စတင်တယ်။,"首先我们先用这个名字保存一个文件, 它包含一些关于存储库本身的信息。"
1028,"Here, a title.",ဒီမှာ ခေါင်းစဉ်တစ်ခုပေါ့။,"在这里,一个标题。"
1029,"Now that the file is saved, let's use the upload file method to upload it to the hub.",ဖိုင်ကို သိမ်းဆည်းပြီးပြီဆိုတော့ upload_file နည်းလမ်းကို သုံးပြီး Hub ဆီ upload လုပ်ရအောင်။,"现在文件已保存, 让我们使用上传文件方法上传到中枢 。"
1030,"If we switch to the web interface for a second and refresh the page, we'll see that the README is shown.",ဝဘ် interface ကို ခဏပြောင်းပြီး စာမျက်နှာကို refresh လုပ်လိုက်ရင် README ကို မြင်ရပါလိမ့်မယ်။,"如果我们切换到网络界面 第二次,并刷新页面, 我们会看到显示README。"
1031,The file upload was a success.,ဖိုင် upload လုပ်တာ အောင်မြင်သွားပြီ။,文件上传成功 。
1032,Alongside this method exists a delete file method so that you may manage your repository fully.,ဒီနည်းလမ်းအပြင် သင့် repository ကို အပြည့်အဝ စီမံခန့်ခွဲနိုင်ဖို့ delete_file နည်းလမ်းတစ်ခုလည်း ရှိတယ်။,"此方法同时存在删除文件的方法, 这样您就可以完全管理您的仓库 。"
1033,We'll use it to delete the file we have just created.,ခုနက ဖန်တီးခဲ့တဲ့ ဖိုင်ကို ဖျက်ဖို့အတွက် ဒါကို သုံးသွားမယ်။,我们会用它来删除我们刚创建的文件
1034,"If we refresh the page once again, good, the file was indeed deleted.",စာမျက်နှာကို တစ်ခါ ထပ် refresh လုပ်ကြည့်ရင် ကောင်းပြီ၊ ဖိုင်ကို တကယ်ပဲ ဖျက်လိုက်ပြီ။,"如果我们再次刷新页面,很好,文件确实被删除了。"
1035,This approach using only these two methods is super simple.,ဒီနည်းလမ်းနှစ်ခုတည်းကို သုံးတဲ့ ဒီချဉ်းကပ်မှုက အရမ်းရိုးရှင်းတယ်။,"这种方法仅使用这两种方法,非常简单。"
1036,"It doesn't need Git or Git LFS installed, but it does come with a limitation.",Git ဒါမှမဟုတ် Git LFS ကို install လုပ်ဖို့ မလိုဘူး၊ ဒါပေမယ့် ကန့်သတ်ချက်တစ်ခုတော့ ရှိတယ်။,"它不需要 Git 或 Git 安装 LFS , 但有一定的限制。"
1037,The maximum file size one can upload is limited to five gigabytes.,Upload လုပ်နိုင်တဲ့ အများဆုံး ဖိုင်အရွယ်အစားက ၅ ဂစ်ဂါဘိုက်ပဲ ဖြစ်တယ်။,"最大文件大小一号可以上传, 限为 5 千兆字节 。"
1038,"To overcome this limit, let's take a look at the second method which is the repository utility.",ဒီကန့်သတ်ချက်ကို ကျော်လွှားဖို့အတွက် ဒုတိယနည်းလမ်းဖြစ်တဲ့ repository utility ကို ကြည့်ရအောင်။,"为了克服这一限制,让我们来看看第二种方法,即存储器工具。"
1039,"This class is a wrapper over Git and Git LFS methods, which abstracts most of the complexity and offers a flexible API to manage your online repositories.",ဒီ class က Git နဲ့ Git LFS နည်းလမ်းတွေရဲ့ အပေါ်က wrapper တစ်ခုဖြစ်ပြီး ရှုပ်ထွေးမှု အများစုကို ဖယ်ရှားပေးကာ သင့်ရဲ့ online repository တွေကို စီမံခန့်ခွဲဖို့အတွက် လိုက်လျောညီထွေရှိတဲ့ API တစ်ခုကို ပေးတယ်။,"本类是 Git 和 Git LFS 方法的折叠纸, 这些方法摘要了大部分的复杂性, 提供了一个灵活的 API 来管理您的在线仓库 。"
1040,Let's take a look at how it works.,သူ ဘယ်လိုအလုပ်လုပ်လဲ ကြည့်ရအောင်။,让我们看看它是如何运作的。
1041,We first start by instantiating the repository utility.,ပထမဆုံး repository utility ကို အစပြုခြင်းဖြင့် စတင်တယ်။,我们首先从即时激活存储器工具开始。
1042,"We provide the clone from parameter, in order to clone the repository we just created.",ကျွန်တော်တို့ ခုလေးတင် ဖန်တီးခဲ့တဲ့ repository ကို clone လုပ်ဖို့အတွက် clone_from parameter ကို ထည့်ပေးလိုက်တယ်။,"我们从参数中提供克隆, 以便克隆我们刚刚创建的存储库。"
1043,The repository is now cloned in the local folder.,Repository ကို local folder ထဲမှာ clone လုပ်ပြီးပြီ။,仓库现已在本地文件夹中克隆 。
1044,The repo object that we have just initialized offers quite a few methods which are useful for us.,ကျွန်တော်တို့ ခုလေးတင် အစပြုခဲ့တဲ့ repo object က ကျွန်တော်တို့အတွက် အသုံးဝင်တဲ့ နည်းလမ်းများစွာကို ပေးတယ်။,我们刚刚初始化的回购对象为我们提供了一些对我们有用的方法。
1045,We're interested in pushing a model to the hub.,ကျွန်တော်တို့က hub ဆီကို မော်ဒယ်တစ်ခု တွန်းပို့ဖို့ စိတ်ဝင်စားတယ်။,我们有兴趣把模型推到中心
1046,I'll start by loading a model and tokenizer I trained a few hours ago.,နာရီအနည်းငယ်က လေ့ကျင့်ထားတဲ့ မော်ဒယ်တစ်ခုနဲ့ tokenizer တစ်ခုကို တင်ပြီး စလိုက်ပါမယ်။,我从装一个模型和代用品开始 几个小时前我训练过的
1047,We'll now follow the traditional Git approach by first pulling latest changes using the Git pull method.,အခု Git pull နည်းလမ်းကို သုံးပြီး နောက်ဆုံး ပြောင်းလဲမှုတွေကို အရင် ဆွဲယူခြင်းဖြင့် ရိုးရာ Git ချဉ်းကပ်မှုကို လိုက်နာပါမယ်။,"我们现在将遵循传统的Git方法,首先使用Git拉力法拉动最新变化。"
1048,"We just cloned the repository, so unless this is a super active repository, it's unlikely that new changes are available.",ကျွန်တော်တို့ ခုလေးတင်မှ repository ကို clone လုပ်ထားတာဆိုတော့ ဒါက အလွန်တက်ကြွတဲ့ repository မဟုတ်ရင် ပြောင်းလဲမှုအသစ်တွေ ရနိုင်ခြေ မရှိပါဘူး။,"我们刚刚克隆了存储库, 所以除非这是一个超级活跃的存储库, 否则不可能有新的更改 。"
1049,But it's always a good idea to pull the latest changes before doing anything new.,ဒါပေမယ့် အသစ်တစ်ခုခု မလုပ်ခင် နောက်ဆုံး ပြောင်းလဲမှုတွေကို ဆွဲယူတာက အမြဲတမ်း ကောင်းပါတယ်။,但是在做任何新的事情之前 最好先做最新的改变
1050,"Now that we have pulled the repository, I'll save the model and tokenizer inside that folder.",အခု repository ကို ဆွဲယူပြီးပြီဆိုတော့ အဲဒီ folder ထဲမှာ မော်ဒယ်နဲ့ tokenizer ကို သိမ်းထားမယ်။,"既然我们把存储库拉了下来, 我会把模型和代谢器保存在文件夹里。"
1051,"This includes the model weights, configuration file, and tokenizer files.",ဒါတွေထဲမှာ မော်ဒယ် အလေးချိန်များ၊ configuration file နဲ့ tokenizer ဖိုင်များ ပါဝင်ပါတယ်။,这包括模型权重、配置文件、象征性文件。
1052,"Now that the model is saved, we'll continue with the traditional Git approach and push it to the remote repository.",မော်ဒယ်ကို သိမ်းဆည်းပြီးပြီဆိုတော့ ရိုးရာ Git ချဉ်းကပ်မှုနဲ့ ဆက်သွားပြီး remote repository ဆီကို တွန်းပို့မယ်။,"现在模型被保存了, 我们将继续使用传统的 Git 方法, 并把它推到远程仓库。"
1053,"If we were using the command-line, there are a few Git LFS specific commands we would have to invoke.",command-line ကို သုံးမယ်ဆိုရင် ကျွန်တော်တို့ ခေါ်ဆိုရမယ့် Git LFS သီးခြား commands အချို့ ရှိတယ်။,"如果我们使用命令线, 有一些Git LFS的具体命令, 我们不得不援引。"
1054,"But here, the Hugging Face hub package takes care of all of that.",ဒါပေမယ့် ဒီမှာတော့ Hugging Face hub package က ဒါတွေအားလုံးကို စီမံပေးတယ်။,"但在这里, 抱抱脸中心包 照顾所有这一切。"
1055,We'll start by staging the files using the Git add method.,ပထမဆုံး Git add နည်းလမ်းကို သုံးပြီး ဖိုင်တွေကို စတင် သတ်မှတ်မယ်။,我们先用Git添加法 来制作文件
1056,"We'll then commit these changes using Git commit method, and providing a helpful commit message.",ပြီးရင် Git commit နည်းလမ်းကို သုံးပြီး အထောက်အကူဖြစ်စေမယ့် commit message တစ်ခု ပေးကာ ဒီပြောင်းလဲမှုတွေကို commit လုပ်မယ်။,"然后使用 Git 承诺方法进行这些修改, 并提供一个有用的承诺信息 。"
1057,"Finally, we'll push the changes to the remote, using the Git push method.",နောက်ဆုံးအနေနဲ့ Git push နည်းလမ်းကို သုံးပြီး ပြောင်းလဲမှုတွေကို remote ဆီကို တွန်းပို့မယ်။,"最后,我们用Git推法 将更改推到遥控器"
1058,"If we go back to the files and versions tab, we can now see the newly committed files.",files and versions tab ကို ပြန်သွားရင် ခုလေးတင် commit လုပ်ထားတဲ့ ဖိုင်တွေကို မြင်ရပါပြီ။,"如果我们回到文件和版本标签,我们现在可以看到新承诺的文件。"
1059,We can even play with the model in the inference API.,Inference API ထဲမှာ မော်ဒယ်နဲ့တောင် စမ်းသပ်ကြည့်နိုင်သေးတယ်။,我们甚至可以使用假设性API的模型。
1060,"Unfortunately, the front page of our model is still very empty.",ကံမကောင်းစွာနဲ့ပဲ ကျွန်တော်တို့ မော်ဒယ်ရဲ့ ရှေ့မျက်နှာစာ စာမျက်နှာက လုံးဝ ဗလာဖြစ်နေတုန်းပဲ။,"不幸的是,我们的模型的首页仍然空空如也。"
1061,Let's add a README markdown file to complete it a little bit.,အဲဒါကို နည်းနည်းလေး ဖြည့်ဖို့အတွက် README markdown ဖိုင်တစ်ခု ထည့်လိုက်ရအောင်။,让我们添加一个 README 标记文件来完成它一点点 。
1062,This README is known as the model card and it's arguably as important as the model and tokenizer files in the model repository.,ဒီ README ကို model card လို့ သိကြပြီး ဒါက မော်ဒယ် repository ထဲက မော်ဒယ်နဲ့ tokenizer ဖိုင်တွေလိုပဲ အရေးကြီးတယ်လို့ ဆိုနိုင်တယ်။,"这个README被称为模型卡, 可以说它和模型存储库中的模型和象征性文件一样重要。"
1063,"It is the central definition and documentation of your model, ensuring reusability by fellow community members and reproducibility of results.",ဒါက သင့်မော်ဒယ်ရဲ့ အဓိက သတ်မှတ်ချက်နဲ့ စာရွက်စာတမ်းဖြစ်ပြီး အသိုင်းအဝိုင်းဝင်တွေက ပြန်လည်အသုံးပြုနိုင်ဖို့နဲ့ ရလဒ်တွေ ပြန်လည်ထုတ်လုပ်နိုင်ဖို့ သေချာစေတယ်။,"这是你们模式的中心定义和文件,确保社区其他成员可以重新使用,成果可以复制。"
1064,Providing a platform on which other members may build their artifacts.,တခြားအဖွဲ့ဝင်တွေ သူတို့ရဲ့ လက်ရာတွေကို တည်ဆောက်နိုင်မယ့် platform တစ်ခုကို ပေးတယ်။,"提供一个平台,供其他成员建造自己的文物。"
1065,"We'll only add a title and a small description here for simplicity's sake, but we encourage you to add information relevant to how was the model trained, it's intended use and limitations, as well as it's identified potential biases, evaluation results, and code samples on how to use your model.",ရိုးရှင်းအောင် ဒီမှာ ခေါင်းစဉ်နဲ့ ဖော်ပြချက် အတိုလေးပဲ ထည့်လိုက်ပါမယ်၊ ဒါပေမယ့် မော်ဒယ်ကို ဘယ်လို လေ့ကျင့်ခဲ့လဲ၊ ရည်ရွယ်အသုံးပြုပုံနဲ့ ကန့်သတ်ချက်တွေ၊ ဖော်ထုတ်ထားတဲ့ ဖြစ်နိုင်ခြေ ဘက်လိုက်မှုတွေ၊ အကဲဖြတ် ရလဒ်တွေနဲ့ သင့်မော်ဒယ်ကို ဘယ်လိုသုံးရမလဲဆိုတဲ့ code နမူနာတွေ စတဲ့ သက်ဆိုင်ရာ အချက်အလက်တွေကို ထည့်ဖို့ သင့်ကို အားပေးပါတယ်။,"我们在这里只添加一个标题和一个小的描述, 只是为了简单起见, 但我们鼓励你添加相关信息, 说明模型是如何训练的, 它的预期用途和限制, 以及它被确认的潜在偏差, 评估结果, 以及关于如何使用模型的代码样本。"
1066,Great work contributing a model to the Model Hub.,Model Hub ကို မော်ဒယ်တစ်ခု ပံ့ပိုးပေးလိုက်တာ အရမ်းကောင်းပါတယ်။,为模型枢纽提供模型的伟大工作。
1067,This model can now be used in downstream libraries simply by specifying your model identifier.,ဒီမော်ဒယ်ကို သင့်ရဲ့ မော်ဒယ် သတ်မှတ်ကိရိယာကို ရိုးရှင်းစွာ သတ်မှတ်ပေးခြင်းဖြင့် downstream library တွေမှာ သုံးနိုင်ပါပြီ။,"下游图书馆现在可以使用这一模式,只需指定您的模式标识符即可。"
1068,So push to hub API.,Push to Hub API အကြောင်းပေါ့။,"因此,推动中心API。"
1069,Let's have a look at the push to hub API.,Push to Hub API ကို ကြည့်ရအောင်။,让我们看看向中心API的推力
1070,"You will need to be logged in with your Hugging Face account which you can do by executing this first cell, or by typing huggingface-cli login in a terminal.",သင့် Hugging Face အကောင့်နဲ့ ဝင်ထားဖို့ လိုပါတယ်၊ ဒီပထမ cell ကို execute လုပ်ခြင်းအားဖြင့် ဒါမှမဟုတ် terminal မှာ huggingface-cli login လို့ ရိုက်ခြင်းအားဖြင့် လုပ်နိုင်တယ်။,"您需要用您的 Hugging Face 账户登录, 您可以执行第一个单元格, 或者在终端键入 huggingface- cli 登录 。"
1071,"Just enter you username and password, then click login, this will store a authentication token in the cache of the machine you're using.",သင့်ရဲ့ username နဲ့ password ကို ထည့်ပါ၊ ပြီးရင် login ကို နှိပ်ပါ၊ ဒါက သင်အသုံးပြုနေတဲ့ machine ရဲ့ cache ထဲမှာ authentication token တစ်ခုကို သိမ်းထားပေးပါလိမ့်မယ်။,"只要输入用户名和密码, 然后单击登录, 这将在您使用的机器的缓存中存储一个验证符 。"
1072,"Now, let's launch a fine tuning of a BERT model on the GLUE COLA dataset.",အခု GLUE COLA dataset ပေါ်မှာ BERT မော်ဒယ်ကို fine tuning လုပ်တာ စလိုက်ရအောင်။,"现在,让我们对GLUE COLA数据集上的BERT模型进行微调。"
1073,"We won't go over the fine tuning code because you can find it in any transformer tutorial, or by looking at the videos link below.",fine tuning code တွေကို အသေးစိတ် မပြောတော့ပါဘူး၊ ဘာလို့လဲဆိုတော့ Transformer သင်ခန်းစာတွေမှာ ဒါမှမဟုတ် အောက်က ဗီဒီယိုလင့်ခ်တွေမှာ ရှာတွေ့နိုင်လို့ပါ။,"我们不会翻阅微调码 因为你可以在任何变压器辅导中找到它, 或者通过查看下面的视频链接。"
1074,What interests us here is how we can leverage the model hub during training.,ဒီမှာ ကျွန်တော်တို့ကို စိတ်ဝင်စားစေတာက လေ့ကျင့်နေစဉ်အတွင်း Model Hub ကို ဘယ်လို အသုံးချနိုင်မလဲဆိုတာပါ။,"我们在这里感兴趣的是,我们如何能够在培训期间利用示范中心。"
1075,"This is done with the ""push_to_hub=true"" argument passed in your TrainingArguments.","ဒါကို သင့် TrainingArguments ထဲမှာ ""push_to_hub=true"" ဆိုတဲ့ argument ကို ထည့်ပေးခြင်းဖြင့် လုပ်ဆောင်နိုင်တယ်။",这是用您培训参数中“ push_to_hub= true” 参数完成的 。
1076,"This will automatically upload your model to the Hub each time it is saved, so every epoch in our case.",ဒါက မော်ဒယ်ကို သိမ်းဆည်းတဲ့အခါတိုင်း Hub ကို အလိုအလျောက် တင်ပေးမှာပါ၊ ကျွန်တော်တို့ ကိစ္စမှာတော့ epoch တိုင်းပေါ့။,"这将自动上传您的模型到枢纽 每次它被保存, 所以在我们的情况中每一个时代。"
1077,This allows you to resume training from a different machine if the current one gets interrupted.,လက်ရှိ machine က ရပ်သွားရင်တောင် တခြား machine တစ်ခုကနေ လေ့ကျင့်မှုကို ပြန်စဖို့ ဒါက ခွင့်ပြုပေးတယ်။,"如果现在的机器被中断, 允许您从另一台机器中恢复训练 。"
1078,The model will be updated in your name space with the name of the output directory you picked by default.,သင့်ရဲ့ output directory နာမည်အတိုင်း မော်ဒယ်ကို သင့် namespace ထဲမှာ အပ်ဒိတ်လုပ်ပေးပါလိမ့်မယ်။,该模型将以您默认选择的输出目录的名称在您的名称空间中更新 。
1079,You can choose another name by passing it to the hub_model_id argument.,hub_model_id argument ကို ထည့်ပေးခြင်းဖြင့် တခြားနာမည်တစ်ခုကို ရွေးနိုင်တယ်။,您可以通过将其传递到中心_ model_ id 参数来选择另一个名称 。
1080,"You can also push inside an organization you are a member of by passing a full repository name, with the name of the organization/, the model ID you want to pick.",သင်အဖွဲ့ဝင်ဖြစ်တဲ့ organization တစ်ခုထဲကိုလည်း full repository name ကို ပေးပြီး တွန်းပို့နိုင်ပါတယ်၊ organization နာမည်/ ပြီးရင် သင်ရွေးချယ်လိုတဲ့ model ID ပေါ့။,"您也可以在您所属组织内部推动,通过传递完整的存储库名称,并使用您要选择的组织/ 组织( 组织/ 组织) 的型号 ID 。"
1081,"With that done, we can just launch training, and wait a little bit.",ဒါတွေ လုပ်ပြီးတာနဲ့ လေ့ကျင့်မှုကို စတင်ပြီး ခဏစောင့်ရုံပဲ။,"完成之后,我们可以启动训练,再等一等。"
1082,I'll cut the waiting time from the video.,ဗီဒီယိုထဲက စောင့်ရတဲ့အချိန်ကို ဖြတ်လိုက်ပါမယ်။,我会缩短视频的等候时间
1083,"Note that the model is pushed asynchronously, meaning that the training continues while your model is uploaded to the hub.",မော်ဒယ်ကို asynchronously တွန်းပို့တယ်ဆိုတာ သတိပြုပါ၊ ဆိုလိုတာက မော်ဒယ်ကို Hub ကို တင်နေချိန်မှာလည်း လေ့ကျင့်မှုက ဆက်သွားနေတယ်လို့ အဓိပ္ပာယ်ရတယ်။,"请注意,该模型被不同步地推动,这意味着在您的模型上传到枢纽时,培训将继续下去。"
1084,"When your first commit is finished, you can go inspect your model on the Hub by looking inside your name space, and you'll find it at the very top.",ပထမဆုံး commit ပြီးသွားတဲ့အခါ သင့် namespace ထဲကို ကြည့်ပြီး Hub ပေါ်က သင့်မော်ဒယ်ကို သွားစစ်နိုင်ပါတယ်၊ အပေါ်ဆုံးမှာ တွေ့ရပါလိမ့်မယ်။,"当你的第一次任务完成后, 你可以去检查一下在枢纽上的模型, 查看你的姓名空间, 然后在最上面找到它。"
1085,You can even start playing with its inference widget while it's continuing the training.,လေ့ကျင့်နေတုန်းမှာပဲ သူ့ရဲ့ inference widget နဲ့ စပြီး စမ်းသပ်ကစားနိုင်ပါသေးတယ်။,你甚至可以在继续训练期间 开始玩它的推论部件
1086,The Cola data set tasks the model with determining if the sentence is grammatically correct on that.,Cola dataset က ဝါကျက သဒ္ဒါအရ မှန်ကန်ခြင်း ရှိမရှိ ဆုံးဖြတ်ဖို့အတွက် မော်ဒယ်ကို လုပ်ငန်းပေးထားတယ်။,Cola数据集要求模型确定句子在语法上是否正确。
1087,So we pick an example of incorrect sentence to test it.,ဒါကြောင့် စမ်းသပ်ဖို့အတွက် မမှန်ကန်တဲ့ ဝါကျဥပမာတစ်ခုကို ရွေးလိုက်တယ်။,"因此,我们举一个错误的句子来测试它的例子。"
1088,"Note that it'll take a bit of time to load your model inside the inference APIs, so first time you try to use it.",inference API တွေထဲမှာ သင့်မော်ဒယ်ကို တင်ဖို့ အနည်းငယ် အချိန်ယူရမှာကို သတိထားပါ၊ ဒါက ပထမဆုံးအကြိမ် သုံးတဲ့အခါမျိုးမှာ ဖြစ်တတ်ပါတယ်။,"注意你的模型要花一点时间 才能装进 推断的API,所以你第一次尝试使用它。"
1089,We'll cut by time from the video.,ဗီဒီယိုထဲက အချိန်ကို ဖြတ်လိုက်ပါမယ်။,我们会缩短视频时间的
1090,"There is something wrong with the labels, but we'll fix it later in this video.",label တွေနဲ့ ပတ်သက်ပြီး တစ်ခုခု မှားနေတယ်၊ ဒါပေမယ့် ဒီဗီဒီယိုရဲ့ နောက်ပိုင်းမှာ ပြင်လိုက်ပါမယ်။,标签有些问题 但我们稍后会在这段视频里解决
1091,"Once your training is finished, you should do one last push with the trainer that pushed to a method.",လေ့ကျင့်မှု ပြီးဆုံးတာနဲ့ trainer က push to method ကို သုံးပြီး နောက်ဆုံး တွန်းပို့မှု တစ်ခု လုပ်သင့်တယ်။,"一旦你的训练完成,你应该做最后一次推 与教练,推到一种方法。"
1092,This is for two reason.,ဒါက အကြောင်းရင်းနှစ်ခုကြောင့်ပါ။,这有两个原因。
1093,"First, this will make sure you are predicting the final version of your model if you didn't already.",ပထမအနေနဲ့ သင်က အရင်က မလုပ်ရသေးဘူးဆိုရင် သင့်မော်ဒယ်ရဲ့ နောက်ဆုံးဗားရှင်းကို ခန့်မှန်းကြောင်း သေချာစေမှာပါ။,"首先,这能确保你预测你模型的最终版本,如果你还没有预测的话。"
1094,"For instance, if you used to save every in step strategy instead of every second, this will draft a model card that will be the landing page of your model repo.",ဥပမာအားဖြင့် သင်က step တိုင်းမှာ သိမ်းမယ့် strategy ကို သုံးခဲ့ရင် ဒါက သင့်မော်ဒယ် repository ရဲ့ landing page ဖြစ်လာမယ့် model card ကို ရေးဆွဲပေးပါလိမ့်မယ်။,"例如,如果你用来保存每一个步骤战略而不是每一秒, 这将起草一个模型卡, 这将是您模型回购的着陆页 。"
1095,"Once the commit is done, let's go back on our model page and refresh.",commit လုပ်ပြီးတာနဲ့ ကျွန်တော်တို့ရဲ့ မော်ဒယ်စာမျက်နှာဆီ ပြန်သွားပြီး refresh လုပ်ကြည့်ရအောင်။,"任务完成后,让我们回到我们的模版页面上 刷新。"
1096,"We can see the drafters model card which includes information, and which one model we find tuned.",ရေးဆွဲသူတွေရဲ့ model card ကို မြင်နိုင်ပါတယ်၊ အချက်အလက်တွေနဲ့ ဘယ်မော်ဒယ်ကို fine tune လုပ်ခဲ့လဲဆိုတာ ပါဝင်ပါတယ်။,"我们可以看到起草者模型卡 包含信息, 和哪一个模型,我们找到 调制。"
1097,"So final evaluation loss and metric, the training hyperparameter used, the intermediate training results, and the framework versions we used so that other people can easily reproduce our results.",ဆိုတော့ နောက်ဆုံး အကဲဖြတ်မှု loss နဲ့ metric၊ အသုံးပြုထားတဲ့ training hyperparameter၊ ကြားခံ training ရလဒ်တွေနဲ့ ကျွန်တော်တို့ အသုံးပြုခဲ့တဲ့ framework version တွေ ပါဝင်ပါတယ်၊ ဒါမှ တခြားသူတွေက ကျွန်တော်တို့ရဲ့ ရလဒ်တွေကို အလွယ်တကူ ပြန်လုပ်နိုင်ဖို့ပေါ့။,"所以最后的评估损失和衡量标准, 使用的培训超参数, 中级培训的结果, 以及我们使用的框架版本, 以便其他人可以很容易地复制我们的结果。"
1098,"On top of all that information, the trainer also included some metadata that is interpreted by the Hugging Face website in the model cloud.",အဲဒီ အချက်အလက်တွေအပြင် trainer က Hugging Face ဝဘ်ဆိုက်က model cloud မှာ အဓိပ္ပာယ်ဖွင့်ဆိုမယ့် metadata အချို့ကိုလည်း ထည့်သွင်းပေးခဲ့တယ်။,"除所有这些信息外,该培训员还列入了一些元数据,这些元数据在模型云中由 "" 拥抱脸 "" 网站加以解释。"
1099,You get the value of the metrics reported in a nice widget as well as a link to a leaderboard with paper with code.,အဲဒီ metric တွေရဲ့ တန်ဖိုးကို လှပတဲ့ widget တစ်ခုမှာ ရနိုင်ပြီး paper with code ပါတဲ့ leaderboard ကိုလည်း လင့်ခ်ပေးထားတယ်။,你得到的量度值 在一个不错的部件 和链接 与带代码的纸张的领头板。
1100,"So the Tensorboard runs have also been pushed to this report, and we can look at them directly from the model hub by clicking on the training metrics sub menu.",Tensorboard run တွေကိုလည်း ဒီ report ကို တွန်းပို့ထားပြီး training metrics sub menu ကို နှိပ်ပြီး Model Hub ကနေ တိုက်ရိုက် ကြည့်နိုင်ပါတယ်။,"因此Tensorboard的运行也被推到本报告中, 我们可以点击训练指标子菜单, 从模型中心直接查看它们。"
1101,"If you are not using the Trainer API to fine-tune your model, you can use a push_to_hub method on the model, and tokenizer directly.",Trainer API ကို သင့်မော်ဒယ်ကို fine tune လုပ်ဖို့ မသုံးဘူးဆိုရင် model နဲ့ tokenizer ပေါ်မှာ push_to_hub method ကို တိုက်ရိုက် သုံးနိုင်တယ်။,"如果您没有使用训练员 API 来微调您的模型, 您可以在模型上使用推_ to_ hub 方法, 并直接使用标记器 。"
1102,Let's test this to fix all labels in the inference widget.,inference widget ထဲက label တွေအားလုံးကို ပြင်ဖို့အတွက် ဒါကို စမ်းသပ်ကြည့်ရအောင်။,让我们测试这个来修正 推断元件中的所有标签 。
1103,The inference widget was using different names for labels because we did not indicate the correspondence between integer and label names.,integer နဲ့ label နာမည်တွေကြားက ကိုက်ညီမှုကို မပြခဲ့တဲ့အတွက် inference widget က label တွေအတွက် နာမည်မတူတာတွေ သုံးနေတာပါ။,"推断元件对标签使用不同的名称, 因为我们没有标明整数和标签名称之间的对应关系 。"
1104,"We can fix this in the configuration by sitting the label2id, and id2label fields through the proper values when pushing the model config to the hub.",model config ကို hub ကို တွန်းပို့တဲ့အခါ label2id နဲ့ id2label နေရာတွေကို သင့်တော်တဲ့ တန်ဖိုးတွေ ထည့်ပေးခြင်းဖြင့် ဒါကို configuration ထဲမှာ ပြင်လို့ရတယ်။,"我们可以在配置中修正它, 将模型配置推到中枢时, 将标签2id 和 id2 标签字段置于正确的值中 。"
1105,"Once this is done, we can check on the website, and the model is now showing the proper label.",ဒါပြီးတာနဲ့ ဝဘ်ဆိုက်မှာ စစ်ကြည့်နိုင်ပြီး မော်ဒယ်က မှန်ကန်တဲ့ label ကို ပြသနေပြီ။,"完成后,我们可以查看网站,模型现在显示正确的标签。"
1106,"Now that the model is on the hub, we can use it from anywhere as we would any other Transformer model with the from_pretrained method or with the pipeline function.",အခု မော်ဒယ်က hub ပေါ် ရောက်ပြီဆိုတော့ from_pretrained method ဒါမှမဟုတ် pipeline function နဲ့ တခြား Transformer မော်ဒယ်တွေလိုပဲ ဘယ်နေရာကနေမဆို သုံးနိုင်ပါပြီ။,"现在模型在枢纽上, 我们可以从任何地方使用它, 就像我们用预设方法 或管道功能的其他变形模型一样。"
1107,"We just have to use the identifier from the hub, and we can see that the model configuration and weights as well as the tokenized files are automatically downloaded.",hub ကနေ identifier ကို သုံးရုံပဲ၊ မော်ဒယ် configuration နဲ့ အလေးချိန်တွေအပြင် tokenized ဖိုင်တွေပါ အလိုအလျောက် ဒေါင်းလုဒ်လုပ်တာကို မြင်နိုင်ပါတယ်။,"我们只需要使用枢纽的识别码, 我们可以看到模型的配置和重量 以及象征性文件 自动下载。"
1108,Try the push_to_hub API in the next training to easily share your model with the rest of the world.,နောက်ထပ် လေ့ကျင့်မှုမှာ push_to_hub API ကို စမ်းသုံးကြည့်ပြီး သင့်မော်ဒယ်ကို ကမ္ဘာနဲ့ အလွယ်တကူ မျှဝေလိုက်ပါ။,在下一次训练中尝试 push_to_hub API 来方便地与世界分享您的模型 。
1109,"Hi, this is going to be a video about the push_to_hub API for Tensorflow and Keras.",မင်္ဂလာပါ၊ ဒါက Tensorflow နဲ့ Keras အတွက် push_to_hub API အကြောင်း ဗီဒီယို ဖြစ်ပါမယ်။,"嗨,这将会是一段关于Tensorflow和Keras 的推进至hub API的视频。"
1110,"So, to get started, we'll open up our notebook.",ဆိုတော့ စတင်ဖို့အတွက် ကျွန်တော်တို့ရဲ့ notebook ကို ဖွင့်လိုက်ရအောင်။,"所以,为了开始,我们会打开我们的笔记本。"
1111,"And the first thing you'll need to do is log in to your HuggingFace account, for example with the notebook login function.",ပထမဆုံး လုပ်ရမှာကတော့ သင်ရဲ့ Hugging Face အကောင့်ထဲကို ဝင်ဖို့ဖြစ်ပြီး ဥပမာ notebook login function နဲ့ လုပ်နိုင်ပါတယ်။,"你要做的第一件事 就是登录到你的Hugging脸孔账户, 比如笔记本登录功能。"
1112,"So to use that, you simply call the function, the popup will emerge.",အဲဒါကို သုံးဖို့ဆိုရင် function ကို ခေါ်လိုက်ရုံပဲ၊ popup တစ်ခု ပေါ်လာလိမ့်မယ်။,"因此,为了使用这个功能,你只要调用这个函数, 弹出就会出现。"
1113,"You will enter your username and password, which I'm going to pull out of my password manager here, and you log in.",သင်ရဲ့ username နဲ့ password ကို ထည့်ရမှာပေါ့၊ ကျွန်တော်ကတော့ ဒီမှာ password manager ကနေ ထုတ်ယူလိုက်မယ်၊ ပြီးရင် ဝင်လိုက်ပါ။,"您将输入您的用户名和密码, 我将在这里从密码管理器中提取密码, 然后您登录 。"
1114,The next two cells are just getting everything ready for training.,နောက်ထပ် cell နှစ်ခုက လေ့ကျင့်ဖို့အတွက် အရာအားလုံး အသင့်ဖြစ်အောင် ပြင်ဆင်နေတာပါ။,下两间牢房正在准备训练
1115,"So we're just going to load a dataset, we're going to tokenize that dataset, and then we're going to load our model and compile it with the standard Adam optimizer.",ဒါကြောင့် ကျွန်တော်တို့ dataset တစ်ခု တင်မယ်၊ အဲဒီ dataset ကို tokenize လုပ်မယ်၊ ပြီးရင် ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို တင်ပြီး ပုံမှန် Adam optimizer နဲ့ compile လုပ်ပါမယ်။,"所以,我们只是要装上一个数据集, 我们将标记该数据集, 然后我们将装上我们的模型 用标准的亚当优化器来编集它。"
1116,So I'm just going to run all of those.,ဒါတွေအားလုံးကို run လိုက်ပါမယ်။,"所以,我只是要去运行 所有这些。"
1117,"We'll wait a few seconds, and everything should be ready for training.",ခဏစောင့်ပြီး အားလုံး လေ့ကျင့်ဖို့ အဆင်သင့် ဖြစ်သွားပါလိမ့်မယ်။,"我们等几秒钟,一切都准备好接受训练了"
1118,Okay.,အိုကေ။,好吧。 好吧。 好吧。 Okay.
1119,So now we're ready to train.,ကဲ အခု လေ့ကျင့်ဖို့ အဆင်သင့် ဖြစ်ပြီ။,现在我们准备好训练了
1120,I'm going to show you the two ways you can push your model to the Hub.,မော်ဒယ်ကို Hub ကို တွန်းပို့နိုင်တဲ့ နည်းလမ်းနှစ်မျိုးကို ပြပေးပါမယ်။,我要告诉你两个方法 你可以把你的模特推到枢纽
1121,So the first is with the PushToHubCallback.,ပထမတစ်ခုကတော့ PushToHubCallback နဲ့ ဖြစ်တယ်။,第一个是PushToHubCallack。
1122,So a callback in Keras is a function that's called regularly during training.,Keras ထဲက callback ဆိုတာ လေ့ကျင့်နေစဉ်အတွင်း ပုံမှန် ခေါ်ဆိုတဲ့ function တစ်ခုပါ။,所以Keras的回调是训练期间经常调用的功能。
1123,"You can set it to be called after a certain number of steps, or every epoch, or even just once at the end of training.",ဒါကို သတ်မှတ်ထားတဲ့ အဆင့်အရေအတွက်ပြီးတဲ့အခါ ဒါမှမဟုတ် epoch တိုင်းမှာ ဒါမှမဟုတ် လေ့ကျင့်မှုရဲ့ အဆုံးမှာ တစ်ကြိမ်တည်း ခေါ်ဖို့ သတ်မှတ်နိုင်တယ်။,"您可以设置它被调用 在一定的几步后, 或每个时代, 甚至在训练结束时一次。"
1124,"So a lot of callbacks in Keras, for example, control learning rate decaying on plateau, and things like that.",ဒါကြောင့် Keras ထဲက callback အများစုက learning rate decaying on plateau လိုမျိုး အရာတွေကို ထိန်းချုပ်ပေးတယ်။,所以在喀拉斯有很多回调 比如 控制高原的学习率下降 诸如此类的
1125,"So this callback, by default, will save your model to the Hub once every epoch.",ဒီ callback က ပုံမှန်အားဖြင့် သင့်မော်ဒယ်ကို epoch တိုင်း Hub ကို တစ်ကြိမ် သိမ်းဆည်းပေးလိမ့်မယ်။,"因此,这个回调,默认情况下, 将保存您的模型到枢纽 每一个时代一次。"
1126,"And that's really helpful, especially if your training is very long, because that means you can resume from that save, so you get this automatic cloud-saving of your model.",ဒါက တကယ်ကို အထောက်အကူဖြစ်စေပါတယ်၊ အထူးသဖြင့် သင့်ရဲ့ လေ့ကျင့်မှုက အရမ်းကြာမယ်ဆိုရင်ပေါ့၊ ဘာလို့လဲဆိုတော့ အဲဒီသိမ်းဆည်းထားတာကနေ ပြန်စနိုင်ပြီး သင့်မော်ဒယ်ကို အလိုအလျောက် cloud-saving လုပ်ပေးလို့ ဖြစ်တယ်။,"这非常有帮助, 尤其是如果你的训练时间很长, 因为这意味着你可以从节省中恢复, 这样你就可以自动地 节省模型的云层。"
1127,And you can even run inference with the checkpoints of your model that have been uploaded by this callback.,ဒီ callback က upload လုပ်ထားတဲ့ သင့်မော်ဒယ်ရဲ့ checkpoints တွေနဲ့ inference ကိုတောင် run နိုင်ပါသေးတယ်။,你甚至可以对这个回回调上传的 模型的检查站进行推论。
1128,"And that means you can, y'know, run some test inputs and actually see how your model works at various stages during training, which is a really nice feature.",ဆိုလိုတာက သင် test inputs တွေကို run ပြီး လေ့ကျင့်နေစဉ်အတွင်း အဆင့်အမျိုးမျိုးမှာ သင့်မော်ဒယ် ဘယ်လိုအလုပ်လုပ်လဲဆိုတာ တကယ် မြင်နိုင်ပါတယ်၊ ဒါက တကယ်ကောင်းတဲ့ feature တစ်ခုပါ။,"这意味着你可以,你知道,运行一些测试输入 并实际观察你的模型是如何在训练的各个阶段运行的, 这是一个非常好的特征。"
1129,"So we're going to add the PushToHubCallback, and it takes just a few arguments.",ဒါကြောင့် ကျွန်တော်တို့ PushToHubCallback ကို ထည့်မယ်၊ သူက argument နည်းနည်းပဲ ယူပါတယ်။,"所以我们要加上PushToHubCallback, 它只需要几个参数。"
1130,So the first argument is the temporary directory that files are going to be saved to before they're uploaded to the Hub.,ပထမ argument ကတော့ Hub ကို upload မလုပ်ခင် ဖိုင်တွေကို သိမ်းထားမယ့် ယာယီ directory ဖြစ်တယ်။,"第一个论点是 临时目录,在文件被上传到枢纽之前 保存到临时目录中。"
1131,"The second argument is the tokenizer, and the third argument here is the keyword argument hub_model_id.",ဒုတိယ argument က tokenizer ဖြစ်ပြီး တတိယ argument ကတော့ hub_model_id ဆိုတဲ့ keyword argument ဖြစ်တယ်။,"第二个参数是代号器,第三个参数是关键词参数中心_model_id。"
1132,So that's the name it's going to be saved under on the HuggingFace Hub.,ဒါက Hugging Face Hub ပေါ်မှာ သိမ်းဆည်းမယ့် နာမည်ပါ။,所以这个名字 将会保存在 包盖脸部枢纽下面
1133,"You can also upload to an organization account just by adding the organization name before the repository name with a slash, like this.",Organization အကောင့်တစ်ခုဆီကိုလည်း repository နာမည်ရဲ့ ရှေ့မှာ organization နာမည်ကို slash နဲ့ ထည့်ပေးခြင်းဖြင့် upload လုပ်နိုင်ပါတယ်၊ ဒီလိုမျိုးပေါ့။,"您也可以在存储器名称前添加组织名称, 并使用这样的斜线, 从而上传到组织账户 。"
1134,"So you probably don't have permissions to upload to the HuggingFace organization, if you do please file a bug and let us know extremely urgently.",သင် Hugging Face organization ကို upload လုပ်ဖို့ ခွင့်ပြုချက် ရှိမှာမဟုတ်ပါဘူး၊ အကယ်၍ ရှိခဲ့ရင် bug တစ်ခု တင်ပြပြီး ကျွန်တော်တို့ကို အရေးပေါ် အသိပေးပါ။,"所以,你可能没有权限上传到 Hugging脸组织, 如果你这样做,请输入一个窃听器, 并告诉我们非常紧急。"
1135,"But if you do have access to your own organization, then you can use that same approach to upload models to their account instead of to your own personal set of models.",ဒါပေမယ့် သင့်ကိုယ်ပိုင် organization ကို ဝင်ရောက်ခွင့် ရှိမယ်ဆိုရင် အဲဒီနည်းလမ်းအတိုင်း သင့်ကိုယ်ပိုင် မော်ဒယ်တွေအစား သူတို့ရဲ့ အကောင့်ဆီကို မော်ဒယ်တွေ upload လုပ်နိုင်တယ်။,"但如果你确实可以进入自己的组织,那么你可以使用同样的方法将模型上传到自己的账户上,而不是上传到自己的个人模型。"
1136,"So, once you've made your callback, you simply add it to the callbacks list when you're calling model.fit.",callback ကို ဖန်တီးပြီးတာနဲ့ model.fit ကို ခေါ်တဲ့အခါ callbacks list ထဲကို ထည့်ပေးရုံပါပဲ။,"所以,一旦你调回了, 你只要把它添加到调回列表中, 当你调用模型时。"
1137,"And everything is uploaded for you from there, there's nothing else to worry about.",အဲဒီကနေ အရာအားလုံး သင့်အတွက် upload လုပ်ပေးသွားမှာဖြစ်ပြီး တခြား ဘာမှ စိတ်ပူစရာ မလိုဘူး။,所有的东西都上传给你 没有什么可担心的了
1138,"The second way to upload a model, though, is to call model.push_to_hub.",ဒါပေမယ့် မော်ဒယ်တစ်ခု upload လုပ်ဖို့ ဒုတိယနည်းလမ်းကတော့ model.push_to_hub ကို ခေါ်ဖို့ ဖြစ်တယ်။,上传模型的第二种方式是叫模型.push_to_hub。
1139,So this is more of a once-off method.,ဒါက တစ်ခါတည်း သုံးတဲ့ နည်းလမ်းမျိုးပါ။,"因此,这更是一种一次性的方法。"
1140,It's not called regularly during training.,လေ့ကျင့်နေစဉ်အတွင်း ပုံမှန် ခေါ်ဆိုတာ မဟုတ်ဘူး။,训练期间不定期调用
1141,You can just call this manually whenever you want to upload a model to the hub.,Hub ကို မော်ဒယ် upload လုပ်ချင်တဲ့အခါတိုင်း ဒါကို ကိုယ်တိုင် ခေါ်ဆိုနိုင်တယ်။,您可以在您想要上传模型到中心时手动拨打这个模式 。
1142,"So we recommend running this after the end of training, just to make sure that you have a commit message to guarantee that this was the final version of the model at the end of training.",ဒါကြောင့် လေ့ကျင့်မှု ပြီးဆုံးပြီးနောက် ဒါကို run ဖို့ အကြံပြုပါတယ်၊ ဒါက လေ့ကျင့်မှုရဲ့ အဆုံးမှာ မော်ဒယ်ရဲ့ နောက်ဆုံးဗားရှင်း ဖြစ်ကြောင်း အာမခံဖို့ commit message တစ်ခု ရစေဖို့ပါပဲ။,"因此,我们建议,在培训结束后运行, 只是为了确保您有一个承诺的信息, 保证这是培训结束时的模式的最终版本。"
1143,"And it just makes sure that, you know, you're working with the definitive end-of-training model and not accidentally using a checkpoint from somewhere along the way.",ပြီးတော့ သင်က လေ့ကျင့်မှုရဲ့ အဆုံးသတ် မော်ဒယ်နဲ့ အလုပ်လုပ်နေတာ သေချာစေပြီး လမ်းတစ်လျှောက်က checkpoint တစ်ခုကို မတော်တဆ အသုံးမပြုမိအောင် ကာကွယ်ပေးတယ်။,"并且它只是确保,你知道, 你的工作 最终的训练结束模式 而不是意外地使用一个检查站 沿途的某个地方。"
1144,So I'm going to run both of these cells.,ဒါကြောင့် ဒီ cell နှစ်ခုလုံးကို run လိုက်ပါမယ်။,所以我要运行这两个细胞
1145,"And then I'm going to cut the video here, just because training is going to take a couple of minutes.",ပြီးရင် ဗီဒီယိုကို ဒီမှာ ဖြတ်လိုက်ပါမယ်၊ ဘာလို့လဲဆိုတော့ လေ့ကျင့်မှုက မိနစ်အနည်းငယ်ကြာမှာမို့ပါ။,"然后我就把视频剪下来, 因为训练需要几分钟时间。"
1146,"So I'll skip forward to the end of that, when the models have all been uploaded, and I'm gonna show you how you can access the models in the Hub, and the other things you can do with them from there.",ဒါကြောင့် အဲဒီအဆုံးကို ကျော်လိုက်ပါမယ်၊ မော်ဒယ်တွေအားလုံး upload လုပ်ပြီးတဲ့အခါ Hub ထဲက မော်ဒယ်တွေကို ဘယ်လို ဝင်ရောက်နိုင်လဲ၊ အဲဒီကနေ တခြားဘာတွေ လုပ်နိုင်လဲဆိုတာ ပြပေးပါမယ်။,"所以我会跳到最后, 当模型都上传了, 我将展示你如何进入 枢纽的模型, 以及你可以从那里用它们做的其他事情。"
1147,"Okay, we're back, and our model was uploaded.",အိုကေ၊ ကျွန်တော်တို့ ပြန်ရောက်ပါပြီ၊ ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို upload လုပ်ခဲ့ပြီးပြီ။,好了 我们回来了 我们的模特上传了
1148,Both by the PushToHubCallback and also by our call to model.push_to_hub after training.,PushToHubCallback ရော၊ လေ့ကျင့်ပြီးနောက် model.push_to_hub ကို ခေါ်ဆိုခြင်းအားဖြင့်ပါ လုပ်ခဲ့တာပါ။,由PushToHubCallback以及我们训练后要求模特的呼唤。
1149,So everything's looking good.,ဒါဆို အားလုံး အဆင်ပြေနေပြီ။,"所以,一切都看起来不错。"
1150,"So now if we drop over to my profile on HuggingFace, and you can get there just by clicking the profile button in the dropdown.",အခု Hugging Face ပေါ်က ကျွန်တော့် profile ကို သွားကြည့်မယ်၊ dropdown ထဲက profile ခလုတ်ကို နှိပ်ပြီး အဲဒီကို ရောက်နိုင်တယ်။,"所以,现在,如果我们 投到我的关于 拥抱脸的侧写, 你可以通过点击侧写按钮 来到达那里。"
1151,"We can see that the bert-fine-tuned-cola model is here, and was updated 3 minutes ago.",bert-fine-tuned-cola မော်ဒယ်ကို ဒီမှာ တွေ့ရပြီး ၃ မိနစ်အကြာက အပ်ဒိတ်လုပ်ထားတာ မြင်နိုင်တယ်။,"我们可以看到Birt -fine -fine -dond -cola模型在这里,3分钟前更新了。"
1152,"So it'll always be at the top of your list, because they're sorted by how recently they were updated.",သူတို့ အပ်ဒိတ်လုပ်တာ ဘယ်လောက်ကြာပြီလဲဆိုတာပေါ် မူတည်ပြီး စီထားတာဖြစ်လို့ သင့်စာရင်းရဲ့ အပေါ်ဆုံးမှာ အမြဲရှိနေမှာပါ။,"所以它永远是名单的首位, 因为它们按照最近更新的情况来分类。"
1153,And we can start querying our model immediately.,ကျွန်တော်တို့ မော်ဒယ်ကို ချက်ချင်း စတင် စုံစမ်းနိုင်ပါပြီ။,我们可以立刻开始查询我们的模型。
1154,"So the dataset we were training on is the Glue CoLA dataset, and CoLA is an acronym standing for the Corpus of Linguistic Acceptability.",ကျွန်တော်တို့ လေ့ကျင့်ခဲ့တဲ့ dataset က Glue CoLA dataset ဖြစ်ပြီး CoLA က Corpus of Linguistic Acceptability ကို အတိုကောက် ခေါ်တာပါ။,"所以,我们所训练的数据集是胶胶胶可乐数据集, 而COLA是语言可接受性公司的缩写名词。"
1155,"So what that means is the model is being trained to decide if a sentence is grammatically or linguistically okay, or if there's a problem with it.",ဒါက ဘာကိုဆိုလိုတာလဲဆိုတော့ စာကြောင်းတစ်ခုက သဒ္ဒါ ဒါမှမဟုတ် ဘာသာဗေဒအရ အဆင်ပြေလား၊ ဒါမှမဟုတ် ပြဿနာရှိလားဆိုတာ ဆုံးဖြတ်ဖို့ မော်ဒယ်ကို လေ့ကျင့်ပေးနေတာပါ။,"这意味着模型正在被训练 来决定一个句子在语法或语言上是否正确, 或者有问题。"
1156,"For example, we could say, ""This is a legitimate sentence."" And hopefully it realizes that this is in fact a legitimate sentence.","ဥပမာ၊ ""This is a legitimate sentence"" လို့ ပြောနိုင်တယ်၊ ပြီးတော့ ဒါဟာ တကယ်ပဲ မှန်ကန်တဲ့ ဝါကျဖြစ်တယ်ဆိုတာ သူ နားလည်မယ်လို့ မျှော်လင့်ရတယ်။","例如,我们可以说,“这是一个合理的句子。” 希望它意识到,事实上,这是一个合理的句子。"
1157,So it might take a couple of seconds for the model to load when you call it for the first time.,ပထမဆုံးအကြိမ် ခေါ်တဲ့အခါ မော်ဒယ်ကို တင်ဖို့ စက္ကန့်အနည်းငယ် ကြာနိုင်တယ်။,所以模型可能要花几秒钟才能装货 当你第一次叫它的时候
1158,So I might cut a couple of seconds out of this video here.,ဒါကြောင့် ဒီဗီဒီယိုထဲက စက္ကန့်အနည်းငယ်ကို ဖြတ်လိုက်ပါမယ်။,"所以,我可能会剪出几秒钟 从这个视频在这里。"
1159,"Okay, we're back.",အိုကေ၊ ပြန်ရောက်ပါပြီ။,"好了 我们回来了 Okay, we're back."
1160,"So the model loaded and we got an output, but there's an obvious problem here.",မော်ဒယ် တင်သွားပြီး အထွက်တစ်ခု ရခဲ့တယ်၊ ဒါပေမယ့် ဒီမှာ သိသာတဲ့ ပြဿနာတစ်ခု ရှိတယ်။,"所以模型装上了,我们得到了一个输出, 但是这里有一个明显的问题。"
1161,So these labels aren't really telling us what categories the model has actually assigned to this input sentence.,ဒီ label တွေက ဒီထည့်သွင်းတဲ့ ဝါကျကို မော်ဒယ်က ဘယ်အမျိုးအစားတွေ သတ်မှတ်ထားလဲဆိုတာ တကယ် မပြောပြဘူး။,所以这些标签并没有真正告诉我们 模型实际上给这个输入句指定了哪些类别。
1162,"So if we want to fix that, we want to make sure the model config has the correct names for each of the label classes, and then we want to upload that config.",အဲဒါကို ပြင်ချင်တယ်ဆိုရင် model config မှာ label class တစ်ခုစီအတွက် မှန်ကန်တဲ့ နာမည်တွေ ရှိဖို့ သေချာအောင် လုပ်ရမယ်၊ ပြီးရင် အဲဒီ config ကို upload လုပ်ချင်တယ်။,"因此,如果我们想要解决这个问题, 我们想要确保模型配置 拥有每个标签分类的正确名称, 然后我们要上传该配置 。"
1163,So we can do that down here.,အဲဒါကို ဒီအောက်မှာ လုပ်နိုင်တယ်။,所以我们可以在下面做
1164,"To get the label names, we can get that from the dataset we loaded, from the features attribute it has.",label နာမည်တွေ ရဖို့အတွက် ကျွန်တော်တို့ တင်ခဲ့တဲ့ dataset ကနေ၊ သူ့ရဲ့ features attribute ကနေ ယူနိုင်တယ်။,"要获得标签名称, 我们可以从我们装入的数据集中, 从它的特性属性中获取 。"
1165,"And then we can create dictionaries ""id2label"" and ""label2id"", and just assign them to the model config.","ပြီးရင် ""id2label"" နဲ့ ""label2id"" ဆိုတဲ့ dictionary တွေ ဖန်တီးပြီး မော်ဒယ် config ကို သတ်မှတ်ပေးလိုက်ရုံပဲ။","然后我们可以创建词典“id2 label”和“ label2id” , 并把它们分配到模型配置中。"
1166,"And then we can just push our updated config, and that'll override the existing config in the Hub repo.",ပြီးရင် ကျွန်တော်တို့ရဲ့ အပ်ဒိတ်လုပ်ထားတဲ့ config ကို တွန်းပို့လိုက်ရုံနဲ့ Hub repo ထဲက ရှိပြီးသား config ကို ကျော်ဖြတ်သွားလိမ့်မယ်။,"然后我们就可以推动更新的配置, 从而取代哈勃重写里现有的配置。"
1167,So that's just been done.,ဒါ အခုပဲ လုပ်ပြီးသွားပြီ။,"所以,这是刚刚完成的。"
1168,"So now, if we go back here, I'm going to use a slightly different sentence because the outputs for sentences are sometimes cached.",ကဲ အခု ဒီကို ပြန်သွားရင် ဝါကျတစ်ခုအတွက် အထွက်တွေက တစ်ခါတလေ cache လုပ်ထားတတ်တာကြောင့် နည်းနည်း ကွဲပြားတဲ့ ဝါကျတစ်ခုကို သုံးသွားမယ်။,"所以,现在,如果我们回到这里, 我将使用一个略微不同的句子, 因为判决的输出有时被缓存。"
1169,"And so, if we want to generate new results I'm going to use something slightly different.",ဒါကြောင့် ရလဒ်အသစ်တွေ ထုတ်လုပ်ချင်ရင် နည်းနည်း ကွဲပြားတဲ့ တစ်ခုခုကို သုံးသွားမယ်။,"所以,如果我们想要产生新的结果, 我会使用一些稍有不同的东西。"
1170,So let's try an incorrect sentence.,ဒါကြောင့် မမှန်ကန်တဲ့ ဝါကျတစ်ခုကို စမ်းကြည့်ရအောင်။,"所以,让我们尝试一个错误的句子。"
1171,"So this is not valid English grammar, and hopefully the model will see that.",ဒါက မှန်ကန်တဲ့ အင်္ဂလိပ်သဒ္ဒါ မဟုတ်ဘူး၊ ပြီးတော့ မော်ဒယ်က ဒါကို မြင်နိုင်မယ်လို့ မျှော်လင့်ရတယ်။,"因此,这不是有效的英语语法, 希望模型会看到这一点。"
1172,"It's going to reload here, so I'm going to cut a couple of seconds here, and then we'll see what the model is going to say.",ဒီမှာ ပြန်တင်နေတယ်၊ ဒါကြောင့် စက္ကန့်အနည်းငယ် ဖြတ်လိုက်ပါမယ်၊ ပြီးရင် မော်ဒယ် ဘာပြောမလဲဆိုတာ ကြည့်ရအောင်။,"它会在这里重新装载, 所以我会在这里削减几秒钟, 然后我们看看模型会说什么。"
1173,"So the model, it's confidence isn't very good, because of course we didn't really optimize our hyperparameters at all.",မော်ဒယ်ရဲ့ ယုံကြည်မှုက သိပ်မကောင်းဘူး၊ ဘာလို့လဲဆိုတော့ ကျွန်တော်တို့ hyperparameter တွေကို လုံးဝ optimize မလုပ်ခဲ့လို့ ဖြစ်တယ်။,"所以模型,它的自信不是很好, 因为我们没有真正优化我们的超参数。"
1174,But it has decided that this sentence is more likely to be unacceptable than acceptable.,ဒါပေမယ့် ဒီဝါကျက acceptable ဖြစ်တာထက် unacceptable ဖြစ်ဖို့ ပိုများတယ်လို့ ဆုံးဖြတ်လိုက်တယ်။,"但它决定,这一句更有可能令人无法接受,而不是令人无法接受。"
1175,"Presumably if we tried a bit harder with training we could get a much lower validation loss, and therefore the model's predictions would be more precise.",လေ့ကျင့်မှုနဲ့ နည်းနည်း ပိုကြိုးစားခဲ့မယ်ဆိုရင် validation loss ကို အများကြီး လျှော့ချနိုင်ပြီး မော်ဒယ်ရဲ့ ခန့်မှန်းချက်တွေက ပိုတိကျလာမှာပါ။,假设我们训练得再努力一点 我们就能得到低得多的验证损失 因此模型的预测会更精确
1176,But let's try our original sentence again.,ဒါပေမယ့် ကျွန်တော်တို့ရဲ့ မူရင်းဝါကျကို ထပ်စမ်းကြည့်ရအောင်။,但是让我们再试一次原来的句子
1177,"Of course, because of the caching issue, we're seeing that the original answers are unchanged.",ဟုတ်ပါတယ်၊ caching ပြဿနာကြောင့် မူရင်းအဖြေတွေက မပြောင်းလဲဘဲ ရှိနေတာကို မြင်ရတယ်။,"当然,因为这个棘手的问题, 我们可以看到最初的答案没有改变。"
1178,"So let's try a different, valid sentence.",ဒါကြောင့် မတူညီတဲ့၊ မှန်ကန်တဲ့ ဝါကျတစ်ခုကို စမ်းကြည့်ရအောင်။,"所以,让我们尝试一个不同的, 有效的句子。"
1179,"So let's try, ""This is a valid English sentence"".","ဒါကြောင့် ""This is a valid English sentence"" လို့ စမ်းကြည့်ရအောင်။","所以,让我们试试,""这是一个有效的英语句子""。"
1180,"And we see that now the model correctly decides that it has a very high probability of being acceptable, and a very low probability of being unacceptable.",အခုဆိုရင် မော်ဒယ်က acceptable ဖြစ်ဖို့ အလားအလာ အလွန်များပြီး unacceptable ဖြစ်ဖို့ အလားအလာ အလွန်နည်းတယ်လို့ မှန်ကန်စွာ ဆုံးဖြတ်တာကို မြင်ရတယ်။,"我们看到,现在模型正确地决定,它非常容易被接受,非常容易被接受,非常容易被接受。"
1181,"So you can use this inference API even with the checkpoints that are uploaded during training, so it can be very interesting to see how the model's predictions for sample inputs change with each epoch of training.",ဒါကြောင့် ဒီ inference API ကို လေ့ကျင့်နေစဉ်အတွင်း upload လုပ်ထားတဲ့ checkpoints တွေနဲ့တောင် သုံးနိုင်ပါတယ်၊ ဒါကြောင့် လေ့ကျင့်မှုရဲ့ epoch တစ်ခုစီတိုင်းမှာ နမူနာ ထည့်သွင်းချက်တွေအတွက် မော်ဒယ်ရဲ့ ခန့်မှန်းချက်တွေ ဘယ်လိုပြောင်းလဲလဲဆိုတာကို ကြည့်ဖို့ စိတ်ဝင်စားစရာ ဖြစ်နိုင်တယ်။,这样你就可以使用这个推断 API 即使是在训练期间上传的检查站 也可以使用这个推论 所以非常有趣的是 观察模型对样本输入的预测 是如何随着每一阶段的训练而变化的
1182,"Also, the model we've uploaded is going to be accessible to you and, if it's shared publicly, to anyone else.",ဒါ့အပြင် ကျွန်တော်တို့ upload လုပ်ထားတဲ့ မော်ဒယ်ကို သင်နဲ့၊ အကယ်၍ public အနေနဲ့ မျှဝေထားရင် တခြားသူတွေပါ ဝင်ရောက်ကြည့်ရှုနိုင်တယ်။,"而且,我们上传的模型 将会为您提供 并且,如果公开分享, 给其他人。"
1183,"So if you want to load that model, all you or anyone else needs to do is just to load it in either a pipeline, or you can just load it with, for example, TFAutoModelForSequenceClassification.",ဒါကြောင့် အဲဒီမော်ဒယ်ကို တင်ချင်တယ်ဆိုရင် သင် သို့မဟုတ် တခြားသူတွေ လုပ်ရမှာက pipeline တစ်ခုထဲမှာ တင်တာ ဒါမှမဟုတ် ဥပမာ TFAutoModelForSequenceClassification နဲ့ တင်လိုက်ရုံပါပဲ။,"所以,如果你想装入模型, 你或其他人需要做的就是 把它装入管道中, 或者你可以把它装上,比如TFAUTOModelForAcquesClassization。"
1184,And then for the name you would just simply pass the path to the repo you want to upload.,ပြီးရင် နာမည်အတွက် သင် upload လုပ်ချင်တဲ့ repo ရဲ့ လမ်းကြောင်းကို ပေးလိုက်ရုံပဲ။,"然后,对于名字,你只要通过路径到您想要上传的回购。"
1185,"Or to download, excuse me.",ဒါမှမဟုတ် ဒေါင်းလုဒ်လုပ်ချင်ရင်ပေါ့၊ ဆောရီး။,"或下载,对不起。"
1186,"So if I want to use this model again, if I want to load it from the hub, I just run this one line of code.",ဒါကြောင့် ဒီမော်ဒယ်ကို ထပ်သုံးချင်တယ်ဆိုရင် Hub ကနေ တင်ချင်တယ်ဆိုရင် ဒီ code တစ်ကြောင်းကို run လိုက်ရုံပါပဲ။,"所以,如果我想再次使用这个模型, 如果我想从中枢上载它, 我只是运行这行代码。"
1187,The model will be downloaded.,မော်ဒယ်ကို ဒေါင်းလုဒ်လုပ်ပါလိမ့်မယ်။,模型将被下载 。
1188,"And, with any luck, it'll be ready to fine-tune on a different dataset, make predictions with, or do anything else you wanna do.",ကံကောင်းရင် တခြား dataset ပေါ်မှာ fine tune လုပ်ဖို့၊ ခန့်မှန်းချက်တွေ ထုတ်ဖို့ ဒါမှမဟုတ် သင်လုပ်ချင်တာ တခြားဘာမဆို လုပ်ဖို့ အဆင်သင့် ဖြစ်သွားပါလိမ့်မယ်။,"幸运的是,它会准备好 微调不同的数据集, 做出预测,或者做其他你想做的事。"
1189,"So that was a quick overview of how, after your training or during your training, you can upload models to the Hub, you can checkpoint there, you can resume training from there, and you can get inference results from the models you've uploaded.",ဒါကတော့ သင့်ရဲ့ လေ့ကျင့်မှုပြီးနောက် ဒါမှမဟုတ် လေ့ကျင့်နေစဉ်အတွင်း မော်ဒယ်တွေကို Hub ကို ဘယ်လို upload လုပ်နိုင်တယ်၊ checkpoint ယူနိုင်တယ်၊ အဲဒီကနေ လေ့ကျင့်မှုကို ဘယ်လိုပြန်စနိုင်တယ်၊ ပြီးတော့ သင် upload လုပ်ထားတဲ့ မော်ဒယ်တွေကနေ inference ရလဒ်တွေကို ဘယ်လို ရနိုင်တယ်ဆိုတာ အကျဉ်းချုပ် ပြန်လည်သုံးသပ်ချက် ဖြစ်ပါတယ်။,"所以,这是一个快速的概览 如何,在你的训练或训练期间, 你可以上传模型到枢纽, 你可以在那里设置检查站, 你可以从那里恢复训练, 你可以从你上传的模型中得到推论结果。"
1190,"So thank you, and I hope to see you in a future video.",ကျေးဇူးတင်ပါတယ်၊ နောက်ဗီဒီယိုမှာ တွေ့မယ်လို့ မျှော်လင့်ပါတယ်။,"所以,谢谢你,我希望 看到你在未来的视频。"
1191,Loading a custom dataset.,ကိုယ်ပိုင် dataset တစ်ခုကို တင်ခြင်း။,正在装入自定义数据集 。
1192,"Although the Hugging Face Hub hosts over a thousand public datasets, you'll often need to work with data that is stored on your laptop or some remote server.",Hugging Face Hub က အများသုံး dataset တစ်ထောင်ကျော်ကို လက်ခံထားပေမယ့် သင်က သင့် laptop ဒါမှမဟုတ် remote server တစ်ခုမှာ သိမ်းထားတဲ့ ဒေတာတွေနဲ့ အလုပ်လုပ်ဖို့ မကြာခဏ လိုအပ်ပါလိမ့်မယ်။,"虽然抱抱脸枢纽拥有一千多个公共数据集, 但您通常需要使用存储在您的笔记本电脑或远程服务器上的数据。"
1193,"In this video, we'll explore how the Datasets library can be used to load datasets that aren't available on the Hugging Face Hub.",ဒီဗီဒီယိုမှာ Datasets library ကို Hugging Face Hub မှာ မရှိတဲ့ dataset တွေကို တင်ဖို့ ဘယ်လိုသုံးနိုင်လဲဆိုတာ လေ့လာပါမယ်။,"在这个视频中,我们将探索如何利用 数据集库 来载载数据元件, 这些数据元件没有在 Hugging Face 枢纽上。"
1194,"As you can see in this table, the Datasets library provides several in-built scripts to load datasets in several formats.",ဒီဇယားမှာ မြင်ရတဲ့အတိုင်း Datasets library က ပုံစံအမျိုးမျိုးနဲ့ dataset တွေကို တင်ဖို့အတွက် တည်ဆောက်ပြီးသား script တွေ ပေးထားတယ်။,"如此表格所示,数据集库提供若干内部脚本,以几种格式装入数据集。"
1195,"To load a dataset in one of these formats, you just need to provide the name of the format to the load_dataset function, along with a data_files argument that points to one or more filepaths or URLs.",ဒီပုံစံတွေထဲက တစ်ခုနဲ့ dataset တစ်ခုကို တင်ဖို့ load_dataset function ကို ပုံစံရဲ့ နာမည်နဲ့အတူ filepaths ဒါမှမဟုတ် URL တစ်ခု ဒါမှမဟုတ် တစ်ခုထက်ပိုတာတွေကို ညွှန်ပြတဲ့ data_files argument ကို ပေးရုံပါပဲ။,"要以其中一种格式装入数据集,只需将格式的名称提供给load_dataset 函数,同时提供指向一个或多个文件路径或 URL 的数据_file 参数。"
1196,"To see this in action, let's start by loading a CSV file.",ဒါကို လက်တွေ့လုပ်ကြည့်ဖို့ CSV file တစ်ခုကို တင်တာကနေ စကြည့်ရအောင်။,"要在操作中看到这一点, 让我们从装入 CSV 文件开始 。"
1197,"In this example, we first download a dataset about wine quality from the UCI machine learning repository.",ဒီဥပမာမှာ ကျွန်တော်တို့ ပထမဆုံး UCI machine learning repository ကနေ ဝိုင်အရည်အသွေးနဲ့ ပတ်သက်တဲ့ dataset တစ်ခုကို ဒေါင်းလုဒ်လုပ်တယ်။,"在这个例子中,我们首先从UCI机器学习库下载一套关于葡萄酒质量的数据集。"
1198,"Since this is a CSV file, we then specify the CSV loading script.",ဒါက CSV file ဖြစ်တဲ့အတွက် CSV loading script ကို သတ်မှတ်လိုက်တယ်။,"由于这是一个 CSV 文件, 我们然后指定 CSV 装载脚本 。"
1199,"Now, this script needs to know where our data is located, so we provide the filename as part of the data_files argument.",အခု ဒီ script က ကျွန်တော်တို့ရဲ့ ဒေတာ ဘယ်မှာ ရှိတယ်ဆိုတာ သိဖို့ လိုတယ်၊ ဒါကြောင့် data_files argument ရဲ့ အစိတ်အပိုင်းအဖြစ် filename ကို ထည့်ပေးလိုက်တယ်။,"现在,这个脚本需要知道我们的数据位置, 所以我们提供文件名作为数据文件参数的一部分 。"
1200,"And the loading script also allows you to pass several keyword arguments, so here we've also specified that the separator is a semi-colon.",loading script က keyword argument များစွာကိုလည်း ပေးပို့နိုင်စေတဲ့အတွက် ဒီမှာ separator က semi-colon ဖြစ်တယ်ဆိုတာကိုလည်း သတ်မှတ်လိုက်တယ်။,"装入脚本还允许您通过几个关键词参数, 所以我们在这里还指定了分隔符是一个分号。"
1201,"And with that, we can see the dataset is loaded automatically as a DatasetDict object, with each column in the CSV file represented as a feature.",ဒါနဲ့ဆိုရင် CSV file ထဲက column တစ်ခုစီကို feature အဖြစ် ကိုယ်စားပြုတဲ့ DatasetDict object အဖြစ် dataset က အလိုအလျောက် တင်သွားတာကို မြင်နိုင်ပါတယ်။,"这样,我们可以看到数据集自动作为数据集天体装入, CSV 文件中的每列以特性表示。"
1202,"If your dataset is located on some remote server like GitHub or some other repository, the process is actually very similar.",သင့် dataset က GitHub ဒါမှမဟုတ် တခြား repository လိုမျိုး remote server တစ်ခုမှာ ရှိနေမယ်ဆိုရင် ဒီလုပ်ငန်းစဉ်က တကယ်တော့ အတူတူပါပဲ။,"如果您的数据集位于某个远程服务器上, 如 GitHub 或其他仓库, 这个过程实际上非常相似 。"
1203,The only difference is that now the data_files argument points to a URL instead of a local filepath.,တစ်ခုတည်းသော ကွာခြားချက်က data_files argument က local filepath အစား URL ကို ညွှန်ပြနေတာပဲ ဖြစ်တယ်။,"唯一的区别是,现在数据_文件参数指向一个 URL,而不是本地文件路径。"
1204,Let's now take a look at loading raw text files.,အခု raw text file တွေကို တင်တာကို ကြည့်ရအောင်။,现在让我们来看看 装入原始文本文件。
1205,"This format is quite common in NLP, and you'll typically find books and plays are just a single file with raw text inside.",ဒီပုံစံက NLP မှာ အတော်လေး အဖြစ်များပြီး စာအုပ်တွေနဲ့ ပြဇာတ်တွေကို raw text ပါဝင်တဲ့ ဖိုင်တစ်ခုတည်းအဖြစ် တွေ့ရလေ့ရှိတယ်။,"这种格式在 NLP 中相当常见, 你会发现书本和剧本只是一个文件, 里面有原始文字。"
1206,"In this example, we have a text file of Shakespeare plays that's stored on a GitHub repository.",ဒီဥပမာမှာ ကျွန်တော်တို့မှာ GitHub repository တစ်ခုမှာ သိမ်းထားတဲ့ ရှိတ်စပီးယား ပြဇာတ်တွေရဲ့ text file တစ်ခု ရှိတယ်။,"在这个例子中,我们有一个莎士比亚剧本的文本文件 存储在GitHub仓库里"
1207,"And as we did for CSV files, we simply choose the text loading script and point the data_files argument to the URL.",CSV file တွေအတွက် လုပ်ခဲ့သလိုပဲ ကျွန်တော်တို့ text loading script ကို ရွေးချယ်ပြီး data_files argument ကို URL ဆီ ညွှန်ပြလိုက်တယ်။,"正如我们对 CSV 文件所做的那样, 我们只选择装入脚本的文本, 并将数据文件参数指向 URL 。"
1208,"As you can see, these files are processed line-by-line, so empty lines in the raw text are also represented as a row in the dataset.",သင်မြင်တဲ့အတိုင်း ဒီဖိုင်တွေကို တစ်ကြောင်းချင်းစီ စီမံဆောင်ရွက်ပါတယ်၊ ဒါကြောင့် raw text ထဲက လိုင်းအလွတ်တွေကိုလည်း dataset ထဲမှာ row တစ်ခုအဖြစ် ကိုယ်စားပြုတယ်။,"如你所见,这些文件是逐行处理的,所以原始文本中的空行也作为行在数据集中表示。"
1209,"For JSON files, there are two main formats to know about.",JSON file တွေအတွက် သိထားသင့်တဲ့ ပုံစံနှစ်မျိုး ရှိတယ်။,JSON文件有两种主要格式需要了解。
1210,"The first one is called JSON Lines, where every row in the file is a separate JSON object.",ပထမတစ်ခုက JSON Lines လို့ခေါ်ပြီး ဖိုင်ထဲက row တိုင်းက သီးခြား JSON object တစ်ခု ဖြစ်တယ်။,"第一个叫做JSON线, 文件中的每一行都是 JSON 的单独对象。"
1211,"For these files, you can load the dataset by selecting the JSON loading script and pointing the data_files argument to the file or URL.",ဒီဖိုင်တွေအတွက် JSON loading script ကို ရွေးချယ်ပြီး data_files argument ကို ဖိုင် ဒါမှမဟုတ် URL ကို ညွှန်ပြခြင်းဖြင့် dataset ကို တင်နိုင်တယ်။,"对于这些文件,您可以通过选择 JSON 装入脚本并将数据文件参数指向文件或 URL 来装入数据集。"
1212,"In this example, we've loaded a JSON lines files based on Stack Exchange questions and answers.",ဒီဥပမာမှာ ကျွန်တော်တို့ Stack Exchange ရဲ့ မေးခွန်းနဲ့ အဖြေတွေပေါ် အခြေခံထားတဲ့ JSON lines file တစ်ခုကို တင်ထားတယ်။,"在这个例子中,我们加载了JSON的线条文件 以斯塔克交换问答为基础"
1213,The other format is nested JSON files.,နောက်ထပ် ပုံစံတစ်ခုက nested JSON file တွေ ဖြစ်တယ်။,另一个格式是嵌套的 JSON 文件 。
1214,"These files basically look like one huge dictionary, so the load_dataset function allow you to specify which specific key to load.",ဒီဖိုင်တွေက အခြေခံအားဖြင့် ကြီးမားတဲ့ dictionary တစ်ခုလို ဖြစ်နေတယ်၊ ဒါကြောင့် load_dataset function က ဘယ်သော့ကို တင်ရမလဲဆိုတာ သတ်မှတ်ဖို့ ခွင့်ပြုတယ်။,"这些文件基本上看起来像一个巨大的字典, 因此, load_ dataset 函数允许您指定要装入的具体密钥 。"
1215,"For example, the SQuAD dataset for question and answering has its format, and we can load it by specifying that we're interested in the data field.",ဥပမာ၊ မေးခွန်းဖြေဆိုခြင်းအတွက် SQuAD dataset မှာ သူ့ရဲ့ ပုံစံရှိတယ်၊ ပြီးတော့ ကျွန်တော်တို့က data field ကို စိတ်ဝင်စားတယ်ဆိုတာ သတ်မှတ်ပေးခြင်းဖြင့် ဒါကို တင်နိုင်တယ်။,"例如,用于问答的 SQUAD 数据集有其格式, 我们可以通过具体说明我们对数据字段感兴趣来加载它。"
1216,There is just one last thing to mention about all of these loading scripts.,ဒီ loading script တွေအားလုံးနဲ့ ပတ်သက်ပြီး ပြောစရာ နောက်ဆုံးတစ်ချက် ရှိတယ်။,关于这些装货剧本 最后还有一件事要提
1217,"You can have more than one split, you can load them by treating data files as a dictionary, and map each split name to its corresponding file.",split တစ်ခုထက် ပိုရှိနိုင်တယ်၊ data files ကို dictionary တစ်ခုလို သဘောထားပြီး split နာမည်တစ်ခုစီကို သက်ဆိုင်ရာဖိုင်နဲ့ map လုပ်ခြင်းဖြင့် ၎င်းတို့ကို တင်နိုင်တယ်။,"您可以有多个拆分, 您可以将数据文件作为字典处理, 并将每个拆分的名称映射到相应的文件 。"
1218,Everything else stays completely unchanged and you can see an example of loading both the training and validation splits for this SQuAD here.,ကျန်တာအားလုံးက လုံးဝမပြောင်းလဲဘဲ ရှိနေမှာပါ၊ ဒီမှာ SQuAD အတွက် training နဲ့ validation split နှစ်ခုလုံးကို တင်တဲ့ ဥပမာတစ်ခုကို မြင်နိုင်ပါတယ်။,"其它的一切都保持完全不变, 你可以在这里看到一个例子, 既加载训练, 也加载验证这个 SQUAD 的分解。"
1219,"And with that, you can now load datasets from your laptop, the Hugging Face Hub, or anywhere else want.",ဒီလိုဆိုရင် သင့် laptop ကနေ၊ Hugging Face Hub ကနေ ဒါမှမဟုတ် တခြားဘယ်နေရာကမဆို dataset တွေကို တင်နိုင်ပါပြီ။,"这样,你就可以从你的笔记本电脑, 抱抱脸枢纽, 或其他任何想要的地方 上载数据集了。"
1220,How to slice and dice the dataset?,Dataset ကို ဘယ်လို လှီးဖြတ်ပြီး စိတ်ကြိုက်ပြင်မလဲ။,如何切片和骰子数据集?
1221,"Most of the time, the data you work with won't be perfectly prepared for training models.",များသောအားဖြင့် မော်ဒယ်လေ့ကျင့်ဖို့ သင်အသုံးပြုတဲ့ ဒေတာတွေက အမြဲတမ်း အဆင်သင့်ဖြစ်နေမှာ မဟုတ်ဘူး။,"大部分时间,你工作的数据 都不会完全准备好 训练模型。"
1222,"In this video, we'll explore various features that the datasets library provides to clean up your data.",ဒီဗီဒီယိုမှာတော့ ဒေတာတွေကို ရှင်းလင်းဖို့ datasets library က ပေးထားတဲ့ လုပ်ဆောင်ချက် အမျိုးမျိုးကို ရှာဖွေကြည့်သွားမှာပါ။,"在这个视频中,我们将探索 数据集库提供的各种特征 来清理你的数据。"
1223,The datasets library provides several built-in methods that allow you to wrangle your data in various ways.,datasets library မှာ သင့်ဒေတာကို နည်းလမ်းမျိုးစုံနဲ့ စီမံခန့်ခွဲနိုင်တဲ့ built-in methods တွေ အများကြီး ပါရှိတယ်။,"数据集库提供几种内置方法,使您能够以各种方式对数据进行折叠。"
1224,"In this video, we'll see how you can shuffle and split your data, select the rows you're interested in, tweak the columns, and apply processing functions with the map method.",ဒီဗီဒီယိုမှာ သင့်ဒေတာကို ဘယ်လို မွှေနှောက်လဲ၊ ခွဲခြမ်းလဲ၊ စိတ်ဝင်စားတဲ့ အတန်းတွေကို ရွေးချယ်လဲ၊ column တွေကို ပြင်ဆင်လဲ၊ ပြီးတော့ map method ကို သုံးပြီး processing functions တွေကို ဘယ်လိုအသုံးချလဲဆိုတာ ကြည့်သွားမှာပါ။,"在此视频中, 我们会看到您如何洗牌和分割数据, 选择您感兴趣的行, 调整列, 并应用地图方法的处理功能 。"
1225,Let's start with shuffling.,Shuffling ကနေ စကြည့်ရအောင်။,我们从洗手间开始吧
1226,It is generally a good idea to apply shuffling to your training set so that your model doesn't learn any artificial ordering the data.,သင့်မော်ဒယ်က ဒေတာတွေရဲ့ မလိုလားအပ်တဲ့ စီစဉ်မှုတစ်ခုကို မသင်ယူမိစေဖို့အတွက် training set ကို မွှေနှောက်ပေးတာ အကောင်းဆုံးပါပဲ။,"一般来说,在你的训练中进行打乱是一个好主意,这样你的模型就不会学会任何人工订购数据。"
1227,"If you wanna shuffle the whole dataset, you can apply the appropriately named shuffle method.",dataset တစ်ခုလုံးကို မွှေချင်တယ်ဆိုရင် shuffle လို့ အမည်ပေးထားတဲ့ method ကို အသုံးပြုနိုင်ပါတယ်။,"如果您想要打乱整个数据集, 您可以应用适当命名的打乱方法 。"
1228,"You can see an example of this method in action here, where we've downloaded the training split of the squad dataset and shuffled all the rows randomly.",ဒီမှာ ဒီ method ကို အသုံးပြုထားတာကို မြင်နိုင်ပါတယ်၊ ကျွန်တော်တို့ squad dataset ရဲ့ training split ကို ဒေါင်းလုဒ်လုပ်ပြီး အတန်းအားလုံးကို ကျပန်း မွှေလိုက်တာပါ။,"您可以在这里看到这个方法的例子, 我们下载了班级数据组的培训分解, 并随机冲洗了所有行。"
1229,Another way to shuffle the data is to create random train and test splits.,ဒေတာကို မွှေနှောက်ဖို့ နောက်တစ်နည်းကတော့ ကျပန်း train နဲ့ test ခွဲခြမ်းမှုတွေ ဖန်တီးတာ ဖြစ်တယ်။,"换句话说,打乱数据的方法是创建随机列车和测试分解。"
1230,This can be useful if you have to create your own test splits from raw data.,ဒါက မူရင်းဒေတာကနေ ကိုယ်ပိုင် test ခွဲခြမ်းမှုတွေ ဖန်တီးရမယ်ဆိုရင် အသုံးဝင်တယ်။,"如果您需要从原始数据中创建自己的测试分割, 这可能有用 。"
1231,"To do this, you just apply the train_test_split method and specify how large the test split should be.",ဒါကိုလုပ်ဖို့ train_test_split method ကို အသုံးပြုပြီး test split ရဲ့ အရွယ်အစား ဘယ်လောက်ရှိသင့်တယ်ဆိုတာ သတ်မှတ်ပေးရုံပဲ။,"要做到这一点, 您只需应用 train_ test_ split 方法, 并指定测试分割的大小 。"
1232,"In this example, we specify that the test set should be 10% of the total dataset size.",ဒီဥပမာမှာ test set ဟာ စုစုပေါင်း dataset ရဲ့ ၁၀% ရှိသင့်တယ်လို့ ကျွန်တော်တို့ သတ်မှတ်လိုက်တယ်။,"在这个例子中,我们具体规定,测试组应占数据集总尺寸的10%。"
1233,You can see that the output of the train_test_split method is a DatasetDict object whose keys correspond to the new splits.,train_test_split method ရဲ့ အထွက်ကတော့ DatasetDict object တစ်ခုဖြစ်ပြီး သူ့ရဲ့ key တွေက ခွဲခြမ်းမှုအသစ်တွေနဲ့ ကိုက်ညီနေတာကို သင်မြင်နိုင်တယ်။,"您可以看到列车_ test_ split 方法的输出是一个 DatasetDict 对象, 其密钥与新拆分相对应 。"
1234,"Now that we know how to shuffle the dataset, let's take a look at returning the rows we're interested in.",dataset ကို ဘယ်လို မွှေရမလဲ သိပြီဆိုတော့ ကျွန်တော်တို့ စိတ်ဝင်စားတဲ့ အတန်းတွေကို ဘယ်လို ရယူမလဲ ကြည့်ရအောင်။,现在我们知道如何打乱数据组了 让我们来看看我们感兴趣的行的回流情况
1235,The most common way to do this is with the select method.,ဒါကို လုပ်ဆောင်ဖို့ အသုံးအများဆုံး နည်းလမ်းကတော့ select method ပဲ ဖြစ်တယ်။,最常用的方法是选择方法。
1236,"This method expects a list or a generator of the datasets indices, and will then return a new dataset object containing just those rows.",ဒီ method က dataset ရဲ့ index တွေရဲ့ စာရင်း ဒါမှမဟုတ် generator ကို လိုအပ်ပြီး အဲဒီအတန်းတွေပဲ ပါဝင်တဲ့ dataset object အသစ်တစ်ခုကို ပြန်ပေးတယ်။,"此方法预计数据集索引的列表或生成器, 然后返回仅包含这些行的新数据集对象 。"
1237,"If you wanna create a random sample of rows, you can do this by chaining the shuffle and select methods together.",ကျပန်း အတန်းနမူနာတစ်ခု ဖန်တီးချင်ရင် shuffle နဲ့ select method တွေကို တစ်ခုပြီးတစ်ခု ဆက်စပ်ပြီး လုပ်ဆောင်နိုင်တယ်။,"如果您想要创建随机的行样样本, 您可以通过将打乱过程连锁在一起并选择方法来做到这一点 。"
1238,"In this example, we've created a sample of five elements from the squad dataset.",ဒီဥပမာမှာ squad dataset ကနေ အစိတ်အပိုင်း ငါးခုပါတဲ့ နမူနာတစ်ခုကို ကျွန်တော်တို့ ဖန်တီးလိုက်တယ်။,"在这个例子中,我们从小队的数据集中 创建了五个元素的样本。"
1239,The last way to pick out specific rows in a dataset is by applying the filter method.,dataset ထဲက သီးခြားအတန်းတွေကို ရွေးချယ်ဖို့ နောက်ဆုံးနည်းလမ်းကတော့ filter method ကို အသုံးပြုတာ ဖြစ်တယ်။,在数据集中选择具体行的最后方法就是应用过滤法。
1240,This method checks whether each row fulfills some condition or not.,ဒီ method က အတန်းတစ်တန်းချင်းစီဟာ အခြေအနေတစ်ခုခုကို ပြည့်မီခြင်း ရှိမရှိ စစ်ဆေးတယ်။,此方法检查每行是否满足某些条件 。
1241,"For example, here we've created a small lambda function that checks whether the title starts with the letter L.",ဥပမာ၊ ဒီမှာ title က L စာလုံးနဲ့ စမစဘူးဆိုတာ စစ်ဆေးပေးတဲ့ lambda function လေးတစ်ခုကို ဖန်တီးလိုက်တယ်။,"例如,我们在这里创建了一个小的羊羔功能, 来检查标题是否以字母 L 开头 。"
1242,"Once we apply this function with the filter method, we get a subset of the data just containing these rows.",ဒီ function ကို filter method နဲ့ အသုံးပြုပြီးတာနဲ့ အဲဒီအတန်းတွေပဲ ပါဝင်တဲ့ ဒေတာရဲ့ အစိတ်အပိုင်းတစ်ခုကို ရရှိတယ်။,"一旦我们用过滤法应用了此函数,我们就会得到包含这些行的数据的子集。"
1243,"So far, we've been talking about the rows of a dataset, but what about the columns?",ခုချိန်ထိ dataset ရဲ့ အတန်းတွေအကြောင်း ပြောခဲ့တာ၊ ဒါဆို column တွေကော ဘယ်လိုလဲ။,"到目前为止,我们一直在讨论 数据集的行, 但列呢?"
1244,"The datasets library has two main methods for transforming columns, a rename_column method to change the name of the column and a remove_columns method to delete them.",datasets library မှာ column တွေကို ပြောင်းလဲဖို့ အဓိက methods နှစ်ခု ရှိတယ်၊ column ရဲ့ နာမည်ကို ပြောင်းဖို့ rename_column method နဲ့ ဖျက်ပစ်ဖို့ remove_columns method တို့ပဲ။,"数据集库有两种主要转换列的方法,一种是修改列名称的重命名列法,一种是删除列的删除法。"
1245,You can see examples of both these methods here.,ဒီမှာ ဒီ methods နှစ်ခုလုံးရဲ့ ဥပမာတွေကို သင်မြင်နိုင်တယ်။,您可以在此看到这两种方法的例子。
1246,"Some datasets have nested columns, and you can expand these by applying the flatten method.",Dataset တချို့မှာ အထဲမှာ ထပ်ပါနေတဲ့ column တွေရှိနိုင်ပြီး ၎င်းတို့ကို flatten method ကို အသုံးပြုပြီး ချဲ့ထွင်နိုင်တယ်။,"有些数据集已经嵌套了列, 您可以应用平坦方法来扩展这些列 。"
1247,"For example, in the squad dataset, the answers column contains a text and answer_start field.",ဥပမာအားဖြင့် squad dataset မှာ answers column မှာ text နဲ့ answer_start ကဏ္ဍတွေ ပါဝင်တယ်။,"例如,在队列数据集中,回答栏包含文本和回答_启动字段。"
1248,"If we wanna promote them to their own separate columns, we can apply flatten as shown here.",သူတို့ကို ကိုယ်ပိုင် သီးခြား column တွေအဖြစ် မြှင့်တင်ချင်တယ်ဆိုရင် ဒီမှာ ပြထားတဲ့အတိုင်း flatten ကို အသုံးပြုနိုင်တယ်။,"如果我们想把他们提升到他们自己的单独栏目, 我们可以用这里显示的平板。"
1249,"Now of course, no discussion of the datasets library would be complete without mentioning the famous map method.",အခု datasets library အကြောင်း ဆွေးနွေးတဲ့အခါ နာမည်ကြီး map method ကို မပြောရင်တော့ မပြည့်စုံဘူးပေါ့။,"当然,如果不提及著名的地图方法,任何关于数据集图书馆的讨论都不会是完整的。"
1250,This method applies a custom processing function to each row in the dataset.,ဒီ method က dataset ထဲက အတန်းတစ်ခုချင်းစီကို စိတ်ကြိုက် ပြုပြင်ပြောင်းလဲတဲ့ function တစ်ခုကို အသုံးချတယ်။,此方法对数据集中的每行应用自定义处理函数。
1251,"For example, here we first define a lowercase title function, that simply lowercases the text in the title column.",ဥပမာ၊ ဒီမှာ ကျွန်တော်တို့ title column ထဲက စာသားကို အက္ခရာအသေးချည်း ပြောင်းပေးတဲ့ lowercase title function တစ်ခုကို အရင်ဆုံး သတ်မှတ်လိုက်တယ်။,"例如,在这里我们首先定义一个小写标题函数, 只需小写标题栏中的文字。"
1252,"And then we feed that function to the map method, and voila, we now have lowercase titles.",ပြီးရင် အဲဒီ function ကို map method ဆီ ပို့လိုက်တာနဲ့ စာသားအသေးခေါင်းစဉ်တွေကို ရပါပြီ။,"然后我们把这个功能喂到地图方法, 和voila,我们现在有小写标题。"
1253,The map method can also be used to feed batches of rows to the processing function.,map method ကို processing function ကို အတန်းအစုလိုက် ပို့ပေးဖို့လည်း အသုံးပြုနိုင်တယ်။,地图方法也可以用来将各行的批次输入处理功能。
1254,"This is especially useful for tokenization where the tokenizer is backed by the Tokenizers library, and they can use fast multithreading to process batches in parallel.",ဒါက Tokenizers library ကနေ ပံ့ပိုးထားတဲ့ tokenization အတွက် အထူးအသုံးဝင်ပြီး သူတို့ဟာ multithreading ကို သုံးပြီး batch တွေကို တစ်ပြိုင်နက်တည်း အမြန် စီမံဆောင်ရွက်နိုင်တယ်။,"这对于象征性化特别有用,因为代号器由调制器库支持,它们可以使用快速多读方式平行处理批次。"
1255,Datasets and DataFrames equals love.,Datasets နဲ့ DataFrames ဟာ ချစ်ခြင်းပဲ။,数据集和数据框架等于爱。
1256,"Although the processing functions of the Datasets library will cover most of the cases needed to train a model, there are times when you'll need to switch to a library like Pandas to access more powerful features or high level APIs for visualization.",Datasets library ရဲ့ processing function တွေက မော်ဒယ်တစ်ခု လေ့ကျင့်ဖို့ လိုအပ်တဲ့ ကိစ္စအများစုကို ဖြေရှင်းပေးနိုင်ပေမယ့် ပိုမို အစွမ်းထက်တဲ့ လုပ်ဆောင်ချက်တွေ ဒါမှမဟုတ် မြင်ကွင်းဖော်ပြဖို့အတွက် အဆင့်မြင့် APIs တွေကို ရယူဖို့ Pandas လို library တွေကို ပြောင်းသုံးရမယ့် အချိန်တွေ ရှိပါတယ်။,"虽然数据集库的处理功能将涵盖培训模型所需的大多数案例, 但有时你需要转而使用像熊猫这样的图书馆, 访问更强大的功能或高水平的可视化API。"
1257,"Fortunately, the Datasets library is designed to be interoperable with libraries like Pandas, as well as NumPy, PyTorch, TensorFlow and JAX.","ကံကောင်းစွာနဲ့ပဲ Datasets library ကို Pandas, NumPy, PyTorch, TensorFlow နဲ့ JAX လို library တွေနဲ့ အတူတကွ အလုပ်လုပ်နိုင်အောင် ဒီဇိုင်းဆွဲထားတာပါ။","幸运的是,数据集图书馆的设计能够与Pandas、NumPy、PyTorrch、TensorFlow和JAX等图书馆相互操作。"
1258,"In this video, we'll take a look at how we can quickly switch our data to Pandas DataFrames and back.",ဒီဗီဒီယိုမှာတော့ ကျွန်တော်တို့ရဲ့ ဒေတာတွေကို Pandas DataFrames တွေဆီ အမြန်ဘယ်လိုပြောင်းလဲပြီး ပြန်ယူရမလဲဆိုတာ ကြည့်သွားမှာပါ။,"在这个视频中,我们将研究我们如何 快速转换我们的数据 到熊猫DataFrames和背面。"
1259,"As an example, let's suppose we're analyzing Supreme Court cases from Switzerland.",ဥပမာအနေနဲ့ ဆွစ်ဇာလန်ရဲ့ တရားရုံးချုပ် အမှုအခင်းတွေကို ကျွန်တော်တို့ ခွဲခြမ်းစိတ်ဖြာနေတယ်လို့ မှတ်ယူလိုက်ရအောင်။,"举例来说,假设我们在分析瑞士最高法院的案件"
1260,"As usual, we download our dataset from the hub using the load_dataset function.",ပုံမှန်အတိုင်းပဲ load_dataset function ကို သုံးပြီး hub ကနေ ကျွန်တော်တို့ရဲ့ dataset ကို ဒေါင်းလုဒ်လုပ်တယ်။,"和往常一样,我们用负载数据元件功能从中枢下载我们的数据集。"
1261,And you can see that the first element of the training set is an ordinary Python dictionary with various fields of interest.,ပြီးတော့ training set ရဲ့ ပထမဆုံး အစိတ်အပိုင်းက စိတ်ဝင်စားစရာ အချက်အလက်တွေပါတဲ့ ရိုးရှင်းတဲ့ Python dictionary တစ်ခု ဖြစ်နေတာကို မြင်နိုင်တယ်။,"你可以看到训练组的第一个元素 是一本普通的 Python 字典, 有着各种感兴趣的领域。"
1262,"Now, suppose that before we train any models, we'd like to explore the data a bit.",အခု မော်ဒယ်တွေ လေ့ကျင့်ဖို့ မလုပ်ခင် ဒေတာကို နည်းနည်း စူးစမ်းချင်တယ်လို့ ယူဆလိုက်ရအောင်။,"现在,假设在我们训练任何模型之前, 我们想探索一下数据。"
1263,"For example, we might be interested in knowing which legal areas are the most common or we might wanna know how the languages are distributed across regions.",ဥပမာအားဖြင့် ဘယ်ဥပဒေနယ်ပယ်တွေက အဖြစ်အများဆုံးလဲ ဒါမှမဟုတ် ဒေသအလိုက် ဘာသာစကားတွေ ဘယ်လို ဖြန့်ဝေထားလဲဆိုတာ သိချင်တာမျိုး ဖြစ်နိုင်တယ်။,"例如,我们可能有兴趣了解哪些法律领域最为常见,或者我们可能想知道这些语言如何在各区域间传播。"
1264,"Answering these questions with the native Arrow format isn't easy, but we can quickly switch to Pandas to get our answers.",ဒီမေးခွန်းတွေကို မူရင်း Arrow format နဲ့ ဖြေဖို့ မလွယ်ပေမယ့် အဖြေတွေရဖို့ Pandas ကို အမြန်ပြောင်းသုံးနိုင်ပါတယ်။,"以本地箭头格式回答这些问题并不容易, 但我们可以快速切换到熊猫,以获得答案。"
1265,"The way this works is that by using the set_format method, we will change the output format of the dataset from Python dictionaries to Pandas DataFrames.",ဒါက set_format method ကို သုံးပြီး dataset ရဲ့ အထွက် format ကို Python dictionaries ကနေ Pandas DataFrames တွေဆီ ပြောင်းလဲခြင်းဖြင့် အလုပ်လုပ်ပါတယ်။,"这样做的方式是,通过使用设定格式方法,我们将改变数据集的输出格式,从Python字典改为Pandas DataFrames。"
1266,"As you can see in this example, each row in the dataset is represented as a DataFrame, so we can slice the whole dataset to get a single DataFrame of the corpus.",ဒီဥပမာမှာ သင်မြင်တဲ့အတိုင်း dataset ထဲက အတန်းတစ်ခုစီကို DataFrame အဖြစ် ကိုယ်စားပြုထားတဲ့အတွက် corpus ရဲ့ DataFrame တစ်ခုတည်းကို ရဖို့ dataset တစ်ခုလုံးကို လှီးဖြတ်ယူနိုင်တယ်။,"正如您在此示例中看到的那样, 数据集中的每行都是以 DataFrame 表示的, 所以我们可以切除整个数据集, 以获得一个单一的 DataFrame 。"
1267,"The way this works under the hood, is that the datasets library changes the magic __getitem__ method of the dataset.",အတွင်းပိုင်းမှာတော့ datasets library က dataset ရဲ့ မှော်ဆန်တဲ့ __getitem__ method ကို ပြောင်းလဲခြင်းဖြင့် အလုပ်လုပ်ပါတယ်။,数据库库改变了数据集的魔力 - Getitect_ 方法。
1268,The __getitem__ method is a special method for Python containers that allows you to specify how indexing works.,__getitem__ method ဟာ Python container တွေအတွက် အထူး method တစ်ခုဖြစ်ပြီး indexing ဘယ်လိုလုပ်လဲဆိုတာ သတ်မှတ်ပေးဖို့ ခွင့်ပြုတယ်။,"_getject_方法是Python容器的一种特殊方法,使您能够具体说明索引如何工作。"
1269,"In this case, the __getitem__ method of the raw dataset starts off by returning a Python dictionary and then after applying set_format, we change __getitem__ to return DataFrames instead.",ဒီကိစ္စမှာ မူရင်း dataset ရဲ့ __getitem__ method က Python dictionary တစ်ခုကို ပြန်ပေးပြီး set_format ကို အသုံးပြုပြီးနောက် __getitem__ ကို DataFrames တွေ ပြန်ပေးဖို့ ပြောင်းလဲလိုက်တာ ဖြစ်တယ်။,"在此情况下, 原始数据集的 __ getitem_ 方法从返回 Python 字典开始, 然后在应用 set_ format 后, 我们更改 __ getitem_ 来返回 DataFrames 。"
1270,The Datasets library also provides a to_pandas method if you wanna do the format conversion and slicing of the dataset in one go.,format ပြောင်းလဲခြင်းနဲ့ dataset ကို လှီးဖြတ်ခြင်းကို တစ်ကြိမ်တည်း လုပ်ချင်တယ်ဆိုရင် Datasets library က to_pandas method ကိုလည်း ပေးထားတယ်။,"数据集库还提供一种 to_pandas 方法,如果您想要对数据集进行格式转换和切除,请使用该方法。"
1271,"And once you have a DataFrame, you can find the answers to all sorts of complex questions or make plots with your favorite visualization library.",DataFrame တစ်ခု ရပြီဆိုတာနဲ့ ရှုပ်ထွေးတဲ့ မေးခွန်းမျိုးစုံရဲ့ အဖြေတွေကို ရှာနိုင်ပါတယ်၊ ဒါမှမဟုတ် သင်အကြိုက်ဆုံး visualization library နဲ့ ပုံတွေ ဆွဲနိုင်ပါတယ်။,"一旦有了DataFrame, 你就可以找到各种复杂问题的答案, 或者与你最喜欢的可视化图书馆绘制图纸。"
1272,"The only thing to remember is that once you're done with your Pandas analysis, you should reset the output format back to Arrow tables.",တစ်ခုပဲ မှတ်ထားဖို့က Pandas analysis ပြီးသွားပြီဆိုရင် output format ကို Arrow tables တွေဆီ ပြန်ပြီး reset လုပ်သင့်တယ်။,"唯一要记住的是,一旦你完成了对熊猫的分析, 你应该将输出格式重置回到箭头表格。"
1273,"If you don't, you can run into problems if you try to tokenize your text because it is no longer represented as strings in a dictionary.",အကယ်၍ မလုပ်ဘူးဆိုရင် သင့်စာသားကို tokenize လုပ်ဖို့ ကြိုးစားတဲ့အခါ ပြဿနာတွေ ကြုံရနိုင်တယ်၊ ဘာလို့လဲဆိုတော့ သူက dictionary ထဲမှာ string တွေအဖြစ် ကိုယ်စားပြုခြင်း မရှိတော့ဘူးလေ။,"如果您不这样做, 如果您试图将您的文本标记为文字, 因为它不再在字典中作为字符串来表达, 就会遇到问题 。"
1274,By resetting the output format we get back Arrow tables and we can tokenize without problem.,output format ကို reset လုပ်လိုက်ခြင်းအားဖြင့် Arrow tables တွေကို ပြန်ရပြီး ပြဿနာမရှိဘဲ tokenize လုပ်နိုင်ပါတယ်။,"通过重设输出格式, 我们可以得到向箭头表格, 并且我们可以无问题地象征性化 。"
1275,Saving and reloading a dataset.,Dataset တစ်ခုကို သိမ်းဆည်းခြင်းနဲ့ ပြန်တင်ခြင်း။,保存和重新装入数据集。
1276,"In this video, we'll take a look at saving a dataset in various formats and explore the ways to reload the saved data.",ဒီဗီဒီယိုမှာတော့ dataset တစ်ခုကို ပုံစံအမျိုးမျိုးနဲ့ သိမ်းဆည်းတာကို ကြည့်ပြီး သိမ်းထားတဲ့ ဒေတာတွေကို ဘယ်လို ပြန်တင်ရမလဲဆိုတာ ရှာဖွေသွားမှာပါ။,"在这个视频中,我们将研究保存不同格式的数据集, 并探索重新装入保存的数据的方法。"
1277,"When you download a dataset, the processing scripts and data are stored locally on your computer.",သင် dataset တစ်ခု ဒေါင်းလုဒ်လုပ်တဲ့အခါ processing scripts တွေနဲ့ ဒေတာတွေကို သင့်ကွန်ပျူတာမှာ local အနေနဲ့ သိမ်းဆည်းထားတယ်။,"当下载数据集时,处理脚本和数据将存储在本地计算机上。"
1278,The cache allows the Datasets library to avoid re-downloading or processing the entire dataset every time you use it.,Cache က Datasets library ကို dataset တစ်ခုလုံးကို အကြိမ်တိုင်း ပြန်ဒေါင်းလုဒ်လုပ်တာ ဒါမှမဟုတ် ပြန်စီမံဆောင်ရွက်တာမျိုးကို ရှောင်ရှားနိုင်စေတယ်။,缓存允许数据集库避免每次使用它时重新下载或处理整个数据集。
1279,"Now, the data is stored in the form of Arrow tables whose location can be found by accessing the dataset's cache_files attribute.",ဒေတာတွေကို Arrow tables ပုံစံနဲ့ သိမ်းဆည်းထားပြီး ၎င်းတို့ရဲ့ တည်နေရာကို dataset ရဲ့ cache_files attribute ကို ဝင်ရောက်ကြည့်ရှုခြင်းဖြင့် ရှာဖွေနိုင်တယ်။,"现在,数据以箭头表格的形式存储,通过访问该数据集的缓存文件属性可以找到该表格的位置。"
1280,"In this example, we've downloaded the allocine dataset from the Hugging Face Hub, and you can see that there are three Arrow files stored in the cache, one for each split.",ဒီဥပမာမှာ Hugging Face Hub ကနေ allocine dataset ကို ဒေါင်းလုဒ်လုပ်ခဲ့ပြီး split တစ်ခုစီအတွက် cache ထဲမှာ Arrow ဖိုင် သုံးခု သိမ်းဆည်းထားတာကို သင်မြင်နိုင်တယ်။,"在这个例子中,我们已经从 抱抱脸枢纽下载了阿洛辛数据集, 你可以看到在缓存中存储了三个箭头文件, 每个分割一个。"
1281,"But in many cases, you'll wanna save your dataset in a different location or format.",ဒါပေမယ့် ကိစ္စတော်တော်များများမှာ သင့် dataset ကို တခြားနေရာ ဒါမှမဟုတ် format နဲ့ သိမ်းဆည်းချင်မှာပါ။,"但在许多情况下,你会想要保存你的数据集 以不同的地点或格式。"
1282,"As shown in the table, the Datasets library provides four main functions to achieve this.",ဇယားမှာ ပြထားတဲ့အတိုင်း Datasets library က ဒါကို အောင်မြင်အောင် လုပ်ဆောင်ဖို့ အဓိက function လေးခုကို ပေးထားတယ်။,"如表所示,数据集图书馆为实现这一目的提供四项主要功能。"
1283,"Now, you're probably already familiar with the CSV and JSON formats, both of which are great if you just wanna quickly save a small or medium-sized dataset.",CSV နဲ့ JSON format တွေနဲ့တော့ သင်ရင်းနှီးပြီးသားဖြစ်မှာပါ၊ ဒီနှစ်ခုစလုံးက သေးငယ်တဲ့ ဒါမှမဟုတ် အလယ်အလတ် အရွယ်အစားရှိတဲ့ dataset တစ်ခုကို အမြန်သိမ်းချင်ရင် ကောင်းပါတယ်။,"现在,你可能已经熟悉CSV和JSON格式了, 这两种格式都很好, 如果你想要迅速保存一个中小的数据集。"
1284,"But if your dataset is huge, you'll wanna save it in either the Arrow or Parquet formats.",ဒါပေမယ့် သင့် dataset က အရမ်းကြီးတယ်ဆိုရင် Arrow ဒါမှမဟုတ် Parquet format တွေနဲ့ သိမ်းဆည်းချင်ပါလိမ့်မယ်။,"但如果你的数据集是巨大的, 你会想要保存它 无论是箭头格式或Parquet格式。"
1285,Arrow files are great if you plan to reload or process the data in the near future.,Arrow files တွေက နီးစပ်တဲ့ အနာဂတ်မှာ ဒေတာကို ပြန်တင်ဖို့ ဒါမှမဟုတ် စီမံဆောင်ရွက်ဖို့ စီစဉ်ထားရင် အကောင်းဆုံးပါပဲ။,"如果您计划在近期内重新装入或处理数据, 箭头文件是非常好的 。"
1286,While Parquet files are designed for long-term storage and are very space-efficient.,Parquet files တွေကတော့ ရေရှည် သိုလှောင်မှုအတွက် ဒီဇိုင်းထုတ်ထားပြီး နေရာအလွန်သက်သာတယ်။,"Parquet文件是为长期储存而设计的,而且非常具有空间效率。"
1287,Let's take a closer look at each format.,Format တစ်ခုစီကို ပိုပြီး နီးနီးကပ်ကပ် ကြည့်ရအောင်။,让我们仔细看一看每种格式。
1288,"To save a dataset or a dataset_dict object in the Arrow format, we use the save_to_disk function.",dataset ဒါမှမဟုတ် dataset_dict object ကို Arrow format နဲ့ သိမ်းဆည်းဖို့ save_to_disk function ကို သုံးတယ်။,"要在箭头格式中保存数据集或数据集_dict 对象,我们使用 save_to_disk 函数。"
1289,"As you can see in this example, we simply provide the path we wish to save the data to and the Datasets library will automatically create a directory for each split to store the Arrow table and the metadata.",ဒီဥပမာမှာ သင်မြင်တဲ့အတိုင်း ဒေတာကို သိမ်းဆည်းချင်တဲ့ လမ်းကြောင်းကို ပေးလိုက်ရုံပါပဲ၊ ပြီးတော့ Datasets library က Arrow table နဲ့ metadata တွေကို သိမ်းဆည်းဖို့အတွက် split တစ်ခုစီအတွက် directory တစ်ခုကို အလိုအလျောက် ဖန်တီးပေးလိမ့်မယ်။,"您可以在此示例中看到, 我们只是提供我们想要保存数据的路径, 而数据集库将自动为每个拆分创建目录, 以存储箭头表格和元数据 。"
1290,"Since we're dealing with a dataset_dict object that has multiple splits, this information is also stored in the dataset_dict.json file.",ကျွန်တော်တို့က splits များစွာပါဝင်တဲ့ dataset_dict object ကို ကိုင်တွယ်နေတာကြောင့် ဒီအချက်အလက်တွေကို dataset_dict.json ဖိုင်ထဲမှာလည်း သိမ်းထားတယ်။,"由于我们处理的是一个具有多重分割的数据集_dict 对象, 此信息也存储在数据集_ dict.json 文件中 。"
1291,"Now, when we wanna reload the Arrow datasets, we use the load_from_disk function.",အခု Arrow datasets တွေကို ပြန်တင်ချင်တဲ့အခါ load_from_disk function ကို သုံးတယ်။,"现在,当我们想要重新装入箭头数据集时, 我们使用从_ disk 函数的负载功能 。"
1292,"We simply pass the path of our dataset directory, and voila, the original dataset is recovered.",dataset directory ရဲ့ လမ်းကြောင်းကို ပေးလိုက်ရုံပါပဲ၊ ပြီးတော့ မူရင်း dataset ကို ပြန်ရရှိသွားပြီ။,"我们只是通过我们的数据集目录路径, 和voila, 原始的数据集被恢复。"
1293,"If we wanna save our dataset in the CSV format, we use the to_csv function.",dataset ကို CSV format နဲ့ သိမ်းဆည်းချင်ရင် to_csv function ကို သုံးတယ်။,"如果我们想要以 CSV 格式保存数据集, 我们使用 to_csv 函数 。"
1294,"In this case, you'll need to loop over the splits of the dataset_dict object and save each dataset as an individual CSV file.",ဒီကိစ္စမှာ dataset_dict object ရဲ့ splits တွေပေါ်မှာ loop ပတ်ပြီး dataset တစ်ခုစီကို သီးခြား CSV ဖိုင်တစ်ခုအဖြစ် သိမ်းဆည်းဖို့ လိုအပ်ပါလိမ့်မယ်။,"在此情况下, 您需要环绕数据集_ dict 对象的分割, 并将每个数据集保存为单个 CSV 文件 。"
1295,"Since the to_csv function is based on the one from Pandas, you can pass keyword arguments to configure the output.",to_csv function ဟာ Pandas က function ပေါ် အခြေခံထားတာကြောင့် အထွက်ကို စီစဉ်သတ်မှတ်ဖို့ keyword argument တွေကို ပေးပို့နိုင်တယ်။,"由于 to_csv 函数基于来自 Pandas 的函数, 您可以通过关键词参数来配置输出 。"
1296,"In this example, we've set the index argument to None to prevent the dataset's index column from being included in the CSV files.",ဒီဥပမာမှာ dataset ရဲ့ index column ကို CSV ဖိုင်တွေထဲ မထည့်သွင်းဖို့ index argument ကို None သတ်မှတ်လိုက်တယ်။,"在此示例中, 我们将索引参数设置为“ 无” , 以防止将数据集的索引列纳入 CSV 文件 。"
1297,"To reload our CSV files, we just then use the familiar load_dataset function together with the CSV loading script and the data_files argument, which specifies the file names associated with each split.",CSV ဖိုင်တွေကို ပြန်တင်ဖို့အတွက် ရင်းနှီးတဲ့ load_dataset function ကို CSV loading script နဲ့ data_files argument တို့နဲ့အတူ သုံးတယ်၊ data_files က split တစ်ခုစီနဲ့ ဆက်စပ်နေတဲ့ ဖိုင်နာမည်တွေကို သတ်မှတ်ပေးတယ်။,"要重新装入我们的 CSV 文件, 我们只需要使用熟悉的 load_ dataset 函数, 加上 CSV 装入脚本和数据文件参数, 以指定每个拆分相关的文件名称 。"
1298,"As you can see in this example, by providing all the splits and their file names, we've recovered the original dataset_dict object.",ဒီဥပမာမှာ သင်မြင်တဲ့အတိုင်း splits တွေအားလုံးနဲ့ သူတို့ရဲ့ ဖိုင်နာမည်တွေကို ပေးလိုက်ခြင်းအားဖြင့် မူရင်း dataset_dict object ကို ပြန်ရလိုက်တယ်။,"正如您在此示例中看到的那样, 通过提供所有拆分及其文件名称, 我们找到了原始的数据集_ dict 对象 。"
1299,"Now, to save a dataset in the JSON or Parquet formats is very similar to the CSV case.",dataset တစ်ခုကို JSON ဒါမှမဟုတ် Parquet format တွေနဲ့ သိမ်းဆည်းတာက CSV ကိစ္စနဲ့ အလွန်ဆင်တူတယ်။,"现在,要以 JSON 或 Parquet 格式保存数据集, 与 CSV 案例非常相似 。"
1300,We use either the to_json function for JSON files or the to_parquet function for Parquet ones.,JSON ဖိုင်တွေအတွက် to_json function ဒါမှမဟုတ် Parquet ဖိုင်တွေအတွက် to_parquet function ကို သုံးတယ်။,"我们使用 TO_json 函数作为 JSON 文件,或者使用 parquet 函数作为 Parquet 文件 。"
1301,"And just like the CSV case, we need to loop over the splits to save each one as an individual file.",CSV ကိစ္စလိုပဲ တစ်ခုချင်းစီကို သီးခြားဖိုင်အဖြစ် သိမ်းဖို့ splits တွေပေါ်မှာ loop ပတ်ဖို့ လိုတယ်။,和CSV案件一样 我们需要绕过分割线 将每个部分保存为单个文件
1302,"And once our datasets are saved as JSON or Parquet files, we can reload them again with the appropriate script in the load_dataset function.",ပြီးတော့ ကျွန်တော်တို့ရဲ့ datasets တွေကို JSON ဒါမှမဟုတ် Parquet ဖိုင်တွေအဖြစ် သိမ်းပြီးတာနဲ့ load_dataset function မှာ သင့်တော်တဲ့ script နဲ့ သူတို့ကို ထပ်မံ ပြန်တင်နိုင်တယ်။,"一旦我们的数据集被保存为 JSON 或 Parquet 文件, 我们就可以在负载数据设置函数中用合适的脚本重新装入它们 。"
1303,And we just need to provide a data_files argument as before.,အရင်လိုပဲ data_files argument ကို ပေးဖို့ပဲ လိုတယ်။,我们只需要像以前一样提供数据文件的争论。
1304,This example shows how we can reload our save datasets in either format.,ဒီဥပမာက သိမ်းထားတဲ့ datasets တွေကို ဘယ် format နဲ့မဆို ဘယ်လို ပြန်တင်နိုင်လဲဆိုတာ ပြသတယ်။,此示例显示我们如何以任一格式重新装入保存的数据集 。
1305,"And with that, you now know how to save your datasets in various formats.",ဒါနဲ့အတူ သင့် datasets တွေကို ပုံစံအမျိုးမျိုးနဲ့ ဘယ်လိုသိမ်းရမလဲဆိုတာ သင်သိသွားပြီ။,"这样,你现在知道如何以不同格式保存数据集了。"
1306,Memory mapping and streaming.,Memory Mapping နဲ့ Streaming။,记忆绘图和流传。
1307,"In this video, we'll take a look at two core features of the Datasets library that allow you to load and process huge datasets without blowing up your laptop's CPU.",ဒီဗီဒီယိုမှာတော့ Datasets library ရဲ့ အဓိက လုပ်ဆောင်ချက်နှစ်ခုကို ကြည့်သွားမှာပါ၊ အဲဒါတွေက သင့် laptop ရဲ့ CPU ကို မလောင်ကျွမ်းစေဘဲ ကြီးမားတဲ့ datasets တွေကို တင်ပြီး စီမံဆောင်ရွက်နိုင်စေတယ်။,"在这段视频中,我们将查看 数据集库的两个核心特征, 使你能够装载和处理巨大的数据集, 而不炸掉你的笔记本电脑的CPU。"
1308,"Nowadays, it's not uncommon to find yourself working with multi-GB sized datasets, especially if you're planning to pretrain a transformer like BERT or GPT-2 from scratch.",ဒီဘက်ခေတ်မှာ multi-GB အရွယ်အစားရှိတဲ့ datasets တွေနဲ့ အလုပ်လုပ်နေရတာ သိပ်မဆန်းတော့ပါဘူး၊ အထူးသဖြင့် BERT ဒါမှမဟုတ် GPT-2 လို transformer ကို အစကနေ ကြိုတင်လေ့ကျင့်ဖို့ စီစဉ်နေတယ်ဆိုရင်ပေါ့။,特别是如果你打算从头到尾对BERT或GPT-2等变压器进行预演的话。
1309,"In these cases, even loading the data can be a challenge.",ဒီလိုကိစ္စတွေမှာ ဒေတာကို တင်တာတောင် စိန်ခေါ်မှုတစ်ခု ဖြစ်နိုင်တယ်။,"在这些情况下,即使加载数据也可能是一个挑战。"
1310,"For example, the c4 corpus used to pretrain T5 consists of over two terabytes of data.",ဥပမာအားဖြင့် T5 ကို ကြိုတင်လေ့ကျင့်ဖို့ အသုံးပြုတဲ့ c4 corpus မှာ data နှစ် terabyte ကျော် ပါဝင်တယ်။,"例如,用于T5前列的C4物质由两兆字节以上的数据组成。"
1311,"To handle these large datasets, the Datasets library is built on two core features: the Apache Arrow format and a streaming API.",ဒီလို ကြီးမားတဲ့ datasets တွေကို ကိုင်တွယ်ဖို့အတွက် Datasets library ဟာ အဓိက လုပ်ဆောင်ချက်နှစ်ခုပေါ်မှာ တည်ဆောက်ထားတယ်- Apache Arrow format နဲ့ streaming API ပဲ ဖြစ်တယ်။,"为了处理这些大型数据集,数据集库以两个核心特征为基础:阿帕奇箭头格式和流动API。"
1312,Arrow is designed for high-performance data processing and represents each table-like dataset with a column-based format.,Arrow က စွမ်းဆောင်ရည်မြင့် ဒေတာ စီမံဆောင်ရွက်မှုအတွက် ဒီဇိုင်းထုတ်ထားပြီး table လို datasets တစ်ခုစီကို column အခြေပြု format နဲ့ ကိုယ်စားပြုတယ်။,"箭头是为高性能数据处理设计的,以列格式代表每套表格相似的数据集。"
1313,"As you can see in this example, column-based formats group the elements of a table in consecutive blocks of RAM and this unlocks fast access and processing.",ဒီဥပမာမှာ မြင်ရတဲ့အတိုင်း column အခြေပြု format တွေက table တစ်ခုရဲ့ အစိတ်အပိုင်းတွေကို RAM ရဲ့ ဆက်တိုက် တည်ရှိနေတဲ့ blocks တွေထဲ စုစည်းပေးပြီး ဒါက အမြန်ဝင်ရောက်ခြင်းနဲ့ စီမံဆောင်ရွက်ခြင်းကို ဖြစ်စေတယ်။,"您可以在此示例中看到,以列为基础的格式将表格的元素分组为内存的连续区块,这样可以打开快速存取和处理。"
1314,Arrow is great at processing data at any scale but some datasets are so large that you can't even fit them on your hard disk.,Arrow က ဘယ်အတိုင်းအတာပဲဖြစ်ဖြစ် ဒေတာ စီမံဆောင်ရွက်ရာမှာ အရမ်းကောင်းပါတယ်၊ ဒါပေမယ့် datasets တချို့က အရမ်းကြီးလွန်းလို့ သင့် hard disk မှာတောင် ထည့်မရနိုင်ဘူး။,"箭头在任何规模的数据处理方面都很出色,但有些数据集非常庞大,甚至无法将其安装在硬盘上。"
1315,"So for these cases, the Datasets library provides a streaming API that allows you to progressively download the raw data one element at a time.",ဒီလိုကိစ္စတွေအတွက် Datasets library က streaming API ကို ပေးထားပြီး ၎င်းက မူရင်းဒေတာကို တစ်ကြိမ်ကို အစိတ်အပိုင်းတစ်ခုချင်းစီ တိုးတက်စွာ ဒေါင်းလုဒ်လုပ်နိုင်စေတယ်။,"因此,对于这些案例, 数据集库提供了一条流式 API , 使您可以一次逐步下载原始数据一个元素 。"
1316,The result is a special object called an IterableDataset that we'll see in more detail soon.,ရလဒ်ကတော့ IterableDataset လို့ခေါ်တဲ့ အထူး object တစ်ခုဖြစ်ပြီး အသေးစိတ်ကို မကြာခင် ကြည့်ရမှာပါ။,"结果是一个特殊对象,叫做“易用数据集”, 我们将很快看到更详细的内容。"
1317,Let's start by looking at why Arrow is so powerful.,Arrow က ဘာလို့ ဒီလောက် အစွမ်းထက်လဲဆိုတာ ကြည့်ရင်း စလိုက်ရအောင်။,让我们先看看为什么箭头这么强大
1318,The first feature is that it treats every dataset as a memory-mapped file.,ပထမဆုံး အင်္ဂါရပ်ကတော့ dataset တိုင်းကို memory-mapped file အဖြစ် သတ်မှတ်တာပဲ။,"第一个特征是,它把每个数据集都当作一个内存调制文件。"
1319,"Now, memory mapping is a mechanism that maps a portion of a file or an entire file and disc to a chunk of virtual memory.",Memory mapping ဆိုတာက ဖိုင်တစ်ခုရဲ့ အစိတ်အပိုင်း ဒါမှမဟုတ် ဖိုင်တစ်ခုလုံးကို virtual memory တစ်ခုဆီကို မြေပုံဆွဲပေးတဲ့ နည်းလမ်းဖြစ်တယ်။,"现在,记忆映射是一个机制 将一个文件的一部分或整个文件 和盘片 映射成一个部分的虚拟内存。"
1320,This allows applications to access segments of an extremely large file without having to read the whole file into memory first.,ဒါက applications တွေကို ဖိုင်တစ်ခုလုံးကို memory ထဲ အရင်မဖတ်ဘဲ အလွန်ကြီးမားတဲ့ ဖိုင်တစ်ခုရဲ့ အပိုင်းအစတွေကို ဝင်ရောက်ကြည့်ရှုနိုင်စေတယ်။,"这样应用程序就可以访问一个极大文件的部分, 而不必先读取整个文件到内存 。"
1321,Another cool feature of Arrow's memory mapping capabilities is that it allows multiple processes to work with the same large dataset without moving it or copying it in any way.,Arrow ရဲ့ memory mapping စွမ်းရည်တွေရဲ့ နောက်ထပ် မိုက်တဲ့ အင်္ဂါရပ်တစ်ခုကတော့ လုပ်ငန်းစဉ်များစွာကို တူညီတဲ့ ကြီးမားတဲ့ dataset နဲ့ အလုပ်လုပ်နိုင်စေပြီး ဒေတာကို ရွှေ့တာ ဒါမှမဟုတ် ကူးယူတာ လုံးဝ မလုပ်ရဘူး။,"箭头内存映射能力的另一个很酷的特征是,它允许多个过程使用同一个大数据集工作,而不移动或以任何方式复制。"
1322,This zero-copy feature of Arrow makes it extremely fast for iterating over a dataset.,Arrow ရဲ့ zero-copy လုပ်ဆောင်ချက်က dataset တစ်ခုပေါ်မှာ ပြန်လုပ်ခြင်းအတွက် အလွန်မြန်ဆန်စေတယ်။,箭头的这种零副本特征使得它极快地在数据集上循环。
1323,"And this example, you can see that we iterate over 15 million rows in about a minute just using a standard laptop.",ဒီဥပမာမှာ သင်တွေ့နိုင်တာက ရိုးရိုး laptop တစ်လုံးကို သုံးပြီး အတန်း ၁၅ သန်းကျော်ကို တစ်မိနစ်လောက်အတွင်းမှာပဲ ပြန်လုပ်နိုင်တာကို တွေ့ရတယ်။,"这个例子,你可以看到,我们大约在一分钟内 使用一台标准的笔记本电脑 翻转了1500万行。"
1324,That's not too bad at all.,လုံးဝ မဆိုးဘူးပေါ့။,这还不算太糟
1325,Let's now take a look at how we can stream a large dataset.,အခု ကြီးမားတဲ့ dataset တစ်ခုကို ဘယ်လို stream လုပ်နိုင်လဲဆိုတာ ကြည့်ရအောင်။,现在让我们看看我们怎样才能流出一个庞大的数据集。
1326,The only change you need to make is to set the streaming=True argument in the load_dataset() function.,သင်လုပ်ရမယ့် ပြောင်းလဲမှုတစ်ခုတည်းက load_dataset() function မှာ streaming=True argument ကို သတ်မှတ်ဖို့ပဲ။,您唯一需要做的修改就是在load_ dataset () 函数中设置串流=True 参数 。
1327,This will return a special IterableDataset object which is a bit different to the Dataset objects we've seen in other videos.,ဒါက အရင်ဗီဒီယိုတွေမှာ မြင်ခဲ့ရတဲ့ Dataset object တွေနဲ့ နည်းနည်းကွာခြားတဲ့ အထူး IterableDataset object ကို ပြန်ပေးလိမ့်မယ်။,"这将返回一个特殊的易用数据元件对象, 它与其他视频中看到的数据集对象有所不同 。"
1328,"This object is an iterable, which means we can't index it to access elements, but instead we iterate on it using the iter and next methods.",ဒီ object ဟာ iterable တစ်ခု ဖြစ်တယ်၊ ဆိုလိုတာက အစိတ်အပိုင်းတွေကို ဝင်ရောက်ဖို့ index မလုပ်နိုင်ဘူး၊ အဲဒီအစား iter နဲ့ next methods တွေကို သုံးပြီး သူ့ပေါ်မှာ ပြန်လုပ်ရတယ်။,"此对象是一个可循环的, 这意味着我们无法将其索引到访问元素中, 但是我们却使用绕行和下一种方法在它上进行循环 。"
1329,"This will download and access a single example from the dataset, which means you can progressively iterate through a huge dataset without having to download it first.",ဒါက dataset ကနေ ဥပမာတစ်ခုတည်းကို ဒေါင်းလုဒ်လုပ်ပြီး ဝင်ရောက်ကြည့်ရှုနိုင်တယ်၊ ဆိုလိုတာက ကြီးမားတဲ့ dataset တစ်ခုလုံးကို အရင်မဒေါင်းလုဒ်ဘဲ တဖြည်းဖြည်းချင်း ကြည့်သွားနိုင်တယ်။,"这将从数据集下载并访问单个示例, 这意味着你可以通过一个巨大的数据集逐步循环, 而不必先下载它 。"
1330,Tokenizing text with a map() method also works in a similar way.,map() method နဲ့ စာသားကို tokenize လုပ်တာကလည်း ဆင်တူတဲ့ပုံစံနဲ့ အလုပ်လုပ်တယ်။,以地图()方法对文本进行校正也以类似方式发挥作用。
1331,We first stream the dataset and then apply the map() method with the tokenizer.,ပထမဆုံး dataset ကို stream လုပ်ပြီးမှ tokenizer နဲ့ map() method ကို အသုံးချတယ်။,"我们首先流出数据集,然后用表示器应用地图()方法。"
1332,"To get the first tokenized example, we apply iter and next.",ပထမဆုံး tokenized ဥပမာကို ရဖို့ iter နဲ့ next ကို အသုံးချတယ်။,"为了获得第一个象征性的例子, 我们应用“ 切换” 和“ 切换” 。"
1333,"The main difference with an IterableDataset is that instead of using a select() method to return examples, we use the take() and skip() methods because we can't index into the dataset.",IterableDataset နဲ့ အဓိက ကွာခြားချက်ကတော့ ဥပမာတွေ ပြန်ပေးဖို့ select() method ကို သုံးမယ့်အစား take() နဲ့ skip() methods တွေကို သုံးရတာပါ၊ ဘာလို့လဲဆိုတော့ dataset ကို index မလုပ်နိုင်လို့ပါ။,"与可扩展数据集的主要区别在于,我们不使用选择()方法返回示例,而是使用取()和跳()方法,因为我们无法将索引输入数据集。"
1334,"The take() method returns the first N examples in the dataset, while skip(), as you can imagine, skips the first N and returns the rest.",take() method က dataset ထဲက ပထမဆုံး N ဥပမာတွေကို ပြန်ပေးပြီး skip() ကတော့ ခန့်မှန်းနိုင်တဲ့အတိုင်း ပထမဆုံး N ကို ကျော်ပြီး ကျန်တာတွေကို ပြန်ပေးတယ်။,"采取 () 方法返回数据集中的第一个 N 示例, 而跳过 () , 您可以想象, 跳过第一个 N 则返回其余的 。"
1335,You can see examples of both of these methods in action where we create a validation set from the first 1000 examples and then skip those to create the training set.,ဒီ methods နှစ်ခုလုံးကို အသုံးပြုထားတဲ့ ဥပမာတွေကို သင်မြင်နိုင်ပါတယ်၊ ပထမဆုံး ဥပမာ ၁၀၀၀ ကနေ validation set တစ်ခု ဖန်တီးပြီး အဲဒါတွေကို ကျော်ပြီး training set ကို ဖန်တီးတာ ဖြစ်တယ်။,"您可以在操作中看到这两种方法的例子, 我们从最初的1000个例子中创建了一个验证集, 然后跳过这些例子来创建训练集 。"
1336,Uploading a dataset to the hub.,Dataset တစ်ခုကို Hub ပေါ် တင်ခြင်း။,正在上传数据集到中枢 。
1337,The first thing you need to do is create a new dataset repository on the hub.,ပထမဆုံး လုပ်ရမှာက Hub ပေါ်မှာ dataset repository အသစ်တစ်ခု ဖန်တီးဖို့ပဲ။,您需要做的第一件事就是在中枢上创建一个新的数据集存储库。
1338,"So, just click on your profile icon and select the New Dataset button.",ဒါကြောင့် သင့် profile icon ကို နှိပ်ပြီး New Dataset ခလုတ်ကို ရွေးပါ။,"因此,单击您的配置图标并选择新数据集按钮。"
1339,"Next, we need to assign an owner of the dataset.",နောက်တစ်ခုက dataset ပိုင်ရှင်ကို သတ်မှတ်ဖို့ လိုတယ်။,"接下来,我们需要指定一个数据集的拥有者。"
1340,"By default, this will be your hub account, but you can also create datasets under any organization that you belong to.",မူရင်းအတိုင်းဆိုရင် ဒါက သင့် hub account ဖြစ်လိမ့်မယ်၊ ဒါပေမယ့် သင်ပါဝင်တဲ့ မည်သည့် organization အောက်မှာမဆို dataset တွေကို ဖန်တီးနိုင်တယ်။,"默认情况下,这将是您的中枢账户,但您也可以在您所属的任何组织下创建数据集。"
1341,"Then, we just need to give the dataset a good name and specify whether it is a public or private dataset.",ပြီးရင် dataset ကို နာမည်ကောင်းတစ်ခု ပေးပြီး public ဒါမှမဟုတ် private dataset ဖြစ်မဖြစ် သတ်မှတ်ဖို့ပဲ လိုတယ်။,"然后,我们只需要给数据集一个好的名字, 并具体说明它是公共的还是私人的数据集。"
1342,Public datasets can be accessed by anyone while private datasets can only be accessed by you or members of your organization.,Public datasets တွေကို မည်သူမဆို ဝင်ကြည့်နိုင်ပေမယ့် private datasets တွေကိုတော့ သင် ဒါမှမဟုတ် သင့် organization အဖွဲ့ဝင်တွေပဲ ဝင်ကြည့်နိုင်တယ်။,"任何人均可访问公共数据集,而私人数据集只能由您或您的组织成员访问。"
1343,"And with that, we can go ahead and create the dataset.",ဒီအဆင့်တွေနဲ့ဆိုရင် dataset ကို ဖန်တီးလို့ ရပါပြီ။,"这样,我们就可以继续创建数据集。"
1344,"Now that you have an empty dataset repository on the hub, the next thing to do is add some actual data to it.",Hub ပေါ်မှာ dataset repository အလွတ်တစ်ခု ရပြီဆိုတော့ နောက်လုပ်ရမယ့်အရာက အဲဒီထဲကို တကယ့် ဒေတာအချို့ ထည့်သွင်းဖို့ပဲ။,"现在,在中枢上有一个空的数据集仓库, 下一步要做的就是添加一些实际数据。"
1345,"You can do this with git, but the easiest way is by selecting the Upload file button.",ဒါကို git နဲ့ လုပ်နိုင်ပေမယ့် အလွယ်ဆုံးနည်းလမ်းကတော့ Upload file ခလုတ်ကို ရွေးချယ်တာပဲ။,"您可以用 git 做到这一点, 但最简单的方法是选择上传文件按钮 。"
1346,"And then, you can just go ahead and upload the files directly from your machine.",ပြီးရင်တော့ သင့်ကွန်ပျူတာကနေ ဖိုင်တွေကို တိုက်ရိုက် တင်နိုင်ပါတယ်။,"然后,你可以直接从你的机器上传文件。"
1347,"After you've uploaded your files, you'll see them appear in the repository under the Files and versions tab.",ဖိုင်တွေ တင်ပြီးသွားရင် Files and versions tab အောက်မှာ repository ထဲ ပေါ်လာတာကို တွေ့ရပါလိမ့်မယ်။,"在你上传了你的文件之后, 你会看到它们出现在 文档和版本标签下的存储库中。"
1348,The last step is to create a dataset card.,နောက်ဆုံးအဆင့်ကတော့ dataset card တစ်ခု ဖန်တီးဖို့ပဲ။,最后一步是创建数据集卡。
1349,Well-documented datasets are more likely to be useful to others as they provide the context to decide whether the dataset is relevant or whether there are any biases or risks associated with using the dataset.,ကောင်းစွာ မှတ်တမ်းတင်ထားတဲ့ datasets တွေက တခြားသူတွေအတွက် ပိုပြီး အသုံးဝင်နိုင်တယ်၊ ဘာလို့လဲဆိုတော့ ဒါက dataset က သက်ဆိုင်မှုရှိမရှိ ဒါမှမဟုတ် အသုံးပြုရာမှာ ဘက်လိုက်မှု ဒါမှမဟုတ် အန္တရာယ်တွေ ရှိမရှိ ဆုံးဖြတ်ဖို့ အခြေအနေကို ပေးလို့ ဖြစ်တယ်။,"有详细记载的数据集更有可能对其他数据集有用,因为它们提供了背景情况,可据以决定数据集是否相关,或与使用数据集有关的任何偏差或风险。"
1350,"On the Hugging Face Hub, this information is stored in each repositories README file.",Hugging Face Hub မှာ ဒီအချက်အလက်တွေကို repository တစ်ခုစီရဲ့ README ဖိုင်ထဲမှာ သိမ်းထားတယ်။,"在Huggging Face 枢纽上,这些信息存储在每个仓库的README 文件中。"
1351,There are two main steps that you should take.,သင်လုပ်ဆောင်သင့်တဲ့ အဓိက အဆင့်နှစ်ဆင့် ရှိပါတယ်။,你们应该采取两个主要步骤。
1352,"First, you need to create some metadata that will allow your dataset to be easily found by others on the hub.",ပထမအနေနဲ့ သင့် dataset ကို Hub ပေါ်က တခြားသူတွေ အလွယ်တကူ ရှာတွေ့နိုင်စေမယ့် metadata အချို့ကို ဖန်တီးဖို့ လိုတယ်။,"首先, 您需要创建一些元数据, 以便您在中枢上的其他人很容易找到您的数据集 。"
1353,"You can create this metadata using the datasets tagging application, which we'll link to in the video description.",ဒီ metadata ကို datasets tagging application ကို သုံးပြီး ဖန်တီးနိုင်ပါတယ်၊ အဲဒါကို ဗီဒီယို ဖော်ပြချက်မှာ လင့်ခ်ချိတ်ပေးထားပါမယ်။,"您可以使用数据集标记应用程序来创建此元数据, 我们将在视频描述中链接到这些元数据 。"
1354,"Once you've created the metadata, you can fill out the rest of the dataset card, and we provide a template that we'll also link to in the video.",Metadata ဖန်တီးပြီးတာနဲ့ dataset card ရဲ့ ကျန်တာတွေကို ဖြည့်နိုင်ပါတယ်၊ ဗီဒီယိုမှာလည်း လင့်ခ်ချိတ်ထားတဲ့ template ကို ကျွန်တော်တို့ ပေးထားပါတယ်။,"一旦你创建了元数据,你就可以填满数据元数据卡的其余部分, 我们提供一个模板, 我们也可以在视频中连接到这个模板。"
1355,"And once your dataset is on the hub, you can load it using the trusty load_dataset function.",သင့် dataset Hub ပေါ် ရောက်သွားပြီဆိုရင် ယုံကြည်ရတဲ့ load_dataset function ကို သုံးပြီး တင်နိုင်ပါပြီ။,"一旦您的数据集位于中枢, 您可以使用可信赖的负载数据集函数装入它 。"
1356,"Just provide the name of your repository and a data_files argument, and you're good to go.",သင့် repository နာမည်နဲ့ data_files argument ကို ပေးလိုက်ရုံပါပဲ၊ ပြီးရင် အဆင်ပြေပါပြီ။,"只要提供您的仓库名称和数据文件参数,就可以了。"
1357,Let's talk about Text embeddings and semantic search.,စာသား embeddings နဲ့ semantic search တွေအကြောင်း ပြောကြမယ်။,让我们来谈谈文字嵌入和语义搜索。
1358,In this video we'll explore how Transformer models represent text as embedding vectors and how these vectors can be used to find similar documents in a corpus.,ဒီဗီဒီယိုမှာ Transformer မော်ဒယ်တွေက စာသားတွေကို embedding vector အဖြစ် ဘယ်လို ကိုယ်စားပြုလဲ၊ ပြီးတော့ ဒီ vector တွေကို corpus ထဲမှာ ဆင်တူတဲ့ စာရွက်စာတမ်းတွေ ရှာဖွေဖို့ ဘယ်လိုသုံးနိုင်လဲဆိုတာ လေ့လာသွားမယ်။,"我们将探索变形模型如何将文字作为嵌入矢量, 以及如何将这些矢量用于寻找类似文件。"
1359,Text embeddings are just a fancy way of saying that we can represent text as an array of numbers called a vector.,Text embeddings ဆိုတာ စာသားကို ဂဏန်းအတန်းတစ်ခု ဒါမှမဟုတ် vector အဖြစ် ကိုယ်စားပြုနိုင်တယ်လို့ ပြောတဲ့ စကားလုံးလှလှလေးတစ်ခုပါပဲ။,"文本嵌入只是一种巧妙的表达方式, 我们可以将文本代表成一个数字阵列, 称为矢量 。"
1360,To create these embeddings we usually use an encoder-based model like BERT.,ဒီ embedding တွေ ဖန်တီးဖို့အတွက် ကျွန်တော်တို့က BERT လိုမျိုး encoder အခြေပြု မော်ဒယ်တွေကို သုံးလေ့ရှိတယ်။,"为了创建这些嵌入器,我们通常使用BERT等基于编码器的模型。"
1361,"In this example, you can see how we feed three sentences to the encoder and get three vectors as the output.",ဒီဥပမာမှာ စာကြောင်းသုံးကြောင်းကို encoder ကို ပေးလိုက်ပြီး အထွက်အနေနဲ့ vector သုံးခု ဘယ်လိုရလဲဆိုတာ မြင်နိုင်တယ်။,"在此示例中, 您可以看到我们如何向编码器提供三句话, 并获得三个矢量作为输出 。"
1362,"Reading the text, we can see that walking the dog seems to be most similar to walking the cat, but let's see if we can quantify this.",စာသားကို ဖတ်ကြည့်ရင် ခွေးကို လမ်းလျှောက်တာက ကြောင်ကို လမ်းလျှောက်တာနဲ့ အများဆုံး ဆင်တူတယ်လို့ ထင်ရပေမယ့် ဒီအရာကို ဂဏန်းနဲ့ တိုင်းတာနိုင်မလား ကြည့်ရအောင်။,"阅读文字,我们可以看到,走狗似乎 最相似于走猫, 但让我们看看我们能否量化这一点。"
1363,The trick to do the comparison is to compute a similarity metric between each pair of embedding vectors.,နှိုင်းယှဉ်ဖို့ လှည့်ကွက်ကတော့ embedding vector နှစ်ခုကြားမှာ ဆင်တူမှု တိုင်းတာချက်တစ်ခုကို တွက်ချက်ဖို့ပဲ ဖြစ်တယ်။,比较的技巧是计算每对嵌入矢量之间的相似度量。
1364,"These vectors usually live in a very high-dimensional space, so a similarity metric can be anything that measures some sort of distance between vectors.",ဒီ vector တွေက များသောအားဖြင့် အလွန်မြင့်မားတဲ့ အတိုင်းအတာနေရာမှာ ရှိနေတတ်တယ်၊ ဒါကြောင့် ဆင်တူမှု တိုင်းတာချက်ဆိုတာ vector တွေကြားက အကွာအဝေးကို တိုင်းတာတဲ့ ဘာမဆို ဖြစ်နိုင်တယ်။,"这些矢量通常生活在一个非常高维的空间中, 所以相似的度量 可以是测量矢量之间某种距离的任何东西。"
1365,"One very popular metric is cosine similarity, which uses the angle between two vectors to measure how close they are.",အရမ်းနာမည်ကြီးတဲ့ တိုင်းတာချက်တစ်ခုကတော့ cosine similarity ဖြစ်ပြီး၊ vector နှစ်ခုကြားက ထောင့်ကို အသုံးပြုပြီး သူတို့ ဘယ်လောက် နီးစပ်လဲဆိုတာ တိုင်းတာတာ ဖြစ်တယ်။,"一种非常流行的量度是粘结相似性,它使用两个矢量之间的角来测量它们之间的距离。"
1366,"In this example, our embedding vectors live in 3D and we can see that the orange and Grey vectors are close to each other and have a smaller angle.",ဒီဥပမာမှာ ကျွန်တော်တို့ရဲ့ embedding vector တွေက 3D မှာ ရှိနေပြီး လိမ္မော်ရောင်နဲ့ မီးခိုးရောင် vector တွေဟာ တစ်ခုနဲ့တစ်ခု နီးစပ်ပြီး သေးငယ်တဲ့ ထောင့်တစ်ခု ရှိတာကို မြင်နိုင်ပါတယ်။,"在这个例子中,我们的嵌入矢量生活在3D中,我们可以看到橙色和灰色矢量彼此接近,角度较小。"
1367,Now one problem we have to deal with is that Transformer models like BERT will actually return one embedding vector per token.,အခု ကျွန်တော်တို့ ဖြေရှင်းရမယ့် ပြဿနာတစ်ခုကတော့ BERT လို Transformer မော်ဒယ်တွေဟာ token တစ်ခုချင်းစီအတွက် embedding vector တစ်ခုစီကို ပြန်ပေးတာပဲ ဖြစ်တယ်။,现在我们必须处理的一个问题是 像BERT这样的变形模型 将实际返回每个标记一个嵌入矢量。
1368,"For example in the sentence, I took my dog for a walk, we can expect several embedding vectors, one for each word.",ဥပမာအားဖြင့် I took my dog for a walk ဆိုတဲ့ ဝါကျမှာ စကားလုံးတစ်လုံးချင်းစီအတွက် embedding vector အများအပြားကို မျှော်လင့်နိုင်တယ်။,"例如,在句子中,我带我的狗散步, 我们可以期待几个嵌入矢量, 每个字一个。"
1369,"For example, here we can see the output of our model has produced 9 embedding vectors per sentence, and each vector has 384 dimensions.",ဥပမာအားဖြင့် ဒီမှာ ကျွန်တော်တို့ရဲ့ မော်ဒယ်အထွက်က စာကြောင်းတစ်ခုစီအတွက် embedding vector ၉ ခု ထုတ်ပေးထားပြီး vector တစ်ခုစီမှာ ၃၈၄ အတိုင်းအတာ ရှိတာကို တွေ့ရတယ်။,"例如,我们在这里可以看到我们模型的输出 产生9个嵌入矢量 每句, 每个矢量有384维。"
1370,But what we really want is a single embedding vector for each sentence.,ဒါပေမယ့် ကျွန်တော်တို့ တကယ်လိုချင်တာက စာကြောင်းတစ်ကြောင်းချင်းစီအတွက် embedding vector တစ်ခုတည်းသာ ဖြစ်တယ်။,但我们真正想要的 是每个句子的单个嵌入矢量。
1371,"To deal with this, we can use a technique called pooling.",ဒီပြဿနာကို ဖြေရှင်းဖို့ pooling လို့ခေါ်တဲ့ နည်းလမ်းကို သုံးနိုင်တယ်။,"为了解决这个问题,我们可以使用一种叫做集合的技术。"
1372,The simplest pooling method is to just take the token embedding of the special CLS token.,အလွယ်ဆုံး pooling နည်းလမ်းကတော့ CLS token ရဲ့ token embedding ကို ယူလိုက်တာပဲ ဖြစ်တယ်။,最简单的集合方法就是 将特殊 CLS 符号的象征性嵌入 。
1373,"Alternatively, we can average the token embeddings which is called mean_pooling and this is what we do here.",တနည်းအားဖြင့် token embedding တွေကို ပျမ်းမျှယူနိုင်ပြီး ဒါကို mean_pooling လို့ခေါ်ကာ ကျွန်တော်တို့ ဒီမှာ လုပ်တာက ဒီနည်းလမ်းပဲ ဖြစ်တယ်။,"或者,我们也可以平均使用象征性嵌入器, 即所谓的平均共享, 这就是我们在这里做的。"
1374,"With mean_pooling the only thing we need to make sure is that we don't include the padding tokens in the average, which is why you can see the attention_mask being used here.",mean_pooling နဲ့ဆိုရင် ကျွန်တော်တို့ သေချာအောင် လုပ်ရမှာက padding token တွေကို ပျမ်းမျှထဲ မထည့်မိဖို့ပဲ ဖြစ်တယ်၊ ဒါကြောင့် ဒီနေရာမှာ attention_mask ကို သုံးထားတာကို မြင်နိုင်တယ်။,我们唯一需要确保的就是 我们不把标牌包括在平均值中 这就是为什么你可以看到这里使用的注意面条
1375,This gives us a 384 dimensional vector for each sentence which is exactly what we want.,ဒါက စာကြောင်းတစ်ကြောင်းချင်းစီအတွက် ၃၈၄ အတိုင်းအတာရှိတဲ့ vector တစ်ခုကို ပေးပြီး ကျွန်တော်တို့ လိုချင်တာ အတိအကျပဲ ဖြစ်တယ်။,"这给了我们384维矢量 每个句子,这正是我们想要的。"
1376,"And once we have our sentence embeddings, we can compute the cosine similarity for each pair of vectors.",ကျွန်တော်တို့ရဲ့ စာကြောင်း embedding တွေ ရပြီဆိုရင် vector တစ်စုံချင်းစီအတွက် cosine similarity ကို တွက်ချက်နိုင်တယ်။,"一旦我们有句子嵌入, 我们可以计算每对矢量的余弦相似性。"
1377,"In this example we use the function from scikit-learn and you can see that the sentence ""I took my dog for a walk"" has indeed a strong overlap with ""I took my cat for a walk"".","ဒီဥပမာမှာ scikit-learn က function ကို သုံးထားပြီး ""I took my dog for a walk"" ဆိုတဲ့ ဝါကျက ""I took my cat for a walk"" နဲ့ တကယ်ပဲ များစွာ ဆင်တူနေတာကို မြင်နိုင်တယ်။","在这个例子中,我们使用从cikit-learn的函数,你可以看到,“我带我的狗去散步”这句话与“我带我的猫去散步”确实有很大的重叠。"
1378,Hooray! We've done it.,ဟေး! လုပ်နိုင်ခဲ့ပြီ။,万岁 我们成功了
1379,We can actually take this idea one step further by comparing the similarity between a question and a corpus of documents.,ဒီအယူအဆကို နောက်ထပ် တစ်ဆင့်တိုးပြီး မေးခွန်းတစ်ခုနဲ့ စာရွက်စာတမ်း corpus တစ်ခုကြားက ဆင်တူမှုကို နှိုင်းယှဉ်ကြည့်နိုင်တယ်။,"我们实际上可以通过比较一个问题与一系列文件的相似性,把这一想法更进一步。"
1380,"For example, suppose we embed every post in the Hugging Face forums.",ဥပမာအားဖြင့် Hugging Face forum တွေထဲက post တိုင်းကို embed လုပ်လိုက်တယ်ဆိုပါစို့။,"例如,假设我们把每个文章都嵌入“拥抱面”论坛。"
1381,"We can then ask a question, embed it, and check which forum posts are most similar.",အဲဒီနောက် မေးခွန်းတစ်ခု မေးနိုင်တယ်၊ embed လုပ်ပြီး ဘယ် forum post တွေက အများဆုံး ဆင်တူလဲဆိုတာ စစ်ဆေးနိုင်တယ်။,"然后,我们可以提出一个问题,将其嵌入其中,并检查哪些论坛职位最相似。"
1382,"This process is often called semantic search, because it allows us to compare queries with context.",ဒီလုပ်ငန်းစဉ်ကို semantic search လို့ မကြာခဏ ခေါ်ပြီး အကြောင်းအရာနဲ့အတူ မေးမြန်းချက်တွေကို နှိုင်းယှဉ်နိုင်လို့ ဖြစ်တယ်။,"这一过程通常被称为语义搜索,因为它使我们能够将查询与上下文进行比较。"
1383,To create a semantic search engine is actually quite simple in the datasets library.,datasets library မှာ semantic search engine တစ်ခု ဖန်တီးဖို့က တကယ်တော့ အတော်လေး ရိုးရှင်းပါတယ်။,创建语义搜索引擎在数据集库中其实很简单。
1384,First we need to embed all the documents.,ပထမဆုံး စာရွက်စာတမ်းအားလုံးကို embed လုပ်ဖို့ လိုအပ်တယ်။,"首先,我们需要嵌入所有文件。"
1385,"And in this example, we take a small sample from the squad dataset and apply the same embedding logic as before.",ဒီဥပမာမှာ squad dataset ကနေ နမူနာလေးတစ်ခု ယူပြီး အရင်ကလို embedding logic ကို သုံးတယ်။,"在这个例子中,我们从小队的数据集中抽取一个小样本, 并应用与以前相同的嵌入逻辑。"
1386,"This gives us a new column called embeddings, which stores the embeddings of every passage.",ဒါက ကျွန်တော်တို့ကို embedding တွေလို့ ခေါ်တဲ့ ကော်လံအသစ်တစ်ခု ပေးပြီး စာပိုဒ်တိုင်းရဲ့ embedding တွေကို သိမ်းဆည်းပေးတယ်။,"这给了我们一个新的专栏,叫做嵌入, 储存每个通道的嵌入。"
1387,"Once we have our embeddings, we need a way to find nearest neighbors for a query.",ကျွန်တော်တို့ရဲ့ embedding တွေ ရပြီဆိုရင် မေးမြန်းချက်တစ်ခုအတွက် အနီးဆုံး အိမ်နီးချင်းတွေကို ရှာဖွေဖို့ နည်းလမ်းတစ်ခု လိုအပ်တယ်။,一旦我们有了嵌入器 我们需要找到一个方法 找到最近的邻居来查询
1388,The datasets library provides a special object called FAISS which allows you to quickly compare embedding vectors.,datasets library က embedding vector တွေကို လျှင်မြန်စွာ နှိုင်းယှဉ်နိုင်တဲ့ FAISS လို့ခေါ်တဲ့ အထူး object တစ်ခု ပေးတယ်။,"数据集库提供了一个名为 FACISS 的特殊对象, 使您能够快速比较嵌入矢量 。"
1389,"So we add the FAISS index, embed a question and voila, we've now found the 3 most similar articles which might store the answer.",ဒါကြောင့် FAISS index ကို ထည့်ပြီး မေးခွန်းတစ်ခုကို embed လုပ်လိုက်တာနဲ့၊ အဖြေကို သိမ်းဆည်းထားနိုင်တဲ့ အများဆုံး ဆင်တူတဲ့ ဆောင်းပါး ၃ ခုကို ရှာဖွေတွေ့ရှိခဲ့ပါပြီ။,"因此我们添加FAISS索引, 嵌入一个问题和voila, 我们现在找到了三个最相似的文章, 可能保存答案。"
1390,"In this video we will see together what is the purpose of training a tokenizer, what are the key steps to follow, and what is the easiest way to do it.",ဒီဗီဒီယိုမှာ tokenizer တစ်ခု လေ့ကျင့်တာရဲ့ ရည်ရွယ်ချက်က ဘာလဲ၊ လိုက်နာရမယ့် အဓိကအဆင့်တွေက ဘာတွေလဲ၊ ပြီးတော့ အလွယ်ဆုံးနည်းလမ်းက ဘာလဲဆိုတာ အတူတူ ကြည့်သွားပါမယ်။,"在影片中,我们会共同看到训练一个象征器的目的是什么,接下来的关键步骤是什么,以及最容易做到的方法是什么。"
1391,"You will ask yourself the question, ""Should I train a new tokenizer?"", when you plan to train a new model from scratch.","သင်က အစကနေ မော်ဒယ်အသစ်တစ်ခု လေ့ကျင့်ဖို့ စီစဉ်တဲ့အခါ ""ငါ tokenizer အသစ်တစ်ခု လေ့ကျင့်သင့်သလား"" ဆိုတဲ့ မေးခွန်းကို ကိုယ့်ကိုယ်ကို မေးပါလိမ့်မယ်။","你会问自己一个问题, “我应该训练一个新的代谢器吗?” 当你打算从头开始训练一个新的模式的时候。"
1392,"A trained tokenizer would not be suitable for your corpus if your corpus is in a different language, uses new characters, such as accents or upper cased letters, has a specific vocabulary, for example medical or legal, or uses a different style, a language from another century for example.",သင့်ရဲ့ corpus က ဘာသာစကားမတူရင်၊ accents သို့မဟုတ် စာလုံးအကြီးတွေလို စာလုံးအသစ်တွေ သုံးရင်၊ ဆေးပညာ ဒါမှမဟုတ် ဥပဒေလိုမျိုး သီးသန့်ဝေါဟာရတွေ ရှိရင် ဒါမှမဟုတ် တခြားရာစုနှစ်က ဘာသာစကားလိုမျိုး ပုံစံကွဲပြားနေရင် လေ့ကျင့်ထားတဲ့ tokenizer က သင့် corpus အတွက် မသင့်တော်ပါဘူး။,"受过训练的代谢器不适合您的文体,如果您的文体使用不同的语言,使用新的字符,例如口音或大写字母,有特定的词汇,例如医学或法律词汇,或者使用不同风格,例如来自另一个世纪的语言。"
1393,"If I take the tokenizer trained on the bert-base-uncased model, and ignore its normalization step, then we can see that the tokenization operation on the English sentence, ""Here is a sentence adapted to our tokenizer"", produces a rather satisfactory list of tokens, in the sense that this sentence of eight words is tokenized into nine tokens.","bert-base-uncased မော်ဒယ်မှာ လေ့ကျင့်ထားတဲ့ tokenizer ကို ယူပြီး သူ့ရဲ့ normalization အဆင့်ကို လျစ်လျူရှုလိုက်မယ်ဆိုရင် ""Here is a sentence adapted to our tokenizer"" ဆိုတဲ့ အင်္ဂလိပ်ဝါကျပေါ်က tokenization လုပ်ဆောင်ချက်က စကားလုံး ရှစ်လုံးပါတဲ့ ဝါကျကို token ကိုးခုအဖြစ် ခွဲလိုက်တဲ့အတွက် အတော်လေး ကျေနပ်စရာကောင်းတဲ့ token စာရင်းကို ထုတ်ပေးတယ်ဆိုတာ တွေ့နိုင်တယ်။","如果我把经过训练的关于Bert-Best-Basic-uncased 模型的代币器, 无视其正常化步骤, 那么我们就能看到英语句子上的代币化操作, “这是适应我们的代币化器的句子” 产生一个相当令人满意的代币清单, 也就是说,8个字的句子被象征性化为9个代币。"
1394,"On the other hand, if I use this same tokenizer on a sentence in Bengali, we see that either a word is divided into many sub tokens, or that the tokenizer does not know one of the unicode characters and returns only an unknown token.",နောက်တစ်ဖက်မှာတော့ ဒီ tokenizer ကိုပဲ Bengali ဝါကျတစ်ခုမှာ သုံးမယ်ဆိုရင် စကားလုံးတစ်လုံးကို sub token အများအပြားအဖြစ် ခွဲလိုက်တာ ဒါမှမဟုတ် tokenizer က unicode character တစ်ခုကို မသိဘဲ unknown token ကိုပဲ ပြန်ပေးတာ တွေ့ရတယ်။,"另一方面,如果我在孟加拉语的一个句子上使用同样的代号,我们就会看到,要么一个单词被分成许多子符号,要么代号符号不知道一个 Unicode 字符,只返回一个未知的符号。"
1395,"The fact that a common word is split into many tokens can be problematic, because language models can only handle a sequence of tokens of limited length.",ရိုးရိုးစကားလုံးတစ်ခုကို token အများအပြားအဖြစ် ပိုင်းလိုက်တာက ပြဿနာရှိနိုင်တယ်၊ ဘာလို့လဲဆိုတော့ language model တွေက အကန့်အသတ်ရှိတဲ့ token အတန်းအရှည်ကိုပဲ ကိုင်တွယ်နိုင်လို့ ဖြစ်တယ်။,"一个共同的单词被分成许多象征物,这一事实可能会有问题,因为语言模式只能处理一系列长度有限的象征物。"
1396,A tokenizer that excessively splits your initial text may even impact the performance of your model.,သင့်ရဲ့ မူရင်းစာသားကို အလွန်အကျွံ ပိုင်းဖြတ်တဲ့ tokenizer က သင့်မော်ဒယ်ရဲ့ စွမ်းဆောင်ရည်ကိုပါ သက်ရောက်နိုင်တယ်။,过分分割您初始文本的象征符甚至会影响您模型的性能。
1397,"Unknown tokens are also problematic, because the model will not be able to extract any information from the unknown part of the text.",Unknown token တွေကလည်း ပြဿနာရှိပါတယ်၊ ဘာလို့လဲဆိုတော့ မော်ဒယ်က စာသားရဲ့ မသိတဲ့အပိုင်းကနေ ဘာအချက်အလက်မှ ထုတ်ယူနိုင်မှာ မဟုတ်ဘူး။,"未知的符号也存在问题, 因为模型无法从文本中未知部分提取任何信息 。"
1398,"In this other example, we can see that the tokenizer replaces words containing characters with accents and capital letters with unknown tokens.",ဒီနောက်ထပ် ဥပမာမှာတော့ tokenizer က accent တွေနဲ့ စာလုံးအကြီးတွေပါတဲ့ စကားလုံးတွေကို unknown token တွေနဲ့ အစားထိုးလိုက်တာ တွေ့နိုင်တယ်။,"在另一个例子中,我们可以看到,代号器将含有字符的单词替换为口音,大写字母则用未知的符号替换。"
1399,"Finally, if we use again this tokenizer to tokenize medical vocabulary, we see again that a single word is divided into many sub tokens, four for paracetamol, and four for pharyngitis.",နောက်ဆုံးအနေနဲ့ ဒီ tokenizer ကိုပဲ ဆေးဘက်ဆိုင်ရာ ဝေါဟာရတွေကို tokenization လုပ်ဖို့ ပြန်သုံးမယ်ဆိုရင် စကားလုံးတစ်လုံးတည်းကို sub token အများအပြားအဖြစ် ပိုင်းလိုက်တာ တွေ့ရတယ်၊ paracetamol အတွက် လေးခု၊ pharyngitis အတွက် လေးခုပေါ့။,"最后,如果我们再次使用这个代币器来象征医学词汇,我们再次看到一个单词被分成许多子代号,4个用于帕塞塔莫,4个用于脑膜炎。"
1400,Most of the tokenizers used by the current state of the art language models need to be trained on a corpus that is similar to the one used to pre-train the language model.,လက်ရှိ အကောင်းဆုံး language model တွေက သုံးတဲ့ tokenizer အများစုဟာ language model ကို ကြိုတင်လေ့ကျင့်ဖို့ သုံးတဲ့ corpus နဲ့ ဆင်တူတဲ့ corpus တစ်ခုမှာ လေ့ကျင့်ဖို့ လိုအပ်တယ်။,"目前艺术语言模式使用的大多数代用品需要经过培训,其内容与语言模式培训前使用的类似。"
1401,This training consists in learning rules to divide the text into tokens.,ဒီလေ့ကျင့်မှုက စာသားကို token တွေအဖြစ် ပိုင်းဖို့ စည်းမျဉ်းတွေကို သင်ယူခြင်းပါပဲ။,"这种培训包括学习规则,将文字分为符号。"
1402,And the way to learn these rules and use them depends on the chosen tokenizer model.,ဒီစည်းမျဉ်းတွေကို သင်ယူပြီး အသုံးပြုတဲ့ နည်းလမ်းကတော့ ရွေးချယ်ထားတဲ့ tokenizer မော်ဒယ်ပေါ် မူတည်တယ်။,学习和运用这些规则的方法 取决于所选的代用品模型。
1403,"Thus, to train a new tokenizer, it is first necessary to build a training corpus composed of raw texts.",ဒါကြောင့် tokenizer အသစ်တစ်ခု လေ့ကျင့်ဖို့အတွက် ပထမဆုံးအနေနဲ့ မူရင်းစာသားတွေနဲ့ ဖွဲ့စည်းထားတဲ့ လေ့ကျင့်ရေး corpus တစ်ခုကို တည်ဆောက်ဖို့ လိုအပ်တယ်။,"因此,为了培训一个新的代用品,首先必须建立一套由原始文本组成的培训教材。"
1404,"Then, you have to choose an architecture for your tokenizer.",ပြီးရင် သင့် tokenizer အတွက် ဗိသုကာပုံစံတစ်ခုကို ရွေးချယ်ရမယ်။,"然后,你必须选择一个结构 用于你的代用品。"
1405,Here there are two options.,ဒီမှာ ရွေးစရာ နှစ်ခုရှိတယ်။,这里有两种选择。
1406,The simplest is to reuse the same architecture as the one of a tokenizer used by another model already trained.,အလွယ်ဆုံးကတော့ အခြား လေ့ကျင့်ပြီးသား မော်ဒယ်တစ်ခုက သုံးတဲ့ tokenizer ရဲ့ ဗိသုကာပုံစံကို ပြန်လည်အသုံးပြုဖို့ပဲ ဖြစ်တယ်။,最简单的是重新使用与另一个已经培训过的模型所使用的代谢器相同的结构。
1407,Otherwise it is also possible to completely design your tokenizer.,မဟုတ်ရင် သင့် tokenizer ကို လုံးဝ ဒီဇိုင်းထုတ်ဖို့လည်း ဖြစ်နိုင်တယ်။,"否则,也可以完全设计你的代用品。"
1408,But it requires more experience and attention.,ဒါပေမယ့် အတွေ့အကြုံနဲ့ အာရုံစိုက်မှု ပိုလိုအပ်တယ်။,但它需要更多的经验和关注。
1409,"Once the architecture is chosen, you can thus train this tokenizer on your constituted corpus.",ဗိသုကာပုံစံ ရွေးပြီးတာနဲ့ ဖွဲ့စည်းထားတဲ့ သင့် corpus ပေါ်မှာ ဒီ tokenizer ကို လေ့ကျင့်နိုင်တယ်။,"一旦选择了建筑,你就可以将这个代币器 训练成你构成的体形。"
1410,"Finally, the last thing that you need to do is to save the learned rules to be able to use this tokenizer.",နောက်ဆုံးအနေနဲ့ လုပ်ရမယ့်အရာကတော့ ဒီ tokenizer ကို အသုံးပြုနိုင်ဖို့အတွက် သင်ယူထားတဲ့ စည်းမျဉ်းတွေကို သိမ်းဆည်းဖို့ပါပဲ။,"最后,你最不需要做的就是 保存学到的规则 以便能够使用这个代谢器。"
1411,Let's take an example.,ဥပမာတစ်ခု ယူကြည့်ရအောင်။,让我们举一个例子。
1412,Let's say you want to train a GPT-2 model on Python code.,Python code ပေါ်မှာ GPT-2 မော်ဒယ်ကို လေ့ကျင့်ချင်တယ်လို့ ပြောရအောင်။,假设你想用Python代码 来训练GPT -2模型
1413,"Even if the Python code is usually in English this type of text is very specific, and deserves a tokenizer trained on it.",Python code က အင်္ဂလိပ်လို ဖြစ်နေတတ်ပေမယ့် ဒီလို စာသားအမျိုးအစားက အရမ်းထူးခြားပြီး သူ့အတွက် လေ့ကျင့်ထားတဲ့ tokenizer တစ်ခုနဲ့ ထိုက်တန်ပါတယ်။,"即使Python代码通常使用英文,但这种文本非常具体,值得为此培训一个象征性的印刷机。"
1414,"To convince you of this, we will see at the end the difference produced on an example.",သင့်ကို ယုံကြည်အောင် လုပ်ဖို့အတွက် ဥပမာတစ်ခုပေါ်မှာ ထွက်ပေါ်လာတဲ့ ကွာခြားချက်ကို အဆုံးမှာ ကျွန်တော်တို့ တွေ့ရပါလိမ့်မယ်။,"为了让大家相信这一点,我们将在最后看到在一个例子上产生的差别。"
1415,"For that we are going to use the method ""train_new_from_iterator"" that all the fast tokenizers of the library have and thus, in particular GPT2TokenizerFast.","အဲဒါအတွက် library ထဲက fast tokenizer တွေအားလုံးမှာ ပါဝင်တဲ့ ""train_new_from_iterator"" နည်းလမ်းကို သုံးသွားမှာ ဖြစ်ပြီး အထူးသဖြင့် GPT2TokenizerFast ကို သုံးမယ်။","因为我们要使用 图书馆所有快速代谢器的“ train_ new_ from_terator” 方法, 特别是GPT2Tokenizer Fast。"
1416,This is the simplest method in our case to have a tokenizer adapted to Python code.,ဒါက ကျွန်တော်တို့အခြေအနေမှာ Python code နဲ့ သင့်တော်တဲ့ tokenizer တစ်ခု ရဖို့အတွက် အလွယ်ဆုံးနည်းလမ်း ဖြစ်ပါတယ်။,这是我们最简单的方法 将一个代号 改制成Python代码
1417,"Remember, the first thing is to gather a training corpus.",သတိထားပါ၊ ပထမဆုံးအချက်က လေ့ကျင့်ရေး corpus ကို စုစည်းဖို့ပဲ ဖြစ်တယ်။,"记住,第一件事就是收集训练资料"
1418,We will use a subpart of the CodeSearchNet dataset containing only Python functions from open source libraries on Github.,Github က open source library တွေက Python function တွေသာ ပါဝင်တဲ့ CodeSearchNet dataset ရဲ့ အစိတ်အပိုင်းတစ်ခုကို သုံးသွားမယ်။,"我们将使用代码搜索网数据集的一个子集,该数据集仅包含Github开源图书馆提供的Python功能。"
1419,It's good timing.,အချိန်ကောင်းပါပဲ။,这是好时机。
1420,This dataset is known by the datasets library and we can load it in two lines of code.,ဒီ dataset ကို datasets library က သိထားပြီး စာကြောင်းနှစ်ကြောင်းနဲ့ တင်လို့ရတယ်။,"此数据集为数据集库所知, 我们可以以两行代码装入它 。"
1421,"Then, as the ""train_new_from_iterator"" method expects a iterator of lists of texts, we create the ""get_training_corpus"" function, which will return an iterator.","ပြီးရင် ""train_new_from_iterator"" နည်းလမ်းက စာသားစာရင်းတွေရဲ့ iterator ကို မျှော်လင့်တာကြောင့် iterator တစ်ခုကို ပြန်ပေးမယ့် ""get_training_corpus"" function ကို ဖန်တီးလိုက်တယ်။","然后,当“ train_ new_ from_terator” 方法期待文本列表的复制者时, 我们创建了“ get_ train_ corpus” 函数, 这将返回一个复制者 。"
1422,"Now that we have our iterator on our Python functions corpus, we can load the GPT-2 tokenizer architecture.",အခု ကျွန်တော်တို့ရဲ့ Python function corpus ပေါ်မှာ iterator ရပြီဆိုတော့ GPT-2 tokenizer ဗိသုကာပုံစံကို တင်နိုင်တယ်။,"现在我们在 Python 功能体上有了我们的代用器, 我们可以装载 GPT-2 代用器结构。"
1423,Here old_tokenizer is not adapted to our corpus.,ဒီမှာ old_tokenizer က ကျွန်တော်တို့ရဲ့ corpus နဲ့ မသင့်တော်ဘူး။,这里的老化石 不适合我们的体质
1424,But we only need one more line to train it on our new corpus.,ဒါပေမယ့် ကျွန်တော်တို့ရဲ့ corpus အသစ်ပေါ်မှာ လေ့ကျင့်ဖို့အတွက် စာကြောင်းတစ်ကြောင်းပဲ ထပ်လိုတယ်။,但我们只需要再多一条线 来训练它适应我们的新体形
1425,An argument that is common to most of the tokenization algorithms used at the moment is the size of the vocabulary.,လက်ရှိ အသုံးပြုနေတဲ့ tokenization algorithm အများစုမှာ အဖြစ်များတဲ့ argument တစ်ခုကတော့ vocabulary ရဲ့ အရွယ်အစားပဲ ဖြစ်တယ်။,目前使用的多数象征化算法的共同论点是词汇的大小。
1426,"We choose here the value 52,000.",ဒီမှာ တန်ဖိုး ၅၂၀၀၀ ကို ရွေးလိုက်တယ်။,"我们在这里选择52,000的值。"
1427,"Finally, once the training is finished, we just have to save our new tokenizer locally, or send it to the hub to be able to reuse it very easily afterwards.",နောက်ဆုံးအနေနဲ့ လေ့ကျင့်မှု ပြီးသွားတာနဲ့ ကျွန်တော်တို့ရဲ့ tokenizer အသစ်ကို local မှာ သိမ်းဆည်းလိုက် ဒါမှမဟုတ် နောက်ပိုင်းမှာ အလွယ်တကူ ပြန်သုံးနိုင်ဖို့ hub ကို ပို့လိုက်ဖို့ပဲ လိုတယ်။,"最后,一旦培训完成,我们只需要在当地省下我们的新代用品,或者将其送到中心,以便随后很容易地再利用。"
1428,"Finally, let's see together on an example if it was useful to re-train a tokenizer similar to GPT-2 one.",နောက်ဆုံးအနေနဲ့ GPT-2 နဲ့ ဆင်တူတဲ့ tokenizer တစ်ခုကို ပြန်လည်လေ့ကျင့်ဖို့က အသုံးဝင်ခဲ့လားဆိုတာ ဥပမာတစ်ခုနဲ့ အတူတူ ကြည့်ရအောင်။,"最后,让我们一起看看一个例子, 重新训练一个类似于 GPT-2 的象征品是否有用。"
1429,"With the original tokenizer of GPT-2 we see that all spaces are isolated, and the method name randn, relatively common in Python code, is split in two.",GPT-2 ရဲ့ မူရင်း tokenizer နဲ့ဆိုရင် နေရာလွတ်အားလုံး ခွဲထွက်နေတာကို တွေ့ရပြီး Python code မှာ အတော်လေး အဖြစ်များတဲ့ randn ဆိုတဲ့ method နာမည်က နှစ်ပိုင်း ကွဲသွားတာ တွေ့ရတယ်။,"GPT-2的最初代号是GPT-2,我们看到所有空间都是孤立的,在Python代码中相对常见的方法名称Randn被分成两个。"
1430,"With our new tokenizer, single and double indentations have been learned and the method randn is tokenized into one token.",ကျွန်တော်တို့ရဲ့ tokenizer အသစ်နဲ့ဆိုရင် တစ်ချက်ခြားနဲ့ နှစ်ချက်ခြား နေရာလွတ်တွေကို သင်ယူပြီးသွားပြီဖြစ်ကာ randn method ကို token တစ်ခုထဲအဖြစ် ခွဲလိုက်နိုင်တယ်။,"随着我们新的代谢器, 已经学会了单一和双重缩进, 方法兰登被象征成一个象征。"
1431,"And with that, you now know how to train your very own tokenizers now.",ဒါနဲ့ဆိုရင် သင်ဟာ ကိုယ်ပိုင် tokenizer တွေကို ဘယ်လို လေ့ကျင့်ရမလဲဆိုတာ သိသွားပြီ။,"有了这个,你现在知道怎么训练 自己的象征器了。"
1432,Why are fast tokenizers called fast?,Fast tokenizer တွေကို ဘာလို့ Fast လို့ခေါ်တာလဲ။,为什么快药剂叫快?
1433,"In this video, we'll see exactly how much faster, also so-called fast organizers are compared to their slow counterparts.",ဒီဗီဒီယိုမှာ Fast လို့ ခေါ်တဲ့ tokenizer တွေဟာ သူတို့ရဲ့ နှေးတဲ့ ဗားရှင်းတွေထက် တကယ်ကို ဘယ်လောက် မြန်လဲဆိုတာ အတိအကျ ကြည့်သွားမယ်။,"这段影片中,我们将看到 与慢速组织者相比, 速度究竟要快得多, 所谓的快速组织者也比起慢速组织者。"
1434,"For this benchmark, we'll use the GLUE MNLI dataset which contains 432,000 spells of text.",ဒီစံနှုန်းအတွက် စာသားအတွဲပေါင်း ၄၃၂၀၀၀ ပါဝင်တဲ့ GLUE MNLI dataset ကို သုံးသွားမယ်။,"对于这个基准,我们将使用GLUE MNLI数据集, 该数据集包含432,000个文字拼法。"
1435,We'll see how long it takes for the fast and slow versions of a BERT tokenizer to process them all.,BERT tokenizer ရဲ့ မြန်တဲ့ ဗားရှင်းနဲ့ နှေးတဲ့ ဗားရှင်းတွေက ဒီဒေတာတွေအားလုံးကို စီမံဆောင်ရွက်ဖို့ ဘယ်လောက်ကြာမလဲဆိုတာ ကြည့်ရအောင်။,我们看看一个快速和缓慢版本的BERT代谢器 需要多长时间才能处理它们
1436,We define our fast and slow token organizer using the AutoTokenizer API.,ကျွန်တော်တို့ရဲ့ မြန်တဲ့နဲ့ နှေးတဲ့ tokenizer တွေကို AutoTokenizer API ကို သုံးပြီး သတ်မှတ်တယ်။,我们使用自动控制器 API 来定义快速和慢速的象征性组织者 。
1437,The fast tokenizer is a default when available.,ရရှိနိုင်တဲ့အခါ fast tokenizer က မူရင်းအတိုင်း ဖြစ်တယ်။,快速代谢器是可用时的默认值 。
1438,"So we pass along, use_fast=False to define the slow one.",ဒါကြောင့် နှေးတဲ့ ဗားရှင်းကို သတ်မှတ်ဖို့အတွက် use_fast=False ကို ထည့်ပေးလိုက်တယ်။,"所以,我们经过,用快的法尔斯来定义慢的法尔斯。"
1439,"In a notebook, we can time the execution of itself with a time magic command, like this.",Notebook ထဲမှာ အခုလို time magic command ကို သုံးပြီး သူ့ရဲ့ လုပ်ဆောင်မှုကို အချိန်မှတ်တမ်းတင်နိုင်တယ်။,在笔记本上 我们可以用时间魔法命令 来计算自己被处决的时间 像这样
1440,Processing the whole data set is four times faster with a fast tokenizer.,data set တစ်ခုလုံးကို စီမံဆောင်ရွက်တာဟာ fast tokenizer နဲ့ဆိုရင် လေးဆ ပိုမြန်တယ်။,处理整个数据集的速度是快速代谢器的四倍。
1441,"That quicker indeed, but not very impressive.",တကယ်တော့ ပိုမြန်ပါတယ်၊ ဒါပေမယ့် သိပ်တော့ အထင်ကြီးစရာ မကောင်းဘူး။,"确实更快,但并不令人印象深刻。"
1442,This is because we passed along the texts to the tokenizer one at a time.,ဒါက စာသားတွေကို tokenizer ဆီ တစ်ခုချင်းစီ ပို့လိုက်လို့ ဖြစ်တယ်။,这是因为我们一次把文本传送给 象征体。
1443,"This is a common mistake to do with fast organizers which are backed by Rust, and thus able to prioritize the tokenization of multiple texts.",ဒါက Rust နဲ့ အရန်သင့်လုပ်ထားတဲ့ fast tokenizer တွေနဲ့ အဖြစ်များတဲ့ အမှားတစ်ခုပါ၊ သူတို့က စာသားများစွာကို tokenization လုပ်တာကို ဦးစားပေးနိုင်စွမ်း ရှိတယ်။,"这是一个常见的错误,涉及快速组织者,他们得到Rust的支持,因此能够将多种文本的象征化列为优先事项。"
1444,"Passing them only one text at a time, is like sending a cargo ship between two continents with just one container, it's very inefficient.",စာသားတစ်ခုတည်းကိုပဲ တစ်ကြိမ်တည်း ပို့တာက ကွန်တိန်နာ တစ်လုံးတည်းနဲ့ ကုန်တင်သင်္ဘောကို တိုက်ကြီးနှစ်ခုကြား ပို့သလိုမျိုးပဲ၊ ဒါဟာ အရမ်းကို စွမ်းဆောင်ရည် နည်းတယ်။,"一次只通过一个文本, 就像是在两个大陆之间发送一艘货轮, 只有一个集装箱, 效率非常低。"
1445,"To unleash the full speed of our fast tokenizers, we need to send them batches of texts, which we can do with the batched=True argument of the map method.",ကျွန်တော်တို့ရဲ့ fast tokenizer တွေရဲ့ အရှိန်အပြည့်ကို ထုတ်ယူဖို့အတွက် map နည်းလမ်းရဲ့ batched=True argument ကို သုံးပြီး စာသား အစုလိုက်တွေ ပို့ပေးဖို့ လိုအပ်တယ်။,"为了释放我们快速代币器的全速速度,我们需要发送成批的文本,我们可以用地图方法的批量=True参数来做。"
1446,"Now those are impressive results, so the fast tokenizer takes 12 second to process the dataset that takes four minute to the slow tokenizer.",အခုတော့ အထင်ကြီးစရာကောင်းတဲ့ ရလဒ်တွေပါပဲ၊ fast tokenizer က data set ကို စီမံဆောင်ရွက်ဖို့ ၁၂ စက္ကန့်ပဲ ကြာပြီး နှေးတဲ့ tokenizer က လေးမိနစ် ကြာတယ်။,"这些是令人印象深刻的结果, 所以快速代谢器需要12秒 才能处理数据集, 缓慢代谢器需要4分钟。"
1447,"Summarizing the results in this table, you can see why we have called those tokenizers fast.",ဒီဇယားမှာ ရလဒ်တွေကို အနှစ်ချုပ်လိုက်ရင် ဒီ tokenizer တွေကို ဘာလို့ fast လို့ ခေါ်တာလဲဆိုတာ မြင်နိုင်ပါပြီ။,"在总结本表格中的结果时,你可以看到为什么我们把那些代用品迅速称为代用品。"
1448,And this is only for tokenizing texts.,ဒါက စာသားတွေကို tokenization လုပ်တာအတွက်ပဲ ရှိသေးတယ်။,这只用于象征性的文本。
1449,"If you ever need to train a new tokenizer, they do this very quickly too.",tokenizer အသစ် လေ့ကျင့်ဖို့ လိုအပ်ရင်လည်း သူတို့က ဒါကို အလွန်မြန်မြန် လုပ်ဆောင်ပေးနိုင်တယ်။,"如果你需要训练一个新的代用品, 他们这样做非常快。"
1450,"The fast tokenizers of the Transformers library are fast, but they also implement features that will be super useful for data pre-processing and post-processing.",Transformers library ရဲ့ fast tokenizer တွေက မြန်ဆန်တယ်၊ ဒါ့အပြင် ဒေတာကို ကြိုတင်စီမံဆောင်ရွက်ခြင်းနဲ့ နောက်ဆက်တွဲ စီမံဆောင်ရွက်ခြင်းတွေအတွက် အရမ်းအသုံးဝင်မယ့် လုပ်ဆောင်ချက်တွေကိုလည်း အကောင်အထည်ဖော်ထားတယ်။,"变压器图书馆的快速代谢器速度很快,但它们也具有对数据处理预处理和后处理极为有用的功能。"
1451,Let's have a look at them!,သူတို့ကို ကြည့်ကြရအောင်!,让我们看看他们!
1452,"First, let's have a look at the usual output of a tokenizer.",ပထမဆုံး tokenizer ရဲ့ ပုံမှန်အထွက်ကို ကြည့်ရအောင်။,"首先,让我们看看一个象征器的通常输出。"
1453,"We get input IDs that correspond to token, but we lose a lot of information in the process.",token တွေနဲ့ ကိုက်ညီတဲ့ input ID တွေကို ရတယ်၊ ဒါပေမယ့် ဒီလုပ်ငန်းစဉ်မှာ အချက်အလက်တွေ အများကြီး ဆုံးရှုံးသွားတယ်။,"我们得到的输入代号与象征相对应, 但是我们在这个过程中丢失了很多信息。"
1454,"For instance, here the tokenization is the same for the two sentences even if one has several more spaces than the other.",ဥပမာအားဖြင့် စာကြောင်းနှစ်ကြောင်းမှာ တစ်ခုက နေရာလွတ် ပိုများနေရင်တောင် tokenization က အတူတူပဲ ဖြစ်နေတယ်။,"例如,这里的象征性化与两句相同,即使一句话的空格比另一句多几个。"
1455,"Just having the input IDs is thus not enough if we want to match some tokens with a span of text, something we'll need to do when tackling question answering, for instance.",ဒါကြောင့် input ID တွေချည်း ရှိရုံနဲ့ မလုံလောက်ဘူး၊ token အချို့ကို စာသားအပိုင်းအစနဲ့ ကိုက်ညီအောင် လုပ်ချင်ရင်ပေါ့၊ ဥပမာ မေးခွန်းဖြေခြင်းလို လုပ်ငန်းတွေကို လုပ်ဆောင်တဲ့အခါ ဒီလိုလုပ်ဖို့ လိုလိမ့်မယ်။,"因此,如果我们想要将一些标记与一段文字比对, 仅仅有输入的ID是不够的, 例如,在解答问题时,我们需要做一些事情。"
1456,It's also difficult to know when two tokens belong to the same word or not.,token နှစ်ခုဟာ စကားလုံးတစ်ခုတည်းကလား မဟုတ်ဘူးလားဆိုတာ သိဖို့လည်း ခက်တယ်။,也很难知道 当两个象征物 属于同一个词或不是。
1457,It looks easy when you just look at the output of a BERT tokenizer where we just need to look for the hash hash.,BERT tokenizer ရဲ့ အထွက်ကို ကြည့်ရင် hash hash ကိုပဲ ရှာကြည့်ဖို့ လိုတာကြောင့် လွယ်တယ်လို့ ထင်ရတယ်။,"当你只看一个BERT代谢器的输出时,它看起来很容易。 我们只需要在那里寻找大麻大麻。"
1458,But other tokenizers have different ways to tokenize parts of words.,ဒါပေမယ့် တခြား tokenizer တွေမှာ စကားလုံးအစိတ်အပိုင်းတွေကို tokenization လုပ်ဖို့ မတူညီတဲ့ နည်းလမ်းတွေ ရှိတယ်။,但其他的代售商有不同的方式 来象征部分的单词。
1459,"For instance, RoBERTa adds this special G symbol to mark the tokens at the beginning of the word and T5 uses this special underscore symbol for the same purpose.",ဥပမာအားဖြင့် RoBERTa က စကားလုံးရဲ့ အစမှာရှိတဲ့ token တွေကို မှတ်သားဖို့ ဒီအထူး G သင်္ကေတကို ထည့်ပေးပြီး T5 ကလည်း အဲဒီရည်ရွယ်ချက်အတွက် အထူး underscore သင်္ကေတကို သုံးတယ်။,"例如, RoBERTA 添加了这个特殊的 G 符号, 以标记字开头的标记符号, T5 也使用这个特殊的加亮符号来达到同样的目的 。"
1460,"Thankfully, the fast tokenizers keep track of the word each token comes from, with a word_ids method you can use on their outputs.",ကျေးဇူးတင်စရာကောင်းတာက fast tokenizer တွေက word_ids နည်းလမ်းကို သုံးပြီး token တစ်ခုချင်းစီက ဘယ်စကားလုံးကနေ လာတာလဲဆိုတာကို မှတ်သားထားတယ်။,"感恩的是,快速记号器会跟踪每个记号的单词, 并使用单词代号方法, 用于输出 。"
1461,"The output is not necessarily clear, but assembled together in a nice table like this, we can look at the word position for each token.",အထွက်က ရှင်းလင်းချင်မှ ရှင်းလင်းမယ်၊ ဒါပေမယ့် ဒီလို လှပတဲ့ ဇယားတစ်ခုထဲ စုစည်းလိုက်တဲ့အခါ token တစ်ခုချင်းစီအတွက် စကားလုံးရဲ့ အနေအထားကို ကြည့်နိုင်တယ်။,"输出不一定清晰, 但聚集在一张像这样的漂亮桌子上, 我们可以查看每个标记的单词位置 。"
1462,"Even better, the fast tokenizers keep track of the span of characters each token comes from, and we can get them when calling it on one or several text by adding the return_offsets_mapping=True argument.",ဒီထက် ပိုကောင်းတာက fast tokenizer တွေက token တစ်ခုစီက ဘယ်ဇာတ်ကောင်အပိုင်းအစကနေ လာတာလဲဆိုတာကို မှတ်သားထားပြီး return_offsets_mapping=True argument ကို ထည့်ပြီး စာသားတစ်ခု ဒါမှမဟုတ် အများအပြားမှာ ခေါ်ဆိုတဲ့အခါ သူတို့ကို ရယူနိုင်တယ်။,"更好的是,快速标记器跟踪每个标记来自的字符的跨度,我们可以通过添加返回_offeets_mapping=True 参数来在一个或多个文本上调用它们。"
1463,"In this instance, we can see how we jump positions between the hash hash token and the super token, because of the multiple spaces in the initial sentence.",ဒီဥပမာမှာ မူရင်းဝါကျထဲက နေရာလွတ်များစွာကြောင့် hash hash token နဲ့ super token ကြားမှာ အနေအထားတွေ ဘယ်လို ခုန်သွားလဲဆိုတာ မြင်နိုင်တယ်။,"在这个例子中,我们可以看到我们如何跳过 散列和超级标记之间的位置, 因为最初的句子有多个空格。"
1464,"To enable this, the fast tokenizers store additional information at each step of their internal pipeline.",ဒီလို လုပ်ဆောင်နိုင်ဖို့အတွက် fast tokenizer တွေက သူတို့ရဲ့ အတွင်းပိုင်း ပိုက်လိုင်းရဲ့ အဆင့်တိုင်းမှာ အပိုအချက်အလက်တွေ သိမ်းဆည်းထားတယ်။,"为了能够做到这一点,快速代售器在其内部输油管的每一步都储存更多的信息。"
1465,"That internal pipeline consists of normalization, where we apply some cleaning to the text, like lower casing or removing the accents; pre-tokenization, which is where we split the texts into words; then we apply the model of the tokenizer, which is where the words are split into tokens, before finally doing the post processing, where special tokens are added.",ဒီအတွင်းပိုင်း ပိုက်လိုင်းမှာ normalization ပါဝင်တယ်၊ စာသားကို lower casing ဒါမှမဟုတ် accent တွေ ဖယ်ရှားတာလိုမျိုး သန့်ရှင်းရေးလုပ်တယ်၊ pre-tokenization မှာ စာသားတွေကို စကားလုံးတွေအဖြစ် ပိုင်းတယ်၊ ပြီးတော့ tokenizer ရဲ့ မော်ဒယ်ကို သုံးတယ်၊ အဲဒီမှာ စကားလုံးတွေကို token တွေအဖြစ် ပိုင်းတယ်၊ နောက်ဆုံးမှာတော့ post processing လုပ်တယ်၊ အဲဒီမှာ အထူး token တွေ ထည့်ပေးတယ်။,"该内部管道包括正常化,我们用一些清洁方法来清除文本,例如下方的外壳或去除口音; 事先确认,这就是我们将文本分成文字的文字; 然后我们应用象征性品的模型,就是将单词分割成象征性品,然后最后完成后期处理,加上特殊标志。"
1466,"From the beginning to the end of the pipeline, the tokenizer keeps track of each span of text that corresponds to each word, then each token.",ပိုက်လိုင်းရဲ့ အစကနေ အဆုံးအထိ tokenizer က စကားလုံးတစ်ခုချင်းစီနဲ့ ပြီးတော့ token တစ်ခုချင်းစီနဲ့ ကိုက်ညီတဲ့ စာသားအပိုင်းအစတွေကို မှတ်သားထားတယ်။,"从输油管的开始到结束, 代号器会记录每个对应每个单词, 然后每个符号的文本的长度 。"
1467,We'll see how useful it is when we tackle the following tasks:,ဒီလုပ်ငန်းတွေကို လုပ်ဆောင်တဲ့အခါ ဒါက ဘယ်လောက် အသုံးဝင်လဲဆိုတာ ကြည့်ရအောင်။,"当我们完成以下任务时,我们将看到它是多么有用:"
1468,when doing masked language modeling one variation that gets state-of-the-art results is to mask all the tokens of a given word instead of randomly chosen words.,masked language modeling လုပ်တဲ့အခါ အကောင်းဆုံး ရလဒ်တွေ ရရှိတဲ့ နည်းလမ်းတစ်ခုက ကျပန်းရွေးချယ်ထားတဲ့ စကားလုံးတွေအစား စကားလုံးတစ်ခုလုံးရဲ့ token တွေအားလုံးကို ဖုံးကွယ်လိုက်တာ ဖြစ်တယ်။,"当做蒙面语言模拟一个变异时, 最先进的变异结果是隐藏给定单词的所有符号, 而不是随机选择单词 。"
1469,This will require us to use the word IDs we saw.,ဒီအတွက် ကျွန်တော်တို့ မြင်ခဲ့ရတဲ့ word ID တွေကို သုံးဖို့ လိုလိမ့်မယ်။,这就需要我们使用我们看到的识别符号
1470,"When doing token classification, we'll need to convert the labels we have on words, to labels on each tokens.",token classification လုပ်တဲ့အခါ စကားလုံးတွေပေါ်မှာ ရှိတဲ့ label တွေကို token တစ်ခုစီရဲ့ label တွေအဖြစ် ပြောင်းဖို့ လိုလိမ့်မယ်။,"当做代号分类时, 我们需要将单词上的标签转换为每个代号上的标签 。"
1471,"As for the offset mappings, it will be super useful when we need to convert token positions in a sentence into a span of text, which we'll need to know when we're looking at question answering or when grouping the tokens corresponding to the same entity in token classification.",Offset mapping တွေကတော့ ဝါကျတစ်ခုထဲက token အနေအထားတွေကို စာသားအပိုင်းအစအဖြစ် ပြောင်းဖို့ လိုအပ်တဲ့အခါ အရမ်းအသုံးဝင်ပါလိမ့်မယ်၊ ဒါက question answering ကို ကြည့်တဲ့အခါ ဒါမှမဟုတ် token classification မှာ တူညီတဲ့ entity နဲ့ ကိုက်ညီတဲ့ token တွေကို စုစည်းတဲ့အခါ သိဖို့ လိုအပ်တယ်။,"至于抵消映射,当我们需要将句子中的符号位置转换成一个文本范围时,它将是非常有用的, 我们需要知道当我们研究答题时, 或者在对对应同一实体的符号进行符号分类时。"
1472,"To have a look at these tasks, check the videos linked below!",ဒီလုပ်ငန်းတွေကို ကြည့်ဖို့အတွက် အောက်မှာ လင့်ခ်ချိတ်ထားတဲ့ ဗီဒီယိုတွေကို ကြည့်လိုက်ပါ!,"看看这些任务, 看看下面连结的录像!"
1473,Let's have a look inside the token classification pipeline.,Token classification pipeline ရဲ့ အတွင်းပိုင်းကို ကြည့်ရအောင်။,让我们看看象征性分类管道里面的情况
1474,"In the pipeline video, we looked at the different applications the Transformers library supports out of the box, one of them being token classification, for instance predicting for each word in a sentence whether they correspond to a person, an organization or a location.",Pipeline ဗီဒီယိုမှာ Transformers library က ပံ့ပိုးပေးတဲ့ အသုံးချပရိုဂရမ်တွေကို ကြည့်ခဲ့ကြတယ်၊ အဲဒီထဲက တစ်ခုကတော့ token classification ဖြစ်ပြီး ဥပမာအားဖြင့် ဝါကျတစ်ခုထဲက စကားလုံးတစ်လုံးချင်းစီက လူပုဂ္ဂိုလ်၊ အဖွဲ့အစည်း ဒါမှမဟုတ် တည်နေရာနဲ့ ကိုက်ညီလားဆိုတာ ခန့်မှန်းတာပေါ့။,"在编审视频中,我们查看了变压器图书馆所支持的不同应用程序,其中一个是象征性分类,例如,对句子中每个词的预测是对应一个人、一个组织或一个地点的。"
1475,"We can even group together the tokens corresponding to the same entity, for instance all the tokens that formed the word Sylvain here, or Hugging and Face.",တူညီတဲ့ entity နဲ့ ကိုက်ညီတဲ့ token တွေကိုတောင် စုစည်းလို့ရတယ်၊ ဥပမာ ဒီမှာ Sylvain ဆိုတဲ့ စကားလုံးကို ဖွဲ့စည်းထားတဲ့ token တွေအားလုံး ဒါမှမဟုတ် Hugging နဲ့ Face တို့လိုပေါ့။,"我们甚至可以把属于同一实体的标牌组合在一起,例如,在这里形成Sylvain一词的所有标牌,或“Hugging and Face”等。"
1476,The token classification pipeline works the same way as the text classification pipeline we studied in the previous video.,token classification pipeline က အရင်ဗီဒီယိုမှာ လေ့လာခဲ့တဲ့ text classification pipeline နဲ့ အတူတူ အလုပ်လုပ်ပါတယ်။,象征性分类管道与我们在上一段录像中研究的文本分类管道相同。
1477,There are three steps.,အဆင့်သုံးဆင့် ရှိတယ်။,有三个步骤。
1478,"The tokenization, the model, and the postprocessing.",Tokenization၊ မော်ဒယ်နဲ့ postprocessing တို့ ဖြစ်တယ်။,象征性化 模型 后处理
1479,"The first two steps are identical to the text classification pipeline, except we use an auto token classification model instead of a sequence classification one.",ပထမနှစ်ဆင့်က text classification pipeline နဲ့ အတူတူပဲ၊ ဒါပေမယ့် sequence classification မော်ဒယ်အစား auto token classification မော်ဒယ်ကို သုံးတာပဲ ကွာတယ်။,"前两个步骤与文本分类管道完全相同,但我们使用的是自动代号分类模式,而不是序列分类模式。"
1480,We tokenize our text then feed it to the model.,ကျွန်တော်တို့ရဲ့ စာသားကို tokenization လုပ်ပြီး မော်ဒယ်ကို ထည့်ပေးလိုက်တယ်။,我们象征我们的文本 然后把它输入模型。
1481,"Instead of getting one number for each possible label for the whole sentence, we get one number for each of the possible nine labels for every token in the sentence, here 19.",ဝါကျတစ်ခုလုံးအတွက် ဖြစ်နိုင်တဲ့ label တစ်ခုစီအတွက် ဂဏန်းတစ်ခု ရတာအစား၊ ဝါကျထဲက token တိုင်းအတွက် ဖြစ်နိုင်တဲ့ label ကိုးခုထဲက ဂဏန်းတစ်ခုစီကို ရရှိတယ်၊ ဒီမှာတော့ ၁၉ ခုပေါ့။,"我们没有为整个句子的每一个可能的标签获得一个号码,而是为句子中每个标记的9个标签中每个标签都获得一个号码,这里19个。"
1482,"Like all the other models of the Transformers library, our model outputs logits, which we turn into predictions by using a SoftMax.",Transformers library ရဲ့ တခြားမော်ဒယ်တွေလိုပဲ ကျွန်တော်တို့ရဲ့ မော်ဒယ်က logits တွေကို ထုတ်ပေးတယ်၊ အဲဒါကို SoftMax ကို သုံးပြီး ခန့်မှန်းချက်တွေအဖြစ် ပြောင်းလိုက်တယ်။,"和变形者图书馆的所有其他模型一样, 我们的模型输出日志, 我们用软式马克思转换成预测。"
1483,"We also get the predicted label for each token by taking the maximum prediction, since the SoftMax function preserves the orders, we could have done it on the logits if we had no need of the predictions.",SoftMax function က အစီအစဉ်ကို ထိန်းသိမ်းထားတာကြောင့် အမြင့်ဆုံး ခန့်မှန်းချက်ကို ယူပြီး token တစ်ခုချင်းစီအတွက် ခန့်မှန်းထားတဲ့ label ကိုလည်း ရရှိနိုင်တယ်၊ ခန့်မှန်းချက်တွေ မလိုအပ်ရင် logits ပေါ်မှာလည်း လုပ်နိုင်တယ်။,"我们还通过作出最大预测来获得每个标记的预期标签, 因为软体马克思功能保留了订单, 如果我们不需要预测, 我们可以在日志上做。"
1484,The model config contains the label mapping in its id2label field.,မော်ဒယ် config မှာ သူ့ရဲ့ id2label ကဏ္ဍမှာ label mapping ပါဝင်တယ်။,模型配置包含 id2 标签字段中的标签映射 。
1485,"Using it, we can map every token to its corresponding label.",ဒါကို သုံးပြီး token တိုင်းကို သက်ဆိုင်ရာ label နဲ့ ကိုက်ညီအောင် လုပ်နိုင်တယ်။,"使用它,我们可以绘制每个标记到相应的标签上。"
1486,"The label, O, correspond to no entity, which is why we didn't see it in our results in the first slide.",O ဆိုတဲ့ label က entity မဟုတ်တာကို ကိုက်ညီပြီး အဲဒါကြောင့် ပထမဆလိုက်က ရလဒ်တွေမှာ မတွေ့ရတာ ဖြစ်တယ်။,标签 O 与任何实体都没有对应 这就是为什么我们没有在第一张幻灯片的成绩中看到它
1487,"On top of the label and the probability, those results included the start and end character in the sentence.",label နဲ့ ဖြစ်နိုင်ခြေအပြင် ဒီရလဒ်တွေမှာ ဝါကျထဲက စတင်တဲ့နဲ့ အဆုံးသတ်တဲ့ စာလုံးတွေကိုပါ ထည့်သွင်းထားတယ်။,"在标签和概率之上,这些结果包括句子中的开头和结尾字符。"
1488,We'll need to use the offset mapping of the tokenizer to get those.,ဒါတွေကို ရဖို့အတွက် tokenizer ရဲ့ offset mapping ကို သုံးဖို့ လိုလိမ့်မယ်။,我们需要利用代币器的偏移图 才能拿到那些
1489,Look at the video linked below if you don't know about them already.,သူတို့အကြောင်း မသိသေးဘူးဆိုရင် အောက်မှာ လင့်ခ်ချိတ်ထားတဲ့ ဗီဒီယိုကို ကြည့်လိုက်ပါ။,"看看下面连线的视频,如果你还不知道的话。"
1490,"Then, looping through each token that has a label distinct from O, we can build the list of results we got with our first pipeline.",ပြီးရင် O နဲ့ မတူတဲ့ label ရှိတဲ့ token တစ်ခုချင်းစီကို စစ်ကြည့်ပြီး ကျွန်တော်တို့ရဲ့ ပထမဆုံး pipeline နဲ့ ရခဲ့တဲ့ ရလဒ်စာရင်းကို တည်ဆောက်နိုင်တယ်။,"然后,通过每个标志 都有与O不同的标签, 我们可以建立我们通过第一个输油管获得的结果清单。"
1491,The last step is to group together tokens that correspond to the same entity.,နောက်ဆုံးအဆင့်ကတော့ တူညီတဲ့ entity နဲ့ ကိုက်ညီတဲ့ token တွေကို စုစည်းဖို့ပဲ ဖြစ်တယ်။,最后一步是将对应同一实体的标牌组合在一起。
1492,"This is why we had two labels for each type of entity, I-PER and B-PER, for instance.",ဒါကြောင့် entity အမျိုးအစားတစ်ခုစီအတွက် I-PER နဲ့ B-PER လိုမျိုး label နှစ်ခု ရှိခဲ့တာ ဖြစ်တယ်။,"这就是为什么我们为每类实体,例如I-PER和B-PER两个标签。"
1493,It allows us to know if a token is in the same entity as the previous one.,ဒါက token တစ်ခုဟာ အရင် token နဲ့ တူညီတဲ့ entity ထဲမှာ ရှိလားဆိုတာ သိနိုင်ဖို့ ခွင့်ပြုတယ်။,它让我们知道一个象征是否与前一个实体在同一实体。
1494,"Note, that there are two ways of labeling used for token classification.",Token classification အတွက် label တပ်နည်း နှစ်မျိုး ရှိတယ်ဆိုတာ သတိပြုပါ။,"请注意,代号分类使用两种标签方式。"
1495,"One, in pink here, uses the B-PER label at the beginning of each new entity, but the other, in blue, only uses it to separate two adjacent entities of the same type.",ဒီမှာ ပန်းရောင်နဲ့ ပြထားတဲ့ နည်းလမ်းတစ်ခုက entity အသစ်တိုင်းရဲ့ အစမှာ B-PER label ကို သုံးတယ်၊ ဒါပေမယ့် အပြာရောင်နဲ့ ပြထားတဲ့ နောက်တစ်နည်းကတော့ အမျိုးအစားတူတဲ့ ကပ်လျက် entity နှစ်ခုကို ခွဲဖို့သာ သုံးတယ်။,"粉红色的一面,在每个新实体开始时使用B-PER标签,但另一面,蓝色的,只用来分离两个相邻的同类实体。"
1496,"In both cases, we can flag a new entity each time we see a new label appearing, either with the I or B prefix, then take all the following tokens labeled the same, with an I-flag.",နှစ်ခုစလုံးမှာ I ဒါမှမဟုတ် B prefix နဲ့ label အသစ်တစ်ခု ပေါ်လာတိုင်း entity အသစ်တစ်ခုကို အလံပြနိုင်ပြီး I-flag နဲ့ တူညီတဲ့ label တပ်ထားတဲ့ နောက်ဆက်တွဲ token အားလုံးကို ယူနိုင်တယ်။,"在这两种情况下,我们每次看到新标签出现时,只要有I或B前缀,就可以挂上一个新的实体,然后用I-旗,拿上标签的所有以下标记。"
1497,"This, coupled with the offset mapping to get the start and end characters allows us to get the span of texts for each entity.",ဒါက offset mapping နဲ့ ပေါင်းစပ်ပြီး စတင်တဲ့နဲ့ အဆုံးသတ်တဲ့ စာလုံးတွေကို ရယူခြင်းက entity တစ်ခုချင်းစီအတွက် စာသားအပိုင်းအစကို ရရှိစေတယ်။,"加上为获得开始和结束字符而绘制的抵消图, 使我们能够获得每个实体的文本范围。"
1498,"In the pipeline video, we looked at the different applications the Transformers library supports out of the box.",Pipeline ဗီဒီယိုမှာ Transformers library က ပံ့ပိုးပေးတဲ့ အသုံးချပရိုဂရမ်တွေကို ကြည့်ခဲ့ကြတယ်။,"在管道视频中,我们查看了 变形者图书馆所支持的不同应用程序 从盒子里出来。"
1499,One of them being token classification.,အဲဒီထဲက တစ်ခုကတော့ token classification ဖြစ်တယ်။,其中之一是象征性分类。
1500,"For instance, predicting for each word in a sentence, whether they correspond to a person, an organization, or location.",ဥပမာအားဖြင့် ဝါကျတစ်ခုထဲက စကားလုံးတစ်လုံးချင်းစီက လူပုဂ္ဂိုလ်၊ အဖွဲ့အစည်း ဒါမှမဟုတ် တည်နေရာနဲ့ ကိုက်ညီလားဆိုတာ ခန့်မှန်းတာပေါ့။,"例如,在句子中预测每个词,它们是否与一个人、一个组织或地点相对应。"
1501,We can even group together the tokens corresponding to the same entity.,တူညီတဲ့ entity နဲ့ ကိုက်ညီတဲ့ token တွေကိုတောင် စုစည်းလို့ရတယ်။,我们甚至可以把属于同一实体的物品组合在一起。
1502,"For instance, all the tokens that form the word Sylvain here or Hugging and Face.",ဥပမာ ဒီမှာ Sylvain ဆိုတဲ့ စကားလုံးကို ဖွဲ့စည်းထားတဲ့ token တွေအားလုံး ဒါမှမဟုတ် Hugging နဲ့ Face တို့လိုပေါ့။,"比如说,所有代表Sylvain的标志 在这儿或者抱抱和面孔。"
1503,"So, token classification pipeline works the same way as a text classification pipeline we studied in a previous video.",ဒါကြောင့် token classification pipeline က အရင်ဗီဒီယိုမှာ လေ့လာခဲ့တဲ့ text classification pipeline နဲ့ အတူတူ အလုပ်လုပ်ပါတယ်။,"因此,象征性分类管道与我们以前在录像中研究的文本分类管道相同。"
1504,"Tokenization, the model, and the post processing.",Tokenization၊ မော်ဒယ်နဲ့ post processing တို့ ဖြစ်တယ်။,"名声化,模型, 和邮局处理。"
1505,"We tokenize our text, then feed it to the model.",ကျွန်တော်တို့ရဲ့ စာသားကို tokenization လုပ်ပြီး မော်ဒယ်ကို ထည့်ပေးလိုက်တယ်။,"我们象征着我们的文本, 然后把它反馈给模型。"
1506,"Instead of getting one number for each possible level for the whole sentence, we get one number for each of the possible nine levels for every token in the sentence.",ဝါကျတစ်ခုလုံးအတွက် ဖြစ်နိုင်တဲ့ level တစ်ခုစီအတွက် ဂဏန်းတစ်ခု ရတာအစား၊ ဝါကျထဲက token တိုင်းအတွက် ဖြစ်နိုင်တဲ့ level ကိုးခုထဲက ဂဏန်းတစ်ခုစီကို ရရှိတယ်။,"我们没有为整个句子的每一个可能级别获得一个数字,而是为句子中每一个可能达到的9级级别中每一个级别都获得一个数字。"
1507,"Here, 19.",ဒီမှာ ၁၉ ခုပေါ့။,"这儿,19个"
1508,"Like all the other models of the Transformers library, our model outputs logits which we need to turn into predictions by using a SoftMax.",Transformers library ရဲ့ တခြားမော်ဒယ်တွေလိုပဲ ကျွန်တော်တို့ရဲ့ မော်ဒယ်က logits တွေကို ထုတ်ပေးတယ်၊ အဲဒါကို SoftMax ကို သုံးပြီး ခန့်မှန်းချက်တွေအဖြစ် ပြောင်းဖို့ လိုအပ်တယ်။,"和变形者图书馆的所有其他模型一样, 我们的模型输出日志, 我们需要通过使用 SoftMax 来转换成预测。"
1509,We also get the predicted label for each token by taking the maximum prediction.,SoftMax function က အစီအစဉ်ကို ထိန်းသိမ်းထားတာကြောင့် အမြင့်ဆုံး ခန့်မှန်းချက်ကို ယူပြီး token တစ်ခုချင်းစီအတွက် ခန့်မှန်းထားတဲ့ label ကိုလည်း ရရှိနိုင်တယ်။,我们还通过作出最大预测来获得每个标记的预期标签。
1510,"Since the softmax function preserves the order, we could have done it on the logits if we had no need of the predictions.",SoftMax function က အစီအစဉ်ကို ထိန်းသိမ်းထားတာကြောင့် ခန့်မှန်းချက်တွေ မလိုအပ်ရင် logits ပေါ်မှာလည်း လုပ်နိုင်တယ်။,"既然软轴功能保留了订单, 如果我们不需要预测, 我们可以在登录上做它。"
1511,"The label O corresponds to ""no entity"" which is why we didn't see it in our results in the first slide.",O ဆိုတဲ့ label က entity မဟုတ်တာကို ကိုက်ညီပြီး အဲဒါကြောင့် ပထမဆလိုက်က ရလဒ်တွေမှာ မတွေ့ရတာ ဖြစ်တယ်။,"标签O与“无实体”相对应,所以我们没有在第一个幻灯片中看到结果。"
1512,Look at the video link below if you don't know about them already.,သူတို့အကြောင်း မသိသေးဘူးဆိုရင် အောက်မှာ လင့်ခ်ချိတ်ထားတဲ့ ဗီဒီယိုကို ကြည့်လိုက်ပါ။,"看看下面的视频链接,如果你不知道的话。"
1513,The last step is to group together tokens that corresponds to the same entity.,နောက်ဆုံးအဆင့်ကတော့ တူညီတဲ့ entity နဲ့ ကိုက်ညီတဲ့ token တွေကို စုစည်းဖို့ပဲ ဖြစ်တယ်။,最后一步是将对应同一实体的标牌组合在一起。
1514,"This is why we had two labels for each type of entity, I-PER and B-PER for instance.",ဒါကြောင့် entity အမျိုးအစားတစ်ခုစီအတွက် I-PER နဲ့ B-PER လိုမျိုး label နှစ်ခု ရှိခဲ့တာ ဖြစ်တယ်။,"这就是为什么我们为每类实体,例如I-PER和B-PER两个标签。"
1515,It allows us to know if a token is in the same entity as a previous one.,ဒါက token တစ်ခုဟာ အရင် token နဲ့ တူညီတဲ့ entity ထဲမှာ ရှိလားဆိုတာ သိနိုင်ဖို့ ခွင့်ပြုတယ်။,它让我们知道一个象征是否与前一个实体在同一实体。
1516,Note that there are two ways of labeling used for token classification.,Token classification အတွက် label တပ်နည်း နှစ်မျိုး ရှိတယ်။,"请注意,代号分类使用两种标签方式。"
1517,"One, in pink here, uses the B-PER label at the beginning of each new entity.",ဒီမှာ ပန်းရောင်နဲ့ ပြထားတဲ့ နည်းလမ်းတစ်ခုက entity အသစ်တိုင်းရဲ့ အစမှာ B-PER label ကို သုံးတယ်။,"一是粉红色的,在每个新实体的开头使用B-PER标签。"
1518,But the other in blue only uses it to separate two adjacent entities of the same types.,ဒါပေမယ့် အပြာရောင်နဲ့ ပြထားတဲ့ နောက်တစ်နည်းကတော့ အမျိုးအစားတူတဲ့ ကပ်လျက် entity နှစ်ခုကို ခွဲဖို့သာ သုံးတယ်။,"但另一件蓝色只用于分离两个相邻实体,它们类型相同。"
1519,"In both cases we can flag a new entity each time we see a new label appearing, either with the I or B prefix.",နှစ်ခုစလုံးမှာ I ဒါမှမဟုတ် B prefix နဲ့ label အသစ်တစ်ခု ပေါ်လာတိုင်း entity အသစ်တစ်ခုကို အလံပြနိုင်တယ်။,"在这两种情况下,我们每次看到新标签出现时,都可以在I或B前缀上标出一个新的实体。"
1520,"Then, take all the following tokens labeled the same with an I-flag.",ပြီးရင် I-flag နဲ့ တူညီတဲ့ label တပ်ထားတဲ့ နောက်ဆက်တွဲ token အားလုံးကို ယူနိုင်တယ်။,"然后,拿下所有以下贴有I旗标签的贴有同样标签的牌子。"
1521,Let's have a look inside the question answering pipeline.,Question answering pipeline ရဲ့ အတွင်းပိုင်းကို ကြည့်ရအောင်။,让我们看看解答管道的问题
1522,"The question answering pipeline can extracts answers to questions from a given context or passage of text, like this part of the transformers repo README.",Question answering pipeline က မေးခွန်းတွေရဲ့ အဖြေတွေကို ပေးထားတဲ့ context ဒါမှမဟုတ် စာသားအပိုင်းအစကနေ ထုတ်ယူနိုင်တယ်၊ ဒီ transformers repo README ရဲ့ အပိုင်းလိုမျိုးပေါ့။,"解答输油管的问题可以从特定背景或文本的通过中解答问题,例如变压器的这一部分,即变压器的README。"
1523,"It also works for very long contexts, even if the answer is at the very end, like in this example.",ဒီဥပမာလိုမျိုး အဖြေက အဆုံးမှာ ရှိနေရင်တောင် အလွန်ရှည်တဲ့ context တွေအတွက်လည်း အလုပ်လုပ်ပါတယ်။,"它也适用于非常长的环境,即使答案是最终的,例如这个例子。"
1524,"In this video, we will see why.",ဒီဗီဒီယိုမှာ ဘာကြောင့်လဲဆိုတာ ကြည့်ပါမယ်။,"这部影片中,我们会看到原因。"
1525,"The question answering pipeline follows the same steps as the other pipelines: the question and context are tokenized as a sentence pair, fed to the model then some post-processing is applied.",Question answering pipeline က တခြား pipeline တွေနဲ့ အဆင့်တူတူ လိုက်နာတယ်၊ မေးခွန်းနဲ့ context ကို ဝါကျအတွဲအဖြစ် tokenization လုပ်တယ်၊ မော်ဒယ်ကို ထည့်ပေးပြီးတော့ post-processing အချို့ကို အသုံးချတယ်။,"回答的输油管问题遵循了与其他输油管相同的步骤:问题和上下文被象征成一对句子,输入模型,然后采用一些后处理。"
1526,The tokenization and model steps should be familiar.,Tokenization နဲ့ မော်ဒယ် အဆင့်တွေက ရင်းနှီးပြီးသား ဖြစ်သင့်တယ်။,应熟悉象征性和示范步骤。
1527,"We use the auto class suitable for question answering instead of sequence classification, but one key difference with text classification is that our model outputs two tensors named start logits and end logits.",sequence classification အစား question answering အတွက် သင့်တော်တဲ့ auto class ကို သုံးတယ်၊ ဒါပေမယ့် text classification နဲ့ အဓိက ကွာခြားချက်တစ်ခုကတော့ ကျွန်တော်တို့ရဲ့ မော်ဒယ်က start logits နဲ့ end logits လို့ နာမည်ပေးထားတဲ့ tensor နှစ်ခု ထုတ်ပေးတာပဲ ဖြစ်တယ်။,"我们使用适合回答问题的自动分类,而不是序列分类,但与文本分类的一个关键区别是,我们的模型输出出两个称为启动登录和终端登录的10万个元数据。"
1528,Why is that?,ဘာဖြစ်လို့လဲ။,为什么?
1529,"Well, this is the way the model finds the answer to the question.",ကောင်းပြီ၊ ဒါက မော်ဒယ်က မေးခွန်းရဲ့ အဖြေကို ရှာဖွေတဲ့ နည်းလမ်းပဲ ဖြစ်တယ်။,模型就是这么找到问题的答案的
1530,"First, let's have a look at the model inputs.",ပထမဆုံး မော်ဒယ်ရဲ့ ထည့်သွင်းချက်တွေကို ကြည့်ရအောင်။,"首先,让我们看看模型输入。"
1531,Its numbers associated with the tokenization of the question followed by the context with the usual CLS and SEP special tokens.,ဒါက မေးခွန်းကို tokenization လုပ်ထားတဲ့ ဂဏန်းတွေ ဖြစ်ပြီး အဲဒီနောက် ပုံမှန် CLS နဲ့ SEP အထူး token တွေနဲ့ context ပါလာတယ်။,"其编号与问题象征性化有关,然后是通常的CLS和SEP特别标志的上下文。"
1532,The answer is a part of those tokens.,အဖြေက အဲဒီ token တွေရဲ့ အစိတ်အပိုင်းတစ်ခု ဖြစ်တယ်။,答案就是这些象征的一部分。
1533,So we ask the model to predict which token starts the answer and which ends the answer.,ဒါကြောင့် မော်ဒယ်ကို ဘယ် token က အဖြေကို စတင်ပြီး ဘယ် token က အဖြေကို အဆုံးသတ်လဲဆိုတာ ခန့်မှန်းဖို့ တောင်းဆိုတယ်။,"因此,我们要求模型预测哪个符号开始回答,哪个符号结束回答。"
1534,"For our two logit outputs, the theoretical labels are the pink and purple vectors.",ကျွန်တော်တို့ရဲ့ logit အထွက်နှစ်ခုအတွက် သီအိုရီအရ label တွေက ပန်းရောင်နဲ့ ခရမ်းရောင် vector တွေ ဖြစ်တယ်။,"对于我们的两个日志输出,理论标签是粉色和紫色矢量。"
1535,"To convert those logits into probabilities, we will need to apply a SoftMax, like in the text classification pipeline.",အဲဒီ logits တွေကို ဖြစ်နိုင်ခြေတွေအဖြစ် ပြောင်းလဲဖို့အတွက် text classification pipeline မှာလိုပဲ SoftMax ကို အသုံးချဖို့ လိုလိမ့်မယ်။,"要将这些登录转换成概率, 我们需要应用软式最大数据, 如文本分类管道 。"
1536,"We just mask the tokens that are not part of the context before doing that, leaving the initial CLS token unmasked as we use it to predict an impossible answer.",အဲဒီလို မလုပ်ခင် context ရဲ့ အစိတ်အပိုင်း မဟုတ်တဲ့ token တွေကို mask လုပ်လိုက်တယ်၊ အစကနဦး CLS token ကိုတော့ mask မလုပ်ဘဲ ထားတယ်၊ ဘာလို့လဲဆိုတော့ မဖြစ်နိုင်တဲ့ အဖြေကို ခန့်မှန်းဖို့ သုံးလို့ ဖြစ်တယ်။,"我们只是遮盖在这样做之前不属于上下文的一部分的标记,留下最初的CLS标记,在我们用它来预测不可能的答案时,不戴面具。"
1537,This is what it looks in terms of code.,ဒါက code အရ ဘယ်လိုပုံစံလဲဆိုတာကို ပြတာပါ။,这是它从代码的角度看的。
1538,"We use a large negative number for the masking, since its exponential will then be zero.",Masking အတွက် ကြီးမားတဲ့ အနုတ်ဂဏန်းကို သုံးတယ်၊ ဘာလို့လဲဆိုတော့ သူ့ရဲ့ exponential က သုည ဖြစ်သွားမှာမို့လို့ ဖြစ်တယ်။,"我们使用一个很大的负数来遮盖面罩, 因为它的指数将是零。"
1539,"Now, the probability for each start and end position corresponding to a possible answer, we give a score that is the product of the start probabilities and end probabilities at those positions.",အခု ဖြစ်နိုင်တဲ့ အဖြေနဲ့ ကိုက်ညီတဲ့ စတင်တဲ့နဲ့ အဆုံးသတ်တဲ့ အနေအထားတစ်ခုစီရဲ့ ဖြစ်နိုင်ခြေအတွက် အဲဒီ အနေအထားတွေမှာရှိတဲ့ စတင်တဲ့ ဖြစ်နိုင်ခြေတွေနဲ့ အဆုံးသတ်တဲ့ ဖြစ်နိုင်ခြေတွေရဲ့ မြှောက်လဒ်ဖြစ်တဲ့ score ကို ပေးတယ်။,"现在,每个开始和结束位置的概率与可能的答案相对应, 我们给出一个分数, 这是这些位置的开始概率和结束概率的产物。"
1540,"Of course, a start index greater than an end index corresponds to an impossible answer.",ဟုတ်ပါတယ်၊ စတင်တဲ့ index က အဆုံးသတ် index ထက် ပိုကြီးရင် မဖြစ်နိုင်တဲ့ အဖြေနဲ့ ကိုက်ညီတယ်။,"当然,起始指数大于终点指数就等于不可能回答。"
1541,Here is the code to find the best score for a possible answer.,ဖြစ်နိုင်တဲ့ အဖြေတစ်ခုအတွက် အကောင်းဆုံး score ကို ရှာဖွေဖို့ code ပါ။,这是找到最佳分数的代码 以便找到可能的答案
1542,"Once we have the start and end positions of the tokens, we use the offset mappings provided by our tokenizer to find the span of characters in the initial context, and get our answer.",token တွေရဲ့ စတင်တဲ့နဲ့ အဆုံးသတ်တဲ့ အနေအထားတွေ ရပြီဆိုရင် tokenizer က ပေးထားတဲ့ offset mapping တွေကို သုံးပြီး မူရင်း context ထဲက စာလုံးအပိုင်းအစကို ရှာပြီး အဖြေကို ရယူတယ်။,"一旦我们有了标志的开始和结束位置, 我们就会使用我们象征器提供的 抵消映射图, 在初始背景中找到字符的宽度, 并获得我们的答案 。"
1543,"Now, when the context is long, it might get truncated by the tokenizer.",အခု context က ရှည်လာတဲ့အခါ tokenizer က ဖြတ်တောက်ခံရနိုင်တယ်။,"现在,当上下文很长的时候,它可能会被代号器截断。"
1544,"This might result in part of the answer, or worse, the whole answer, being truncated.",ဒါက အဖြေရဲ့ တစ်စိတ်တစ်ပိုင်း ဒါမှမဟုတ် ပိုဆိုးတာက အဖြေတစ်ခုလုံး ဖြတ်တောက်ခံရနိုင်တယ်။,"这可能导致部分答案,或更糟糕的是,整个答案被缩短。"
1545,So we don't discard the truncated tokens but build new features with them.,ဒါကြောင့် ဖြတ်တောက်ထားတဲ့ token တွေကို မပစ်လိုက်ဘဲ သူတို့နဲ့ features အသစ်တွေ တည်ဆောက်တယ်။,"所以,我们不丢弃短路标牌,而是用它们来创造新的特征。"
1546,"Each of those features contains the question, then a chunk of text in the context.",အဲဒီ feature တစ်ခုစီမှာ မေးခွန်း၊ ပြီးတော့ context ထဲက စာသားအပိုင်းအစတစ်ခု ပါဝင်တယ်။,"其中每个特点都包含问题,然后在上下文中有一大部分案文。"
1547,"If we take disjoint chunks of texts, we might end up with the answer being split between two features.",စာသားအပိုင်းအစတွေကို မဆက်စပ်ဘဲ ယူလိုက်ရင် အဖြေက feature နှစ်ခုကြားမှာ ကွဲသွားနိုင်တယ်။,"如果我们把大部分案文脱节,我们最终可能把答案分成两个特点。"
1548,"So instead, we take overlapping chunks of texts, to make sure at least one of the chunks will fully contain the answer to the question.",ဒါကြောင့် အဲဒီအစား စာသားအပိုင်းအစတွေကို ထပ်နေအောင် ယူလိုက်ပြီး အပိုင်းအစ တစ်ခုခုက မေးခွန်းရဲ့ အဖြေကို အပြည့်အဝ ပါဝင်စေဖို့ သေချာအောင် လုပ်တယ်။,"因此,我们取了重叠的文本块, 以确保其中至少有一个部分 完全包含对问题的答案。"
1549,The tokenizers do all of this for us automatically with the return overflowing tokens option.,tokenizer တွေက return overflowing tokens ရွေးချယ်မှုနဲ့ ဒီအရာအားလုံးကို ကျွန်တော်တို့အတွက် အလိုအလျောက် လုပ်ပေးတယ်။,"代币器自动为我们做所有这些, 使用返回溢出的标牌选项 。"
1550,The stride argument controls the number of overlapping tokens.,stride argument က ထပ်နေတဲ့ token အရေအတွက်ကို ထိန်းချုပ်တယ်။,向上参数控制重叠的符号数 。
1551,Here is how our very long context gets truncated in two features with some overlap.,ဒီမှာ ကျွန်တော်တို့ရဲ့ အလွန်ရှည်တဲ့ context က ထပ်နေတဲ့ feature နှစ်ခုအဖြစ် ဘယ်လို ဖြတ်တောက်ခံရလဲဆိုတာ ပြထားတယ်။,"这就是我们漫长的上下文是如何被截断的,有两个特点,有些重叠。"
1552,"By applying the same post-processing we saw before for each feature, we get the answer with a score for each of them, and we take the answer with the best score as a final solution.",အရင်က မြင်ခဲ့ရတဲ့ post-processing ကို feature တစ်ခုချင်းစီအတွက် အသုံးပြုပြီး အဖြေကို score တစ်ခုစီနဲ့ ရရှိတယ်၊ ပြီးတော့ အကောင်းဆုံး score ရှိတဲ့ အဖြေကို နောက်ဆုံးအဖြေအဖြစ် ယူလိုက်တယ်။,"通过对每个特性应用我们以前看到的同样的后处理方法,我们得到了每个特性的得分,我们把最佳得分的答案作为最终解决办法。"
1553,The question answering pipeline can extract answers to questions from a given context or passage of text like this part of the Transformers repo README.,Question answering pipeline က မေးခွန်းတွေရဲ့ အဖြေတွေကို ပေးထားတဲ့ context ဒါမှမဟုတ် စာသားအပိုင်းအစကနေ ထုတ်ယူနိုင်တယ်၊ ဒီ Transformers repo README ရဲ့ အပိုင်းလိုမျိုးပေါ့။,解答管道的问题可以从某种特定背景或诸如变换者检索README的这一部分文本的通过中获取对问题的答复。
1554,"It also works for very long context, even if the answer is at the very end, like in this example.",ဒီဥပမာလိုမျိုး အဖြေက အဆုံးမှာ ရှိနေရင်တောင် အလွန်ရှည်တဲ့ context တွေအတွက်လည်း အလုပ်လုပ်ပါတယ်။,"它也在非常长的背景下起作用,即使答案在最后,如这个例子一样。"
1555,"In this video, we'll see why.",ဒီဗီဒီယိုမှာ ဘာကြောင့်လဲဆိုတာ ကြည့်ပါမယ်။,"在这段视频里,我们会明白原因的"
1556,The question answering pipeline follows the same steps as the other pipelines.,Question answering pipeline က တခြား pipeline တွေနဲ့ အဆင့်တူတူ လိုက်နာတယ်။,回答输油管的问题遵循与其他输油管相同的步骤。
1557,"The question and context are tokenized as a sentence pair, fed to the model then some post-processing is applied.",မေးခွန်းနဲ့ context ကို ဝါကျအတွဲအဖြစ် tokenization လုပ်တယ်၊ မော်ဒယ်ကို ထည့်ပေးပြီးတော့ post-processing အချို့ကို အသုံးချတယ်။,"问题和上下文被标为一对判刑,提供给模型,然后适用一些后处理。"
1558,So tokenization and model steps should be familiar.,ဒါကြောင့် tokenization နဲ့ မော်ဒယ် အဆင့်တွေက ရင်းနှီးပြီးသား ဖြစ်သင့်တယ်။,"因此,象征性化和示范步骤应当为人们所熟知。"
1559,"It's numbers associated with the tokenization of the question, followed by the context with the usual CLS and SEP special tokens.",ဒါက မေးခွန်းကို tokenization လုပ်ထားတဲ့ ဂဏန်းတွေ ဖြစ်ပြီး အဲဒီနောက် ပုံမှန် CLS နဲ့ SEP အထူး token တွေနဲ့ context ပါလာတယ်။,"这是与问题象征相关的数字, 然后是通常的 CLS 和 SEP 特殊标志的上下文。"
1560,This is what it looks like in terms of code.,ဒါက code အရ ဘယ်လိုပုံစံလဲဆိုတာကို ပြတာပါ။,这就是它看起来在代码方面的样子。
1561,We use a large negative number for the masking since its exponential will then be zero.,Masking အတွက် ကြီးမားတဲ့ အနုတ်ဂဏန်းကို သုံးတယ်၊ ဘာလို့လဲဆိုတော့ သူ့ရဲ့ exponential က သုည ဖြစ်သွားမှာမို့လို့ ဖြစ်တယ်။,"我们使用一个很大的负数来遮盖面罩, 因为它的指数将会是零。"
1562,Now the probability for each start and end position corresponding to a possible answer will give a score that is a product of the start probabilities and end probabilities at those position.,အခု ဖြစ်နိုင်တဲ့ အဖြေနဲ့ ကိုက်ညီတဲ့ စတင်တဲ့နဲ့ အဆုံးသတ်တဲ့ အနေအထားတစ်ခုစီရဲ့ ဖြစ်နိုင်ခြေအတွက် အဲဒီ အနေအထားတွေမှာရှိတဲ့ စတင်တဲ့ ဖြစ်နိုင်ခြေတွေနဲ့ အဆုံးသတ်တဲ့ ဖြစ်နိုင်ခြေတွေရဲ့ မြှောက်လဒ်ဖြစ်တဲ့ score ကို ပေးတယ်။,"现在,每个起始和结束位置的概率与可能的答案相对应, 将给出一个分数, 这是这些位置的起始概率和最终概率的产物。"
1563,"Once we have the start and end position for the tokens, we use the offset mappings provided by our tokenizer to find the span of characters in the initial context, and we get our answer.",token တွေရဲ့ စတင်တဲ့နဲ့ အဆုံးသတ်တဲ့ အနေအထားတွေ ရပြီဆိုရင် tokenizer က ပေးထားတဲ့ offset mapping တွေကို သုံးပြီး မူရင်း context ထဲက စာလုံးအပိုင်းအစကို ရှာပြီး အဖြေကို ရယူတယ်။,"一旦我们有了标记的开始和结束位置, 我们就会使用我们的代号器提供的 抵消映射图 来找到最初背景中的字符范围, 然后我们得到我们的答案。"
1564,"So instead, we take overlapping chunks of text to make sure at least one of the chunks will fully contain the answer to the question.",ဒါကြောင့် အဲဒီအစား စာသားအပိုင်းအစတွေကို ထပ်နေအောင် ယူလိုက်ပြီး အပိုင်းအစ တစ်ခုခုက မေးခွန်းရဲ့ အဖြေကို အပြည့်အဝ ပါဝင်စေဖို့ သေချာအောင် လုပ်တယ်။,"因此,我们取出重叠的文本块以确保至少有一块块将完全包含对问题的答案。"
1565,"So, tokenizers does all of this for us automatically with the return overflowing tokens option.",Tokenizers တွေက return overflowing tokens ရွေးချယ်မှုနဲ့ ဒီအရာအားလုံးကို ကျွန်တော်တို့အတွက် အလိုအလျောက် လုပ်ပေးတယ်။,"所以,代币器会自动为我们做所有这些, 使用返回溢出的标牌选项 。"
1566,"In this video, we will see together what is the normalizer component that we'd find at the beginning of each tokenizer.",ဒီဗီဒီယိုမှာတော့ tokenizer တိုင်းရဲ့ အစမှာ တွေ့ရတဲ့ normalizer ဆိုတဲ့ အစိတ်အပိုင်းက ဘာလဲဆိုတာ အတူတူ ကြည့်သွားပါမယ်။,"在这部影片中,我们将一起看到 每一个代谢器的开头, 我们将会发现什么是正常化的成分。"
1567,The normalization operation consists in applying a succession of normalization rules to the raw text.,Normalization လုပ်ဆောင်ချက်က မူရင်းစာသားကို normalization စည်းမျဉ်းတွေကို ဆက်တိုက် အသုံးပြုတာ ဖြစ်တယ်။,正常化行动包括对原始案文适用一系列正常化规则。
1568,We choose normalization rules to remove noise in the text which seem useless for the learning and use of our language model.,ကျွန်တော်တို့ရဲ့ language model ကို သင်ယူဖို့နဲ့ အသုံးပြုဖို့ အသုံးမဝင်ဘူးလို့ ထင်ရတဲ့ စာသားထဲက noise တွေကို ဖယ်ရှားဖို့ normalization စည်းမျဉ်းတွေကို ရွေးချယ်တယ်။,"我们选择正常化规则,以消除文本中对于学习和使用我们的语言模式似乎毫无用处的噪音。"
1569,"Let's take a very diverse sentence with different fonts, upper and lower case characters, accents, punctuation and multiple spaces, to see how several tokenizer normalize it.",မတူညီတဲ့ font တွေ၊ စာလုံးအကြီးအသေးတွေ၊ accent တွေ၊ ပုဒ်ဖြတ်တွေနဲ့ နေရာလွတ်များစွာပါတဲ့ အရမ်းကွဲပြားတဲ့ ဝါကျတစ်ခုကို ယူပြီး tokenizer တွေ ဘယ်လို normalize လုပ်လဲ ကြည့်ရအောင်။,"让我们用不同的字型、大小写字符、口音、标点和多个空格来使用非常不同的句子, 看看几个符号化器是如何将它正常化的。"
1570,The tokenizer from the FNet model has transformed the letter with font variants or circled into their basic version and has removed the multiple spaces.,FNet မော်ဒယ်က tokenizer က font ပုံစံကွဲတွေ ဒါမှမဟုတ် စက်ဝိုင်းပုံပါတဲ့ စာလုံးတွေကို အခြေခံဗားရှင်းအဖြစ် ပြောင်းလဲပြီး နေရာလွတ်များစွာကို ဖယ်ရှားလိုက်တယ်။,"FNet 模型的表示器已经将字体变体或圆形的字母转换为基本版本,并删除了多个空格。"
1571,"And now if we look at the normalization with Retribert's tokenizer, we can see that it keeps characters with several font variants and keeps the multiple spaces, but it removes all the accents.",အခု Retribert ရဲ့ tokenizer နဲ့ normalization ကို ကြည့်မယ်ဆိုရင် font ပုံစံကွဲအမျိုးမျိုးပါတဲ့ စာလုံးတွေကို ထားရှိပြီး နေရာလွတ်များစွာကိုလည်း ထားထားတယ်၊ ဒါပေမယ့် accent တွေအားလုံးကို ဖယ်ရှားလိုက်တာ တွေ့ရတယ်။,"现在,如果我们看看Retribert的代谢器的正常化, 我们可以看到它能保留几个字体变量的字符, 并保留多个空格, 但它能消除所有的口音。"
1572,"And if we continue to test this normalization of many other tokenizers associated to models that we can find on the Hub, we see that they also propose other kind of normalization.",Hub မှာ တွေ့နိုင်တဲ့ တခြားမော်ဒယ်တွေနဲ့ ဆက်စပ်နေတဲ့ tokenizer တွေရဲ့ normalization ကို ဆက်ပြီး စမ်းသပ်ကြည့်မယ်ဆိုရင် သူတို့က တခြား normalization အမျိုးအစားတွေကိုလည်း အဆိုပြုထားတာ တွေ့ရတယ်။,"如果我们继续测试与我们在枢纽上找到的模式相关的许多其他代用品的这种正常化,我们就会看到它们也提出其他的正常化。"
1573,"With the fast tokenizers, it's very easy to observe the normalization chosen for the currently loaded tokenizer.",fast tokenizer တွေနဲ့ဆိုရင် လက်ရှိတင်ထားတဲ့ tokenizer အတွက် ရွေးချယ်ထားတဲ့ normalization ကို ကြည့်ဖို့ အလွန်လွယ်ကူတယ်။,快速的代币器 很容易观察到 现装的代币器 所选择的正常化
1574,"Indeed, each instance of a fast tokenizer has an underlying tokenizer from the HuggingFace Tokenizers library stored in the backend_tokenizer attribute.",တကယ်တော့ fast tokenizer ရဲ့ instance တိုင်းမှာ backend_tokenizer ဆိုတဲ့ attribute ထဲမှာ HuggingFace Tokenizers library က underlying tokenizer တစ်ခုကို သိမ်းဆည်းထားတယ်။,"事实上,每个快速代谢器的例子都有一个根基的代谢器,它来自Hugging Face Tokenizers 图书馆, 存储在后端的代谢器属性中。"
1575,This object has itself a normalizer attribute that we can use thanks to the normalize_str method to normalize a string.,ဒီ object မှာ normalize_str နည်းလမ်းကို သုံးပြီး string တစ်ခုကို normalize လုပ်နိုင်တဲ့ normalizer attribute တစ်ခု ကိုယ်တိုင် ရှိတယ်။,"此对象本身含有一个归正器属性, 由于正态字符串的归正法, 我们可以用它来将字符串归正 。"
1576,"It is thus very practical that this normalization, which was used at the time of the training of the tokenizer was saved, and that it applies automatically when you ask a trained tokenizer to tokenize a text.",tokenizer ကို လေ့ကျင့်တဲ့အချိန်မှာ သုံးခဲ့တဲ့ ဒီ normalization ကို သိမ်းဆည်းထားပြီး လေ့ကျင့်ပြီးသား tokenizer ကို စာသားတစ်ခု tokenization လုပ်ဖို့ တောင်းဆိုတဲ့အခါ အလိုအလျောက် အသုံးပြုတာက အရမ်းလက်တွေ့ကျတယ်။,"因此,非常实际的是,在培训代谢器时使用的这种正常化得到保存,当要求受过训练的代谢器表示文本时自动适用。"
1577,"For example, if we hadn't included the albert normalizer, we would have had a lot of unknown tokens by tokenizing this sentence with accents and capital letters.",ဥပမာအားဖြင့် albert normalizer ကို မထည့်သွင်းခဲ့ရင် accent တွေနဲ့ စာလုံးအကြီးတွေပါတဲ့ ဒီဝါကျကို tokenization လုပ်တဲ့အခါ unknown token တွေ အများကြီး ရရှိမှာ ဖြစ်တယ်။,"例如,如果我们没有包括阿尔伯特的正常化者, 我们就会有很多未知的标志, 通过用口音和大写字母来象征这个句子。"
1578,This transformation can also be undetectable with a simple print.,ဒီပြောင်းလဲမှုက ရိုးရိုး print နဲ့လည်း မမြင်နိုင်တာမျိုး ဖြစ်နိုင်တယ်။,此转换也可以用简单的打印无法检测 。
1579,"Indeed, keep in mind that for a computer, text is only a succession of 0 and 1, and it happens that different successions of 0 and 1 render the same printed character.",တကယ်တော့ ကွန်ပျူတာအတွက် စာသားဆိုတာ ၀ နဲ့ ၁ တွေ ဆက်တိုက် လာနေတာပဲ ဖြစ်တယ်၊ ပြီးတော့ ၀ နဲ့ ၁ တွေ ဆက်တိုက် လာတာ မတူပေမယ့် ပုံနှိပ်စာလုံး အတူတူ ထွက်လာတာမျိုးလည်း ရှိတယ်။,"事实上,要记住,对于计算机来说,文本只是0和1的相继性,而不同的0和1的相继性则具有相同的印刷特性。"
1580,The 0 and 1 go in group of 8 to form a byte.,၀ နဲ့ ၁ တွေက byte တစ်ခုဖြစ်ဖို့ အုပ်စု ၈ ခုနဲ့ သွားတယ်။,0和1组8组组成字节
1581,The computer must then decode this sequence of bytes into a sequence of code points.,အဲဒီနောက် ကွန်ပျူတာက ဒီ byte အတန်းကို code point အတန်းအဖြစ် ကုဒ်ပြန်ဖော်ရမယ်။,然后计算机必须将这个字节序列解码成一个代码点序列。
1582,"In our example, the 2 bytes is decoded using UTF-8 into a single code point.",ကျွန်တော်တို့ရဲ့ ဥပမာမှာ ၂ bytes ကို UTF-8 သုံးပြီး code point တစ်ခုတည်းအဖြစ် ကုဒ်ပြန်ဖော်တယ်။,"在我们的例子中,2字节被解码 使用UTF-8 转换成一个代码点。"
1583,"The unicode standard then allows us to find the character corresponding to this code point, the c cedilla.",Unicode စံနှုန်းက အဲဒီ code point နဲ့ ကိုက်ညီတဲ့ စာလုံး c cedilla ကို ရှာဖွေနိုင်ဖို့ ခွင့်ပြုတယ်။,unicode标准 然后让我们找到 和这个代码点相对应的字符 塞迪拉
1584,"Let's repeat the same operation with this new sequence composed of 3 bytes,.",၃ bytes ပါဝင်တဲ့ ဒီ sequence အသစ်နဲ့ အတူတူပဲ လုပ်ဆောင်ကြည့်ရအောင်။,"让我们重复同样的操作 由3字节组成的这个新序列,"
1585,"This time it is transformed into two code points, which also correspond to the c cedilla character.",ဒီတစ်ခါတော့ code point နှစ်ခုအဖြစ် ပြောင်းလဲသွားပြီး ၎င်းကလည်း c cedilla စာလုံးနဲ့ ကိုက်ညီတယ်။,"这一次它变成两个代码点, 也与 cedilla 字符相对应 。"
1586,It is in fact the composition of the unicode Latin Small Letter C and the combining cedilla.,တကယ်တော့ ဒါက unicode Latin Small Letter C နဲ့ combining cedilla တို့ ပေါင်းစပ်ထားတာ ဖြစ်တယ်။,"事实上,它是由《拉丁美洲小字母C》统一编码和合并的Cedilla组成的。"
1587,But it's annoying because what appears to us to be a single character is not at all the same thing for the computer.,ဒါပေမယ့် စိတ်အနှောင့်အယှက် ဖြစ်စရာက ကျွန်တော်တို့အတွက် စာလုံးတစ်လုံးတည်းလို မြင်ရတဲ့အရာက ကွန်ပျူတာအတွက် လုံးဝ မတူညီတဲ့ အရာတစ်ခု ဖြစ်နေလို့ ဖြစ်တယ်။,"但它很烦人,因为在我们看来, 一个单一的人物 完全不是计算机的一回事。"
1588,"Fortunately, there are unicode standardization standards known as NFC, NFD, NFKC or NFKD that allow erasing some of these differences.,ကံကောင်းစွာနဲ့ပဲ NFC, NFD", NFKC ဒါမှမဟုတ် NFKD လို့သိကြတဲ့ unicode စံနှုန်းသတ်မှတ်ချက်တွေ ရှိပြီး ဒီခြားနားချက်အချို့ကို ဖျက်ပစ်နိုင်တယ်။,"幸运的是,有被称为NFC、NFD、NFD、NFKC或NFKD的unicode标准化标准,可以消除其中一些差异。"
1589,These standards are often used by tokenizers.,ဒီစံနှုန်းတွေကို tokenizer တွေက မကြာခဏ အသုံးပြုလေ့ရှိတယ်။,制片厂经常使用这些标准。
1590,"On all these previous examples, even if the normalizations changed the look of the text, they did not change the content; you could still read, ""Hello world, let's normalize this sentence.""","အရင်က ဥပမာတွေအားလုံးမှာ normalization တွေက စာသားရဲ့ ပုံစံကို ပြောင်းလဲသွားပေမယ့် အကြောင်းအရာကို မပြောင်းလဲခဲ့ပါဘူး၊ သင်က ""Hello world, let's normalize this sentence"" ကို ဆက်ဖတ်နိုင်သေးတယ်။","在所有这些先前的例子中,即使正常化改变了案文的外观,它们也没有改变内容;你仍然可以读到,“你好,大家好,让我们把这句话正常化。”"
1591,"However, you must be aware that some normalizations can be very harmful if they are not adapted to their corpus.",သို့သော် normalization အချို့ဟာ သူတို့ရဲ့ corpus နဲ့ မလိုက်ဖက်ရင် အလွန် အန္တရာယ်ဖြစ်စေနိုင်တယ်ဆိုတာ သတိပြုသင့်တယ်။,"但是,你必须意识到,有些正常化如果不适应其物质,可能会非常有害。"
1592,"For example, if you take the French sentence, ""Un pere indigne, which means An indignant father, and normalize it with the bert-base-uncase tokenizer which removes the accent, then the sentence becomes Un pere indigne"" which means ""An unworthy father"".","ဥပမာအားဖြင့် ""Un pere indigne"" ဆိုတဲ့ ပြင်သစ်ဝါကျကို ယူပြီး accent ကို ဖယ်ရှားတဲ့ bert-base-uncase tokenizer နဲ့ normalize လုပ်လိုက်ရင် အဲဒီဝါကျက ""Un pere indigne"" ဖြစ်သွားပြီး ""An unworthy father"" လို့ အဓိပ္ပာယ်ရတယ်။","例如,如果你接受法国的句子, “Un pere interdigne,意思是愤怒的父亲, 并把它与消除口音的Bert -Basic-uncase代言器正常化, 那么句子就变成了 Un pere Indigne, 意思是“一个不配的父亲”。"
1593,"If you watched this video to build your own tokenizer, there are no absolute rules to choose or not a normalization for a new tokenizer, but I advise you to take the time to select them so that they do not make you lose important information.",ဒီဗီဒီယိုကို ကိုယ်ပိုင် tokenizer တည်ဆောက်ဖို့ ကြည့်နေတယ်ဆိုရင် normalization တစ်ခုကို ရွေးချယ်ဖို့ ဒါမှမဟုတ် မရွေးချယ်ဖို့ဆိုတဲ့ အတိအကျ စည်းမျဉ်းတွေ မရှိဘူး၊ ဒါပေမယ့် အရေးကြီးတဲ့ အချက်အလက်တွေကို မဆုံးရှုံးစေဖို့ သူတို့ကို ရွေးချယ်ရာမှာ အချိန်ယူဖို့ အကြံပြုချင်ပါတယ်။,"如果您观看这段视频来建立自己的代币器, 没有绝对的规则可以选择新的代币器是否正常化, 但我建议您花时间选择它们, 以免它们导致您丢失重要信息 。"
1594,The tokenization pipeline involves several steps that converts raw text into numbers.,Tokenization pipeline မှာ မူရင်းစာသားကို ဂဏန်းအဖြစ် ပြောင်းလဲပေးတဲ့ အဆင့်များစွာ ပါဝင်တယ်။,象征性化管道涉及将原始文本转换成数字的若干步骤。
1595,"In this video, we will see what happens during the pre-tokenization step.",ဒီဗီဒီယိုမှာတော့ pre-tokenization အဆင့်မှာ ဘာတွေဖြစ်ပျက်လဲဆိုတာ ကြည့်သွားပါမယ်။,"在影片中,我们将看到在入学前步骤期间发生的情况。"
1596,The pre-tokenization operation is the operation performed after the normalization of the text and before the application of the tokenization algorithm.,Pre-tokenization လုပ်ဆောင်ချက်က စာသားရဲ့ normalization ပြီးနောက်နဲ့ tokenization algorithm ကို အသုံးမချခင် လုပ်ဆောင်တဲ့ လုပ်ဆောင်ချက် ဖြစ်တယ်။,承认前操作是文本正常化之后和采用象征性算法之前的操作。
1597,This step consists in applying rules that do not need to be learned to perform a first division of the text.,ဒီအဆင့်က စာသားကို ပထမဆုံးအကြိမ် ပိုင်းခြားဖို့အတွက် သင်ယူဖို့ မလိုအပ်တဲ့ စည်းမျဉ်းတွေကို အသုံးပြုခြင်း ပါဝင်တယ်။,"这一步骤包括适用一些规则,而这些规则不需要经过学习才能对案文进行第一个划分。"
1598,Let's look at how several tokenizers pre-tokenize in this example.,ဒီဥပမာမှာ tokenizer အချို့ ဘယ်လို pre-tokenize လုပ်လဲဆိုတာ ကြည့်ရအောင်။,让我们来看看这个例子中 几个神器是如何预先化成的。
1599,"The gpt2 pre-tokenization divides the text on spaces and some punctuation, but not on the apostrophe.",gpt2 ရဲ့ pre-tokenization က စာသားကို နေရာလွတ်တွေနဲ့ ပုဒ်ဖြတ်အချို့ပေါ် ပိုင်းလိုက်တယ်၊ ဒါပေမယ့် apostrophe ပေါ်မှာ မပိုင်းဘူး။,"Gpt2 先入位法将文字分隔在空格和某些标点上, 而不是在误差上 。"
1600,We also notice that spaces have been replaced by capital G with a dot above.,နေရာလွတ်တွေကို အပေါ်မှာ အစက်ပါတဲ့ စာလုံး G အကြီးနဲ့ အစားထိုးလိုက်တာကိုလည်း သတိထားမိတယ်။,"我们还注意到,以上述点取代了 "" 首都G "" 的空域。"
1601,"Albert's pre-tokenization divides the text at the level of spaces, adds a space at the beginning of the sentence, and replaces spaces with a special underscore.",Albert ရဲ့ pre-tokenization က စာသားကို နေရာလွတ် အဆင့်မှာ ပိုင်းလိုက်တယ်၊ ဝါကျအစမှာ နေရာလွတ်တစ်ခု ထည့်ပေးတယ်၊ ပြီးတော့ နေရာလွတ်တွေကို အထူး underscore တစ်ခုနဲ့ အစားထိုးတယ်။,"阿尔伯特的预入位法将文字分隔在空格一级,在句子开头增加一个空格,用特别的加分取代空格。"
1602,"Finally, Bert's pre-tokenization divides the text at the level of punctuation and spaces.",နောက်ဆုံးအနေနဲ့ Bert ရဲ့ pre-tokenization က စာသားကို ပုဒ်ဖြတ်နဲ့ နေရာလွတ် အဆင့်မှာ ပိုင်းလိုက်တယ်။,"最后,Bert的初始化 将文字分隔在标点和空格上。"
1603,"But unlike the previous tokenizers, spaces are not transformed and integrated into tokens produced with this pre-tokenizer.",ဒါပေမယ့် အရင် tokenizer တွေနဲ့မတူဘဲ နေရာလွတ်တွေကို မပြောင်းလဲဘဲ ဒီ pre-tokenizer နဲ့ ထုတ်လုပ်တဲ့ token တွေထဲ ပေါင်းစပ်မထားဘူး။,"但与先前的代币化器不同,空格没有被转换和整合成 由这个前代代币化器生成的代币。"
1604,"Through this three example, we could observe the two main type of operation brought by the pre-tokenization;",ဒီဥပမာ သုံးခုကနေ pre-tokenization က ယူဆောင်လာတဲ့ အဓိက လုပ်ဆောင်ချက် နှစ်မျိုးကို ကျွန်တော်တို့ လေ့လာနိုင်တယ်။,"通过这三个例子,我们可以观察到在承认前采取的两种主要行动;"
1605,some change on the text and the division of the string into tokens that can be associated to words.,စာသားပေါ်မှာ အပြောင်းအလဲအချို့နဲ့ string ကို စကားလုံးတွေနဲ့ ဆက်စပ်နိုင်တဲ့ token တွေအဖြစ် ပိုင်းခြားခြင်းတို့ ဖြစ်တယ်။,"对文本进行一些修改,将字符串划分为可以与单词关联的符号。"
1606,"Finally, the backend tokenizer of the fast tokenizers also allows to test the pre-tokenization operation very easily, thanks to its pre_tokenize_str method.",နောက်ဆုံးအနေနဲ့ fast tokenizer တွေရဲ့ backend tokenizer က သူ့ရဲ့ pre_tokenize_str နည်းလမ်းကြောင့် pre-tokenization လုပ်ဆောင်ချက်ကို အလွယ်တကူ စမ်းသပ်နိုင်ဖို့ ခွင့်ပြုတယ်။,"最后,快速表示器的后端表示器也允许很容易地测试进入前操作,这要归功于它使用前的表示器方法。"
1607,"We notice that the output of this operation is composed of both tokens and offsets, which allow to link the tokens to its position in the text given in input of the method.",ဒီလုပ်ဆောင်ချက်ရဲ့ အထွက်က token တွေနဲ့ offset တွေ နှစ်မျိုးလုံးနဲ့ ဖွဲ့စည်းထားတာကို သတိထားမိတယ်၊ ဒါက token တွေကို နည်းလမ်းရဲ့ ထည့်သွင်းချက်မှာ ပေးထားတဲ့ စာသားထဲက သူ့ရဲ့ အနေအထားနဲ့ ချိတ်ဆက်နိုင်ဖို့ ခွင့်ပြုတယ်။,"我们注意到,这项作业的输出由象征性物和抵消物组成,从而可以将这些象征性物与在方法输入中给出的文本中的位置联系起来。"
1608,"This operation defines the largest tokens that can be produced by the tokenization, or in those words, the barriers of the sub-tokens which will be produced then.",ဒီလုပ်ဆောင်ချက်က tokenization ကနေ ထုတ်လုပ်နိုင်တဲ့ အကြီးဆုံး token တွေကို သတ်မှတ်တယ်၊ ဒါမှမဟုတ် ပြောရရင် နောက်မှ ထုတ်လုပ်မယ့် sub-token တွေရဲ့ အတားအဆီးတွေပေါ့။,"此操作定义了通过象征性化可以产生的最大符号, 或者用这些符号来定义届时将产生的小符号的屏障 。"
1609,And that's all for the characteristic of the pre-tokenizers.,ဒါတွေက pre-tokenizer တွေရဲ့ ဂုဏ်သတ္တိတွေပဲ ဖြစ်တယ်။,这些都是预入计数器的特征。
1610,"You are at the right place if you want to understand what the Byte Pair Encoding subword tokenization algorithm is, how to train it and how the tokenization of a text is done with this algorithm.",Byte Pair Encoding subword tokenization algorithm ဆိုတာ ဘာလဲ၊ ဘယ်လို လေ့ကျင့်ရလဲ၊ ဒီ algorithm နဲ့ စာသားတွေကို ဘယ်လို tokenization လုပ်လဲဆိုတာ နားလည်ချင်ရင် ဒီနေရာကို ရောက်လာတာ မှန်ပါတယ်။,"如果您想要了解Byte Pair 编码子词代号代号算法是什么, 如何训练它, 以及文本的代号是如何使用此算法完成的, 您是正确的 。"
1611,The BPE algorithm was initially proposed as a text compression algorithm but it is also very well suited as a tokenizer for your language models.,BPE algorithm ကို အစကတော့ စာသားချုံ့တဲ့ algorithm အဖြစ် အဆိုပြုခဲ့တာပါ၊ ဒါပေမယ့် သင့်ရဲ့ ဘာသာစကား မော်ဒယ်တွေအတွက် tokenizer အဖြစ်လည်း အရမ်းသင့်တော်ပါတယ်။,"BPE算法最初是作为一种文字压缩算法提出的,但它也非常适合作为你语言模型的象征。"
1612,"The idea of BPE is to divide words into a sequence of 'subword units' which are units that appear frequently in a reference corpus which is, the corpus we used to train it.",BPE ရဲ့ အဓိက အယူအဆက စကားလုံးတွေကို 'subword units' တွေအဖြစ် ခွဲထုတ်တာ ဖြစ်ပြီး၊ အဲဒီ units တွေကတော့ လေ့ကျင့်ဖို့ သုံးတဲ့ corpus မှာ မကြာခဏ ပေါ်လာတဲ့ အစိတ်အပိုင်းတွေ ဖြစ်ပါတယ်။,"BPE的理念是将单词分为一系列的“子词单位”,这些单位经常出现在参考材料中,也就是我们用来训练的“参考材料”中。"
1613,How is a BPE tokenizer trained?,BPE tokenizer တစ်ခုကို ဘယ်လို လေ့ကျင့်ရတာလဲ။,BPE代谢器是怎么训练的?
1614,"First of all, we have to get a corpus of texts.",ပထမဆုံးအနေနဲ့ စာသားများပါဝင်တဲ့ corpus တစ်ခုကို ရယူရပါမယ်။,"首先,我们必须获得一整套文本。"
1615,We will not train our tokenizer on this raw text but we will first normalize it then pre-tokenize it.,ဒီစာသားစိမ်းပေါ်မှာ တိုက်ရိုက် လေ့ကျင့်မှာ မဟုတ်ဘဲ အရင်ဆုံး ပုံမှန်ပြုလုပ်ပြီးမှ pre-tokenize လုပ်ပါမယ်။,"我们不会就这一原始案文培训我们的代言人,但我们将首先使案文正常化,然后加以事先采纳。"
1616,"As the pre-tokenization divides the text into a list of words, we can represent our corpus in another way by gathering together the same words and by maintaining a counter, here represented in blue.",pre-tokenization က စာသားကို စကားလုံးစာရင်းအဖြစ် ပိုင်းခြားပေးတဲ့အတွက်၊ တူညီတဲ့ စကားလုံးတွေကို စုစည်းပြီး အကြိမ်ရေကို ရေတွက်တဲ့ counter တစ်ခုကို ထားရှိခြင်းအားဖြင့် ကျွန်တော်တို့ရဲ့ corpus ကို တခြားနည်းနဲ့ ကိုယ်စားပြုနိုင်ပါတယ်၊ ဒီမှာတော့ အပြာရောင်နဲ့ ပြထားပါတယ်။,"由于采用前的案文将案文分成一单词,我们可以以另一种方式代表我们的主体,将相同的词组汇集在一起,并维持一个在这里以蓝字标注的柜台。"
1617,"To understand how the training works, we consider this toy corpus composed of the following words: huggingface, hugging, hug, hugger, etc.","လေ့ကျင့်မှု ဘယ်လိုအလုပ်လုပ်လဲ နားလည်ဖို့အတွက် ဒီလို စကားလုံးတွေပါဝင်တဲ့ ဥပမာ corpus လေးတစ်ခုကို စဉ်းစားကြည့်ရအောင်၊ ဥပမာ ""huggingface""၊ ""hugging""၊ ""hug""၊ ""hugger"" စသဖြင့်ပေါ့။","为了了解训练如何运作, 我们认为这个玩具由以下词组成:拥抱、拥抱、拥抱、拥抱、拥抱等。"
1618,BPE is an algorithm that starts with an initial vocabulary and then increases it to the desired size.,BPE က အစကနဦး ဝေါဟာရတစ်ခုနဲ့ စတင်ပြီး လိုချင်တဲ့ အရွယ်အစားအထိ တိုးချဲ့သွားတဲ့ algorithm ဖြစ်ပါတယ်။,"BPE是一种算法,从最初的词汇开始,然后将其增加到预期的大小。"
1619,"To build the initial vocabulary, we start by separating each word of the corpus into a list of elementary units that compose them, here, the characters.",အစကနဦး ဝေါဟာရကို တည်ဆောက်ဖို့အတွက် corpus ထဲက စကားလုံးတစ်လုံးချင်းစီကို ၎င်းတို့ပါဝင်တဲ့ အခြေခံ အစိတ်အပိုင်းများ စာရင်းအဖြစ် ခွဲထုတ်လိုက်တယ်၊ ဒီမှာတော့ စာလုံးတွေပေါ့။,"为了构建最初的词汇, 我们首先将每个字词 分解成一个基本单位的列表 组成它们, 这里, 字符。"
1620,We list in our vocabulary all the characters that appear and that will constitute our initial vocabulary.,ပေါ်လာတဲ့ စာလုံးအားလုံးကို ဝေါဟာရထဲ စာရင်းပြုစုလိုက်ပြီး ဒါက ကျွန်တော်တို့ရဲ့ အစကနဦး ဝေါဟာရ ဖြစ်လာပါမယ်။,我们在我们的词汇中列出所有出现并构成我们初始词汇的所有字符。
1621,Let's now see how to increase it.,ကဲ ဒါကို ဘယ်လို တိုးချဲ့မလဲ ကြည့်ရအောင်။,现在让我们来看看如何增加它。
1622,"We return to our split corpus, we will go through the words one by one and count all the occurrences of token pairs.",ခွဲထားတဲ့ corpus ဆီ ပြန်သွားပြီး စကားလုံးတွေကို တစ်လုံးချင်းစီ ကြည့်ပြီး token အတွဲတွေ ပေါ်လာတဲ့ အကြိမ်ရေအားလုံးကို ရေတွက်ပါမယ်။,"我们回到我们分立的领地, 我们逐字逐句地说, 数一数所有偶发的象征性对子。"
1623,"The first pair is composed of the token 'h' and 'u', the second 'u' and 'g', and we continue like that until we have the complete list.",ပထမဆုံး အတွဲက 'h' နဲ့ 'u' token တွေနဲ့ ဖွဲ့စည်းထားတယ်၊ ဒုတိယက 'u' နဲ့ 'g' ပေါ့၊ ပြီးတော့ စာရင်းအပြည့်အစုံ ရတဲ့အထိ ဒီလိုပဲ ဆက်သွားတယ်။,"第一对由符号“h”和“u”、第二个“u”和“g”组成,我们继续这样,直到我们有完整的清单。"
1624,"Once we know all the pairs and their frequency of appearance, we will choose the one that appears the most frequently.",အတွဲအားလုံးနဲ့ သူတို့ရဲ့ ပေါ်လာတဲ့ အကြိမ်ရေကို သိပြီဆိုရင် အကြိမ်ရေ အများဆုံး ပေါ်လာတဲ့ အတွဲကို ရွေးချယ်ပါမယ်။,"一旦我们了解了所有的对子和它们的出现频率, 我们将选择最经常出现的一对。"
1625,Here it is the pair composed of the letters 'l' and 'e'.,ဒီမှာတော့ 'l' နဲ့ 'e' စာလုံးတွေနဲ့ ဖွဲ့စည်းထားတဲ့ အတွဲ ဖြစ်တယ်။,"这是由字母""l""和""e""组成的一对"
1626,We note our first merging rule and we add the new token to our vocabulary.,ကျွန်တော်တို့ရဲ့ ပထမဆုံး ပေါင်းစည်းခြင်း နည်းလမ်းကို မှတ်သားပြီး ဝေါဟာရအသစ်ကို ထည့်သွင်းလိုက်တယ်။,"我们注意到我们的第一个合并规则,并在我们的词汇中添加新的象征。"
1627,We can then apply this merging rule to our splits.,ပြီးရင် ဒီပေါင်းစည်းခြင်း နည်းလမ်းကို ကျွန်တော်တို့ရဲ့ ခွဲထားတဲ့ အပိုင်းတွေမှာ အသုံးချနိုင်ပါတယ်။,"然后,我们可以对我们的分歧适用合并规则。"
1628,You can see that we have merged all the pairs of tokens composed of the tokens 'l' and 'e'.,'l' နဲ့ 'e' token တွေနဲ့ ဖွဲ့စည်းထားတဲ့ token အတွဲအားလုံးကို ပေါင်းစည်းလိုက်တာကို သင်တွေ့နိုင်ပါတယ်။,"你可以看到,我们已经合并了所有由符号“l”和“e”组成的象征物。"
1629,"And now, we just have to reproduce the same steps with our new splits.",ကဲ အခုတော့ ဒီအဆင့်တွေအတိုင်းပဲ ကျွန်တော်တို့ရဲ့ ခွဲထားတဲ့ အပိုင်းအသစ်တွေနဲ့ ပြန်လုပ်ရုံပဲ။,"而现在,我们只需要用新的分裂 来复制同样的步骤。"
1630,"We calculate the frequency of occurrence of each pair of tokens, we select the pair with the highest frequency, we note it in our merge rules, we add the new one token the vocabulary and then we merge all the pairs of tokens composed of the token 'le' and 'a' into our splits.",token အတွဲတစ်ခုစီရဲ့ ပေါ်ပေါက်မှု အကြိမ်ရေကို တွက်တယ်၊ အကြိမ်ရေ အများဆုံး အတွဲကို ရွေးချယ်တယ်၊ ပေါင်းစည်းခြင်း စည်းမျဉ်းတွေမှာ မှတ်သားတယ်၊ ဝေါဟာရအသစ်ကို ထည့်တယ်၊ ပြီးတော့ 'le' နဲ့ 'a' token တွေပါတဲ့ အတွဲအားလုံးကို ကျွန်တော်တို့ရဲ့ ခွဲထားတဲ့ အပိုင်းတွေထဲမှာ ပေါင်းလိုက်တယ်။,"我们计算每对象征物的发生频率, 我们以最高频率选择对应物, 在合并规则中注意到它, 我们添加新的象征物 词汇, 然后将所有由符号“ le” 和“ a” 组成的象征物 合并到我们的分割中。"
1631,And we can repeat this operation until we reach the desired vocabulary size.,လိုချင်တဲ့ ဝေါဟာရ အရွယ်အစား ရောက်တဲ့အထိ ဒီလုပ်ဆောင်ချက်ကို ထပ်ခါတလဲလဲ လုပ်ဆောင်နိုင်တယ်။,"我们可以重复这个操作,直到我们达到所需的词汇大小。"
1632,"Here, we stopped when our vocabulary reached 21 tokens.",ဒီမှာတော့ ကျွန်တော်တို့ရဲ့ ဝေါဟာရက token ၂၁ ခု ရောက်တဲ့အခါ ရပ်လိုက်ပါတယ်။,"在这里,当我们的词汇达到21个符号时,我们停下来了。"
1633,We can see now that the words of our corpus are now divided into far fewer tokens than at the beginning of the training.,အခုဆိုရင် ကျွန်တော်တို့ရဲ့ corpus ထဲက စကားလုံးတွေကို လေ့ကျင့်မှု အစကထက် အများကြီး နည်းတဲ့ token တွေအဖြစ် ပိုင်းခြားထားတာကို တွေ့နိုင်ပါတယ်။,"我们现在可以看到,我们主体的言辞现在被划分成比培训开始时要少得多的象征。"
1634,And that our algorithm has learned the radicals 'hug' and 'learn' and also the verbal ending 'ing'.,ပြီးတော့ ကျွန်တော်တို့ရဲ့ algorithm က 'hug' နဲ့ 'learn' ဆိုတဲ့ အခြေခံ စကားလုံး အပိုင်းအစတွေနဲ့ 'ing' ဆိုတဲ့ ကြိယာနောက်ဆက်တွေကို သင်ယူထားပါတယ်။,"我们的算法已经学会了 激进的""hug""和""learn"" 还有口头结尾的""ing"""
1635,"Now that we have learned our vocabulary and merging rules, we can tokenize new texts.",အခု ဝေါဟာရနဲ့ ပေါင်းစည်းခြင်း နည်းလမ်းတွေကို သင်ယူပြီးပြီဆိုတော့ စာသားအသစ်တွေကို tokenization လုပ်နိုင်ပါပြီ။,"既然我们已经学会了词汇和合并规则,我们可以象征新的案文。"
1636,"For example, if we want to tokenize the word 'hugs', first we'll divide it into elementary units so it became a sequence of characters.",ဥပမာအားဖြင့် 'hugs' ဆိုတဲ့ စကားလုံးကို tokenization လုပ်ချင်တယ်ဆိုရင် ပထမဆုံး အခြေခံ အစိတ်အပိုင်းတွေအဖြစ် ပိုင်းခြားလိုက်ပြီး စာလုံးအတန်းတစ်ခု ဖြစ်လာစေတယ်။,"例如,如果我们想将“hugs”一词化为象征, 首先,我们把它分成基本单位, 这样它就变成了一个字符序列。"
1637,"Then, we'll go through our merge rules until we have one we can apply.",ပြီးရင် ကျွန်တော်တို့ရဲ့ ပေါင်းစည်းခြင်း နည်းလမ်းတွေကို လိုက်နာပြီး အသုံးချနိုင်တဲ့ နည်းလမ်းတစ်ခု ရတဲ့အထိ သွားပါမယ်။,"然后,我们将通过我们的合并规则 直到我们有一个 我们可以申请。"
1638,"Here, we can merge the letters 'h' and 'u'.",ဒီမှာ 'h' နဲ့ 'u' စာလုံးတွေကို ပေါင်းစည်းနိုင်ပါတယ်။,"在这里,我们可以合并字母""h""和""u""。"
1639,"And here, we can merge 2 tokens to get the new token 'hug'.",ပြီးတော့ ဒီမှာ token ၂ ခုကို ပေါင်းစည်းပြီး 'hug' ဆိုတဲ့ token အသစ်ကို ရနိုင်ပါတယ်။,"在这里,我们可以合并两个标志 以获得新的标志“ 拥抱 ” 。"
1640,"When we get to the end of our merge rules, the tokenization is finished.",ကျွန်တော်တို့ရဲ့ ပေါင်းစည်းခြင်း နည်းလမ်းတွေရဲ့ အဆုံးကို ရောက်တဲ့အခါ tokenization ပြီးဆုံးသွားပြီပေါ့။,"当我们完成合并规则的结尾时,象征性化就结束了。"
1641,And that's it.,ဒါပါပဲ။,就是这样。
1642,I hope that now the BPE algorithm has no more secret for you!,အခုဆိုရင် BPE algorithm က သင့်အတွက် လျှို့ဝှက်ချက် မဟုတ်တော့ဘူးလို့ မျှော်လင့်ပါတယ်။,我希望现在BPE算法 对你不再有秘密了!
1643,"Let's see together what is the training strategy of the WordPiece algorithm, and how it performs the tokenization of a text, once trained.",WordPiece algorithm ရဲ့ လေ့ကျင့်ရေး မဟာဗျူဟာ ဘာလဲ၊ ပြီးတော့ လေ့ကျင့်ပြီးတာနဲ့ စာသားတစ်ခုကို ဘယ်လို tokenization လုပ်လဲဆိုတာ အတူတူ ကြည့်ရအောင်။,"让我们一起看看WordPiece算法的培训策略是什么, 以及它如何在经过训练后 执行文本的符号化。"
1644,WordPiece is a tokenization algorithm introduced by Google.,WordPiece က Google က မိတ်ဆက်ခဲ့တဲ့ tokenization algorithm တစ်ခု ဖြစ်တယ်။,WordPiece是谷歌推出的一种象征性算法。
1645,"It is used, for example, by BERT.",ဥပမာအားဖြင့် BERT က ဒါကို သုံးတယ်။,"例如,BERT就使用这一工具。"
1646,"To our knowledge, the code of WordPiece has not been open source.",ကျွန်တော်တို့ သိသလောက်တော့ WordPiece ရဲ့ code ကို open source မလုပ်သေးဘူး။,"据我们所知,WordPiece的代码并不是开放源码。"
1647,So we base our explanations on our own interpretation of the published literature.,ဒါကြောင့် ကျွန်တော်တို့ရဲ့ ရှင်းပြချက်တွေကို ထုတ်ဝေထားတဲ့ စာပေတွေရဲ့ ကိုယ်ပိုင် အဓိပ္ပာယ်ဖွင့်ဆိုချက်ပေါ် အခြေခံထားပါတယ်။,"因此,我们的解释是基于我们自己对出版的文献的解释。"
1648,"So, what is the training strategy of WordPiece?",ဒါဆို WordPiece ရဲ့ လေ့ကျင့်ရေး မဟာဗျူဟာက ဘာလဲ။,"那么,WordPiece的培训策略是什么?"
1649,"Similarly to the BPE algorithm, WordPiece starts by establishing an initial vocabulary composed of elementary units, and then increases this vocabulary to the desired size.",BPE algorithm နဲ့ ဆင်တူစွာပဲ WordPiece က အခြေခံ အစိတ်အပိုင်းများနဲ့ ဖွဲ့စည်းထားတဲ့ အစကနဦး ဝေါဟာရကို တည်ဆောက်ပြီး လိုချင်တဲ့ အရွယ်အစားအထိ တိုးချဲ့သွားတယ်။,"与 BPE 算法相似, WordPiece 以建立由基本单位组成的初始词汇开始, 然后将词汇增加到理想的大小 。"
1650,"To build the initial vocabulary, we divide each word in the training corpus into the sequence of letters that make it up.",အစကနဦး ဝေါဟာရကို တည်ဆောက်ဖို့အတွက် လေ့ကျင့်ရေး corpus ထဲက စကားလုံးတစ်လုံးချင်းစီကို ၎င်းတို့ဖွဲ့စည်းထားတဲ့ စာလုံးအတန်းအဖြစ် ပိုင်းခြားလိုက်တယ်။,"为了建立最初的词汇, 我们把训练本中每个字 分为字母顺序 组成它。"
1651,"As you can see, there is a small subtlety.",သင်မြင်တဲ့အတိုင်းပဲ နည်းနည်းလေး သိမ်မွေ့မှု ရှိတယ်။,"如你所见,有一个细微的微妙之处。"
1652,We add two hashtags in front of the letters that do not start a word.,စကားလုံးရဲ့ အစ မဟုတ်တဲ့ စာလုံးတွေရှေ့မှာ hashtag နှစ်ခု ထည့်လိုက်တယ်။,"我们在字母前添加两个标签,"
1653,"By keeping only one occurrence per elementary unit, we now have our initial vocabulary.",အခြေခံ အစိတ်အပိုင်းတစ်ခုစီအတွက် တစ်ကြိမ်သာ ထားရှိခြင်းအားဖြင့် ကျွန်တော်တို့ရဲ့ အစကနဦး ဝေါဟာရကို ရရှိပါပြီ။,"通过保持每个基本单位只发生一次,我们现在有了我们最初的词汇。"
1654,We will list all the existing pairs in our corpus.,ကျွန်တော်တို့ရဲ့ corpus ထဲမှာ ရှိတဲ့ အတွဲအားလုံးကို စာရင်းပြုစုပါမယ်။,我们将列出我们体内所有现存的对子。
1655,"Once we have this list, we will calculate a score for each of these pairs.",ဒီစာရင်း ရပြီဆိုရင် အတွဲတစ်ခုစီအတွက် score တစ်ခုကို တွက်ချက်ပါမယ်။,"一旦我们有了这份名单, 我们就会计算出每一对夫妇的得分。"
1656,"As for the BPE algorithm, we will select the pair with the highest score.",BPE algorithm လိုပဲ score အမြင့်ဆုံး အတွဲကို ရွေးချယ်ပါမယ်။,至于BPE算法 我们将选择得分最高的一对
1657,"Taking for example, the first pair composed of the letters H and U.",ဥပမာအားဖြင့် H နဲ့ U စာလုံးတွေနဲ့ ဖွဲ့စည်းထားတဲ့ ပထမအတွဲကို ယူကြည့်ရအောင်။,"例如,第一对由字母H和U组成的字母H和U组成。"
1658,"The score of a pair is simply equal to the frequency of appearance of the pair, divided by the product of the frequency of appearance of the first token, by the frequency of appearance of the second token.",အတွဲတစ်ခုရဲ့ score ကတော့ အတွဲပေါ်လာတဲ့ အကြိမ်ရေကို ပထမ token ပေါ်လာတဲ့ အကြိမ်ရေနဲ့ ဒုတိယ token ပေါ်လာတဲ့ အကြိမ်ရေရဲ့ မြှောက်လဒ်နဲ့ စားတာပဲ ဖြစ်ပါတယ်။,"一对的分数简单等于一对的外观频率,除以第一手的外观频率的产物,再除以第二手的外观频率。"
1659,"Thus, at a fixed frequency of appearance of the pair, if the subparts of the pair are very frequent in the corpus, then this score will be decreased.",ဒါကြောင့် အတွဲတစ်ခု ပေါ်လာတဲ့ အကြိမ်ရေ သတ်မှတ်ထားရင်တောင် အဲဒီအတွဲရဲ့ အစိတ်အပိုင်းတွေက corpus ထဲမှာ မကြာခဏ ပေါ်နေတယ်ဆိုရင် ဒီ score က လျော့သွားပါလိမ့်မယ်။,"因此,在对子出现固定频率的情况下,如果对子部分在体体中非常频繁,那么这个分数就会下降。"
1660,"In our example, the pair HU appears four times, the letter H four times, and the letter U four times.",ကျွန်တော်တို့ရဲ့ ဥပမာမှာ HU အတွဲက လေးကြိမ် ပေါ်လာတယ်၊ H စာလုံးက လေးကြိမ်၊ U စာလုံးက လေးကြိမ် ပေါ်လာတယ်။,"以我们为例,两对HU出现了4次,字母H出现了4次,字母U出现了4次。"
1661,This gives us a score of 0.25.,ဒါက ကျွန်တော်တို့ကို 0.25 ရမှတ် ပေးတယ်။,这让我们得分0.25分
1662,"Now that we know how to calculate this score, we can do it for all pairs.",အခု ဒီ score ကို ဘယ်လို တွက်ရမလဲ သိပြီဆိုတော့ အတွဲအားလုံးအတွက် လုပ်နိုင်ပါပြီ။,"现在我们知道如何计算这个分数了, 我们可以为所有的一对做。"
1663,"We can now add to the vocabulary the pair with the highest score, after merging it of course.",အခုတော့ score အမြင့်ဆုံး အတွဲကို ပေါင်းစည်းပြီးနောက် ဝေါဟာရထဲကို ထည့်နိုင်ပါပြီ။,"我们现在可以在词汇中加上得分最高的一对,当然在合并后再加。"
1664,And now we can apply this same fusion to our split corpus.,ပြီးတော့ ဒီပေါင်းစည်းခြင်းကို ကျွန်တော်တို့ရဲ့ ခွဲထားတဲ့ corpus မှာ အသုံးချနိုင်တယ်။,现在我们可以用同样的聚变 来对付我们的分裂体了
1665,"As you can imagine, we just have to repeat the same operations until we have the vocabulary at the desired size.",သင်ထင်ထားတဲ့အတိုင်းပဲ လိုချင်တဲ့ ဝေါဟာရ အရွယ်အစား ရောက်တဲ့အထိ ဒီလုပ်ဆောင်ချက်တွေကို ထပ်ခါတလဲလဲ လုပ်ဆောင်ရုံပါပဲ။,"大家可以想象,我们只需要重复同样的操作,直到我们掌握了所需的大小的词汇。"
1666,"Let's look at a few more steps to see the evolution of our vocabulary, and also the evolution of the length of the splits.",ကျွန်တော်တို့ရဲ့ ဝေါဟာရ ပြောင်းလဲပုံနဲ့ ခွဲထားတဲ့ အပိုင်းတွေရဲ့ အရှည် ပြောင်းလဲပုံကို ကြည့်ဖို့ နောက်ထပ် အဆင့်အနည်းငယ်ကို ကြည့်ရအောင်။,"让我们再看看几个步骤 来观察我们的词汇的进化, 以及分裂的长度的进化。"
1667,"And now that we are happy with our vocabulary, you are probably wondering how to use it to tokenize a text.",ကျွန်တော်တို့ရဲ့ ဝေါဟာရနဲ့ ပတ်သက်ပြီး ကျေနပ်ပြီဆိုတော့ ဒီဝေါဟာရကို စာသား tokenization လုပ်ဖို့ ဘယ်လိုသုံးမလဲဆိုတာ သင်တွေးနေမိမှာပါ။,"现在我们对词汇很满意了, 你也许在想 如何用它来象征一个文本。"
1668,"Let's say we want to tokenize the word ""huggingface"".","ဥပမာ ""huggingface"" ဆိုတဲ့ စကားလုံးကို tokenization လုပ်ချင်တယ် ဆိုပါစို့။","这么说吧,我们想把""假脸""这个字当做象征"
1669,WordPiece follows these rules.,WordPiece က ဒီစည်းမျဉ်းတွေကို လိုက်နာတယ်။,WordPiece遵循这些规则。
1670,We will look for the longest possible token at the beginning of the word.,စကားလုံးရဲ့ အစမှာ ဖြစ်နိုင်သမျှ အရှည်ဆုံး token ကို ရှာပါမယ်။,我们将寻找最长久的征兆 在这个词的开头。
1671,"Then we start again on the remaining part of our word, and so on until we reach the end.",ပြီးရင် ကျန်ရှိနေတဲ့ စကားလုံးအပိုင်းကနေ ထပ်စပြီး အဆုံးရောက်တဲ့အထိ ဆက်သွားပါမယ်။,"然后,我们重新开始我们诺言的剩余部分,等等,直到我们达到终点。"
1672,And that's it. Huggingface is divided into four sub-tokens.,ဒါပါပဲ။ Huggingface ကို sub-tokens လေးခုအဖြစ် ပိုင်းခြားလိုက်တယ်။,就这样 抱住脸被分成四块
1673,This video is about to end.,ဒီဗီဒီယိုက ပြီးတော့မယ်။,这段影片即将结束。
1674,"I hope it helped you to understand better what is behind the work, WordPiece.",WordPiece ဆိုတဲ့ စကားလုံးရဲ့ နောက်ကွယ်မှာ ဘာတွေရှိလဲဆိုတာ ပိုကောင်းကောင်း နားလည်စေဖို့ ကူညီပေးနိုင်မယ်လို့ မျှော်လင့်ပါတယ်။,"我希望它能帮助你更好地了解 工作背后是什么,WordPiece。"
1675,"In this video, we will study together 'the Unigram Language Model subword tokenization algorithm'.",ဒီဗီဒီယိုမှာတော့ 'Unigram Language Model subword tokenization algorithm' ကို အတူတကွ လေ့လာကြရအောင်။,"在这部影片中,我们将一起研究“Unigram语言模型”子名符号代号算法。"
1676,The overall training strategy of a Unigram Language Model tokenizer is to start with a very large vocabulary and then to remove tokens at each iteration until we reach the desired size.,Unigram Language Model tokenizer ရဲ့ ယေဘုယျ လေ့ကျင့်ရေး မဟာဗျူဟာကတော့ အစမှာ အလွန်ကြီးမားတဲ့ ဝေါဟာရနဲ့ စတင်ပြီး လိုချင်တဲ့ အရွယ်အစား ရောက်တဲ့အထိ အကြိမ်တိုင်းမှာ tokens တွေကို ဖယ်ရှားသွားတာ ဖြစ်တယ်။,"Unigram语言模擬代碼器的总体培训策略是,从一个非常大的词汇开始,然后在每次迭代时删除标记,直到我们达到理想的尺寸。"
1677,"At each iteration, we will calculate a loss on our training corpus thanks to the Unigram model.",အကြိမ်တိုင်းမှာ Unigram မော်ဒယ်ကြောင့် ကျွန်တော်တို့ရဲ့ လေ့ကျင့်ရေး corpus ပေါ်မှာ loss ကို တွက်ချက်ပါမယ်။,"每次迭代,我们都会计算 大学模型给我们的训练金的损失"
1678,"As the loss calculation depends on the available vocabulary, we can use it to choose how to reduce the vocabulary.",loss တွက်ချက်မှုက ရရှိနိုင်တဲ့ ဝေါဟာရပေါ် မူတည်တာကြောင့် ဝေါဟာရကို ဘယ်လို လျှော့ချမလဲဆိုတာ ရွေးချယ်ဖို့ ဒါကို သုံးနိုင်ပါတယ်။,"由于损失的计算取决于现有词汇表,我们可以使用它来选择如何减少词汇表。"
1679,So we look at the evolution of the loss by removing in turn each token from the vocabulary.,ဒါကြောင့် ဝေါဟာရထဲက token တစ်ခုစီကို ဖယ်ရှားခြင်းအားဖြင့် loss ဘယ်လို ပြောင်းလဲသွားလဲ ကြည့်တယ်။,"因此,我们审视损失的演变过程,从词汇中逐个删除每个符号。"
1680,We will choose to remove the p-percents which increase the loss the less.,loss ကို အနည်းဆုံး တိုးစေတဲ့ p-percent တွေကို ဖယ်ရှားဖို့ ရွေးချယ်ပါမယ်။,我们将选择去掉增加损失的百分之几。
1681,"Before going further in the explanation of the training algorithm, I need to explain what is an Unigram model.",လေ့ကျင့်ရေး algorithm ကို ပိုမိုနက်ရှိုင်းစွာ ရှင်းပြခြင်းမပြုမီ Unigram မော်ဒယ်ဆိုတာ ဘာလဲဆိုတာ ရှင်းပြဖို့ လိုပါတယ်။,"在进一步解释培训算法之前,我需要解释什么是Unigram模型。"
1682,The Unigram Language Model is a type of Statistical Language Modem.,Unigram Language Model သည် Statistical Language Model အမျိုးအစားတစ်ခု ဖြစ်သည်။,统一语言模式是一种统计语言调制解调器。
1683,A Statistical Language Model will assign a probability to a text considering that the text is in fact a sequence of tokens.,Statistical Language Model တစ်ခုက စာသားကို token အတန်းတစ်ခုလို့ ယူဆပြီး အဲဒီစာသားကို ဖြစ်နိုင်ခြေ တစ်ခု သတ်မှတ်ပေးတယ်။,"统计语言模型将考虑到文本事实上是象征性的顺序,为文本提供一种可能性。"
1684,The simplest sequences of tokens to imagine are the words that compose the sentence or the characters.,စိတ်ကူးဖို့ အလွယ်ဆုံး token အတန်းတွေကတော့ ဝါကျကို ဖွဲ့စည်းထားတဲ့ စကားလုံးတွေ ဒါမှမဟုတ် စာလုံးတွေပါပဲ။,要想象的最简单的符号序列是组成句子或字符的单词。
1685,The particularity of Unigram Language Model is that it assumes that the occurrence of each word is independent of its previous word.,Unigram Language Model ရဲ့ ထူးခြားချက်ကတော့ စကားလုံးတစ်လုံးစီ ပေါ်ပေါက်လာတာဟာ သူ့ရဲ့ အရင်စကားလုံးနဲ့ မသက်ဆိုင်ဘူးလို့ ယူဆထားတာပဲ ဖြစ်ပါတယ်။,大学语言模式的特殊性在于它假定每个词的出现独立于其先前的词。
1686,This assumption allows us to write that the probability of a text is equal to the product of the probabilities of the tokens that compose it.,ဒီယူဆချက်ကြောင့် စာသားတစ်ခုရဲ့ ဖြစ်နိုင်ခြေက ၎င်းကို ဖွဲ့စည်းထားတဲ့ token တွေရဲ့ ဖြစ်နိုင်ခြေ မြှောက်လဒ်နဲ့ ညီတယ်လို့ ရေးနိုင်တယ်။,"这一假设使我们可以写下,文本的概率等于构成文本的象征物概率的产物。"
1687,"It should be noted here that it is a very simple model which would not be adapted to the generation of text since this model would always generate the same token, the one which has the greatest probability.",ဒီနေရာမှာ သတိထားသင့်တာက ဒါက အလွန်ရိုးရှင်းတဲ့ မော်ဒယ်ဖြစ်ပြီး စာသားထုတ်လုပ်ဖို့အတွက် မသင့်တော်ဘူး၊ ဘာလို့လဲဆိုတော့ ဒီမော်ဒယ်က ဖြစ်နိုင်ခြေ အများဆုံးရှိတဲ့ token တစ်ခုတည်းကိုပဲ အမြဲ ထုတ်ပေးနေမှာ ဖြစ်လို့ပါ။,"在此应当指出,这是一个非常简单的模式,不会适应案文的产生,因为这一模式总是产生同样的结果,而这种结果的概率最大。"
1688,"Nevertheless, to do tokenization, this model is very useful to us because it can be used to estimate the relative likelihood of different phrases.",ဒါပေမဲ့ tokenization လုပ်ဖို့အတွက်တော့ ဒီမော်ဒယ်က ကျွန်တော်တို့အတွက် အရမ်း အသုံးဝင်ပါတယ်၊ ဘာလို့လဲဆိုတော့ မတူညီတဲ့ စကားစုတွေရဲ့ ဆွေမျိုးဖြစ်နိုင်ခြေကို ခန့်မှန်းဖို့ အသုံးပြုနိုင်လို့ ဖြစ်တယ်။,"然而,为了象征性化,这一模式对我们非常有用,因为它可以用来估计不同短语的相对可能性。"
1689,We are now ready to return to our explanation of the training algorithm.,အခုတော့ လေ့ကျင့်ရေး algorithm ရဲ့ ရှင်းပြချက်ဆီ ပြန်သွားဖို့ အဆင်သင့် ဖြစ်ပါပြီ။,我们现在准备回到对训练算法的解释。
1690,"Let's say that we have as a training corpus with 10 times the word hug, 12 times the word pug, 5 times the word lug, 4 times bug and 5 times dug.","ကျွန်တော်တို့မှာ လေ့ကျင့်ရေး corpus အဖြစ် ""hug"" ၁၀ ကြိမ်၊ ""pug"" ၁၂ ကြိမ်၊ ""lug"" ၅ ကြိမ်၊ ""bug"" ၄ ကြိမ်နဲ့ ""dug"" ၅ ကြိမ် ပါဝင်တယ်လို့ ဆိုကြပါစို့။","比方说,我们有一个训练课程 10倍的字拥抱,12倍的字帕格, 5倍的字拉格,4倍的虫子和5倍的挖。"
1691,"As said earlier, the training starts with a big vocabulary.",အရင်က ပြောခဲ့သလိုပဲ လေ့ကျင့်မှုက ကြီးမားတဲ့ ဝေါဟာရနဲ့ စတင်တယ်။,"如前所述,培训从一个大的词汇开始。"
1692,"Obviously, as we are using a toy corpus, this vocabulary will not be that big but it should show you the principle.",ကျွန်တော်တို့က ဥပမာ corpus ကို သုံးနေတာကြောင့် ဒီဝေါဟာရက သိပ်မကြီးပါဘူး၊ ဒါပေမယ့် သဘောတရားကို ပြသနိုင်မှာပါ။,"显然,当我们使用一个玩具体时, 这个词汇不会那么大, 但是它应该向你们展示原则。"
1693,A first method is to list all the possible strict substrings and that's what we'll do here.,ပထမနည်းလမ်းကတော့ ဖြစ်နိုင်တဲ့ strict substring အားလုံးကို စာရင်းပြုစုတာ ဖြစ်ပြီး ဒီမှာ အဲဒါကို လုပ်သွားပါမယ်။,"第一个方法是列出所有可能的严格子字符串, 这就是我们在这里要做的。"
1694,"We could also have used the BPE algorithm with a very large vocabulary size but for now, the strict substrings are enough.",BPE algorithm ကို အရွယ်အစား အလွန်ကြီးတဲ့ ဝေါဟာရနဲ့ သုံးလို့လည်း ရပေမယ့် အခုချိန်မှာတော့ strict substring တွေက လုံလောက်ပါတယ်။,我们也可以使用 BPE 算法 使用非常大的词汇大小 但现在 严格的子字符串就足够了
1695,The training of the Unigram tokenizer is based on the Expectation-Maximization method.,Unigram tokenizer ရဲ့ လေ့ကျင့်မှုက Expectation-Maximization နည်းလမ်းပေါ် အခြေခံထားတယ်။,Unigram代号器的培训以预期-最大化方法为基础。
1696,"At each iteration, we estimate the probabilities of the tokens of the vocabulary and then we remove the p-percent of tokens that minimize the loss on the corpus and which do not belong to the basic character as we want to keep in our final vocabulary the basic characters to be able to tokenize any word.",အကြိမ်တိုင်းမှာ ဝေါဟာရထဲက token တွေရဲ့ ဖြစ်နိုင်ခြေကို ခန့်မှန်းတယ်၊ ပြီးတော့ corpus ပေါ်က loss ကို အနည်းဆုံးဖြစ်စေပြီး အခြေခံ စာလုံးမဟုတ်တဲ့ p-percent တွေကို ဖယ်ရှားလိုက်တယ်၊ ဘာလို့လဲဆိုတော့ စကားလုံးတိုင်းကို tokenization လုပ်နိုင်ဖို့အတွက် အခြေခံ စာလုံးတွေကို နောက်ဆုံး ဝေါဟာရမှာ ထားချင်လို့ပါ။,"在每次迭代时,我们估计词汇符号的概率,然后删除能够最大限度地减少物质损失和不属于基本字符的占比的符号,因为我们想在最后的词汇中保留基本字符,以便能够象征性地表示任何单词。"
1697,Let's go for it!,စလိုက်ရအောင်။,开始吧!
1698,The probability of a token simply estimated by the number of appearance of this token in our training corpus divided by the total number of appearance of all the tokens.,token တစ်ခုရဲ့ ဖြစ်နိုင်ခြေကို ဒီ token ပေါ်လာတဲ့ အကြိမ်ရေကို လေ့ကျင့်ရေး corpus ထဲက token အားလုံး ပေါ်လာတဲ့ စုစုပေါင်း အကြိမ်ရေနဲ့ စားပြီး ရိုးရှင်းစွာ ခန့်မှန်းနိုင်တယ်။,象征性的概率 简单地根据我们训练营中 象征性的外观数量来估计 与所有象征性的外观总数除以
1699,We could use this vocabulary to tokenize our words according to the Unigram model.,ဒီဝေါဟာရကို သုံးပြီး ကျွန်တော်တို့ရဲ့ စကားလုံးတွေကို Unigram မော်ဒယ်အတိုင်း tokenization လုပ်နိုင်တယ်။,我们可以用这个词汇 来象征我们的词汇 根据Unigram模式。
1700,We will do it together to understand two things: how we tokenize a word with a Unigram model and how the loss is calculated on our corpus.,Unigram မော်ဒယ်နဲ့ စကားလုံးတစ်လုံးကို ဘယ်လို tokenization လုပ်လဲ၊ ကျွန်တော်တို့ရဲ့ corpus ပေါ်မှာ loss ကို ဘယ်လို တွက်လဲဆိုတာ နားလည်ဖို့အတွက် အတူတူ လုပ်ကြည့်ရအောင်။,"为了理解两件事,我们将一起这样做:我们如何用一个Unigram模型来象征一个词,以及如何在我们的体积上计算损失。"
1701,The Unigram LM tokenization of our text 'Hug' will be the one with the highest probability of occurrence according to our Unigram model.,ကျွန်တော်တို့ရဲ့ စာသား 'Hug' ရဲ့ Unigram LM tokenization ကတော့ Unigram မော်ဒယ်အရ ဖြစ်နိုင်ခြေ အမြင့်ဆုံး ပေါ်ပေါက်မှု ရှိတဲ့ တစ်ခု ဖြစ်ပါလိမ့်မယ်။,我们的文本“ Hug” 的 Unigram LM 符号化将是根据我们的 Unigram 模型出现概率最高的文本 。
1702,"To find it, the simplest way to proceed would be to list all the possible segmentations of our text 'Hug', calculate the probability of each of these segmentations and then choose the one with the highest probability.",ဒါကို ရှာဖို့အတွက် အလွယ်ဆုံးနည်းကတော့ ကျွန်တော်တို့ရဲ့ 'Hug' စာသားရဲ့ ဖြစ်နိုင်တဲ့ ပိုင်းခြားမှု အားလုံးကို စာရင်းပြုစု၊ ပိုင်းခြားမှု တစ်ခုစီရဲ့ ဖြစ်နိုင်ခြေကို တွက်ချက်ပြီး ဖြစ်နိုင်ခြေ အမြင့်ဆုံး တစ်ခုကို ရွေးချယ်ဖို့ပဲ ဖြစ်ပါတယ်။,"要找到它,最简单的方法就是列出我们文本“ Hug” 的所有可能的分区, 计算每个分区的概率, 然后选择最高概率的分区 。"
1703,"With the current vocabulary, two tokenizations get exactly the same probability.",လက်ရှိ ဝေါဟာရနဲ့ဆိုရင် tokenization နှစ်ခုက ဖြစ်နိုင်ခြေ တူညီစွာ ရရှိတယ်။,"使用当前词汇表, 两个符号化的概率完全相同 。"
1704,So we choose one of them and keep in memory the associated probability.,ဒါကြောင့် တစ်ခုကို ရွေးပြီး သက်ဆိုင်ရာ ဖြစ်နိုင်ခြေကို မှတ်ဉာဏ်ထဲ သိမ်းထားလိုက်တယ်။,"因此,我们选择其中之一,并记住相关概率。"
1705,"To compute the loss on our training corpus, we need to tokenize as we just did all the remaining words in the corpus.",လေ့ကျင့်ရေး corpus ပေါ်က loss ကို တွက်ချက်ဖို့အတွက် ကျွန်တော်တို့ ခုနက လုပ်ခဲ့သလိုပဲ corpus ထဲက ကျန်တဲ့ စကားလုံးအားလုံးကို tokenization လုပ်ဖို့ လိုတယ်။,"为了计算我们训练本体的损失,我们需要像我们刚刚所做的那样,象征一下本体中所有剩下的词句。"
1706,The loss is then the sum over all the words in the corpus of the frequency of occurrence of the word multiplied by the opposite of the log of the probability associated with the tokenization of the word.,loss ဆိုတာကတော့ corpus ထဲက စကားလုံးအားလုံးရဲ့ ပေါ်ပေါက်မှု အကြိမ်ရေကို အဲဒီစကားလုံးရဲ့ tokenization နဲ့ သက်ဆိုင်တဲ့ ဖြစ်နိုင်ခြေ log ရဲ့ ဆန့်ကျင်ဘက်နဲ့ မြှောက်ထားတဲ့ ပေါင်းလဒ် ဖြစ်တယ်။,"然后,损失是字体中所有字词的发生频率之和乘以与字词符号化相关的概率日志相反的数值。"
1707,We obtain here a loss of 170.,ဒီမှာ loss ၁၇၀ ကို ရရှိတယ်။,我们在这里损失170美元。
1708,"Remember, our initial goal was to reduce the vocabulary.",မှတ်ထားပါ၊ ကျွန်တော်တို့ရဲ့ အစကနဦး ရည်မှန်းချက်က ဝေါဟာရကို လျှော့ချဖို့ ဖြစ်တယ်။,记住 我们最初的目标是减少词汇
1709,"To do this, we will remove a token from the vocabulary and calculate the associated loss.",ဒီလိုလုပ်ဖို့အတွက် ဝေါဟာရထဲက token တစ်ခုကို ဖယ်ရှားပြီး သက်ဆိုင်ရာ loss ကို တွက်ချက်ပါမယ်။,"为此,我们将从词汇表中删除一个标记,计算相关的损失。"
1710,"Let's remove for example, the token 'ug'.",ဥပမာ 'ug' token ကို ဖယ်ရှားကြည့်ရအောင်။,"例如,让我们删除符号“ug” 。"
1711,We notice that the tokenization for 'hug' with the letter 'h' and the tuple 'ug' is now impossible.,'h' စာလုံးနဲ့ 'ug' အတွဲပါတဲ့ 'hug' အတွက် tokenization က အခု မဖြစ်နိုင်တော့ဘူးဆိုတာ သတိထားမိတယ်။,"我们注意到,用字母“h”和tuple“ug”表示“hug”现在是不可能的。"
1712,"Nevertheless, as we saw earlier that two tokenizations had the same probability, we can still choose the remaining tokenization with a probability of 1.10e-2.",သို့သော်လည်း အရင်က tokenization နှစ်ခုက ဖြစ်နိုင်ခြေ တူညီခဲ့တာကို မြင်ခဲ့ရတဲ့အတွက် ကျန်ရှိနေတဲ့ tokenization ကို 1.10e-2 ဖြစ်နိုင်ခြေနဲ့ ဆက်လက် ရွေးချယ်နိုင်သေးတယ်။,"然而,正如我们早些时候所看到的那样,两个象征性的概率相同,我们仍然可以选择剩余的象征性的概率为1.10e-2。"
1713,The tokenizations of the other words of the vocabulary also remain unchanged.,ဝေါဟာရထဲက တခြားစကားလုံးတွေရဲ့ tokenization တွေလည်း မပြောင်းလဲဘဲ ကျန်ရှိနေတယ်။,词汇中其他词的象征也保持不变。
1714,"And finally, even if we remove the token 'ug' from our vocabulary the loss remains equal to 170.",နောက်ဆုံးအနေနဲ့ ဝေါဟာရထဲက 'ug' token ကို ဖယ်ရှားလိုက်ရင်တောင် loss က ၁၇၀ အတိုင်းပဲ ကျန်ရှိနေတယ်။,"最后,即使我们从词汇中删除了""ug""的符号, 损失仍然等于170美元。"
1715,"For this first iteration, if we continue the calculation, we would notice that we could remove any token without it impacting the loss.",ဒီပထမဆုံး အကြိမ်အတွက် တွက်ချက်မှုကို ဆက်လုပ်မယ်ဆိုရင် loss ကို သက်ရောက်မှုမရှိဘဲ မည်သည့် token ကိုမဆို ဖယ်ရှားနိုင်တယ်ဆိုတာ သတိထားမိမှာပါ။,"对于这第一个迭代,如果我们继续计算,我们会注意到,我们可以在不影响损失的情况下去除任何象征性物品。"
1716,We will therefore choose at random to remove the token 'ug' before starting a second iteration.,ဒါကြောင့် ဒုတိယ အကြိမ်မစခင် ကျပန်းအနေနဲ့ 'ug' token ကို ဖယ်ရှားဖို့ ရွေးချယ်လိုက်တယ်။,"因此,我们将随机选择在开始第二次迭代之前删除符号“ ug” 。"
1717,So we estimate again the probability of each token before calculating the impact of each token on the loss.,ဒါကြောင့် token တစ်ခုစီရဲ့ loss ပေါ်က သက်ရောက်မှုကို တွက်ချက်ခြင်းမပြုမီ token တစ်ခုစီရဲ့ ဖြစ်နိုင်ခြေကို ထပ်မံ ခန့်မှန်းတယ်။,"因此,在计算每个象征对损失的影响之前,我们再次估计每个象征的概率。"
1718,"For example, if we remove now the token composed of the letters 'h' and 'u', there is only one possible tokenization left for hug.",ဥပမာအားဖြင့် 'h' နဲ့ 'u' စာလုံးတွေနဲ့ ဖွဲ့စည်းထားတဲ့ token ကို ဖယ်ရှားလိုက်မယ်ဆိုရင် 'hug' အတွက် ဖြစ်နိုင်တဲ့ tokenization တစ်ခုတည်းသာ ကျန်တော့တယ်။,"例如,如果我们现在删除字母“h”和“u”的符号, 那么就只剩下一个可能的符号, 可以用来拥抱了 。"
1719,The tokenization of the other words of the vocabulary is not changed.,ဝေါဟာရထဲက တခြားစကားလုံးတွေရဲ့ tokenization တွေ မပြောင်းလဲပါဘူး။,词汇表中其它词的符号化没有改变 。
1720,"In the end, we obtain by removing the token composed of the letters 'h' and 'u' from the vocabulary, a loss of 168.",နောက်ဆုံးမှာ 'h' နဲ့ 'u' စာလုံးတွေပါတဲ့ token ကို ဝေါဟာရထဲက ဖယ်ရှားလိုက်ခြင်းအားဖြင့် loss ၁၆၈ ကို ရရှိပါတယ်။,"最后,我们从词汇中删除了字母“h”和“u”的符号,损失168美元。"
1721,"Finally, to choose which token to remove, we will for each remaining token of the vocabulary, which is not an elementary token, calculate the associated loss.",နောက်ဆုံးအနေနဲ့ ဘယ် token ကို ဖယ်ရှားရမလဲဆိုတာ ရွေးချယ်ဖို့အတွက် အခြေခံ token မဟုတ်တဲ့ ကျန်ရှိနေတဲ့ ဝေါဟာရထဲက token တစ်ခုစီအတွက် သက်ဆိုင်ရာ loss ကို တွက်ချက်ပါမယ်။,"最后,要选择要删除的牌子,我们将为词汇表的每个剩余牌子计算相关的损失,因为词汇表不是基本牌子。"
1722,"Then, compare these losses between them.",ပြီးရင် ဒီ loss တွေကို အချင်းချင်း နှိုင်းယှဉ်ပါမယ်။,"那么,比较这些损失。"
1723,"The token which we will remove is the token which impacts the least the loss, here the token 'bu'.",ကျွန်တော်တို့ ဖယ်ရှားမယ့် token ကတော့ loss ကို အနည်းဆုံး သက်ရောက်မှုရှိတဲ့ token ဖြစ်ပြီး၊ ဒီမှာတော့ 'bu' token ဖြစ်တယ်။,"我们将删除的象征是最小影响损失的象征, 这里的象征是“ bu ” 。"
1724,We had mentioned at the beginning of the video that at each iteration we could remove p-percent of the tokens by iteration.,ဗီဒီယိုအစမှာ ပြောခဲ့သလိုပဲ အကြိမ်တိုင်းမှာ p-percent တွေကို ဖယ်ရှားနိုင်တယ်ဆိုတာ ပြောခဲ့တယ်။,"我们在视频开头提到, 每次迭代 我们可以通过迭代去除占比的象征物。"
1725,The second token that could be removed at this iteration is the token 'du'.,ဒီအကြိမ်မှာ ဖယ်ရှားနိုင်တဲ့ ဒုတိယ token ကတော့ 'du' token ဖြစ်ပါတယ်။,在此迭代中可以删除的第二个标记是“ du ” 。
1726,We just have to repeat these steps until we get the vocabulary of the desired size.,လိုချင်တဲ့ ဝေါဟာရ အရွယ်အစား ရရှိတဲ့အထိ ဒီအဆင့်တွေကို ထပ်ခါတလဲလဲ လုပ်ဆောင်ရုံပါပဲ။,"我们只需重复这些步骤,直到我们得到理想大小的词汇表。"
1727,One last thing.,နောက်ဆုံး တစ်ခု ပြောချင်တာက။,还有最后一件事
1728,"In practice, when we tokenize a word with a Unigram model, we don't compute the set of probabilities of all the possible splits of a word before comparing them to keep the best one but we use the Viterbi algorithm which is much more efficient way to do it.",လက်တွေ့မှာတော့ Unigram မော်ဒယ်နဲ့ စကားလုံးတစ်လုံးကို tokenization လုပ်တဲ့အခါ ဖြစ်နိုင်တဲ့ စကားလုံး ပိုင်းခြားမှု အားလုံးရဲ့ ဖြစ်နိုင်ခြေ အစုအဝေးကို တွက်ချက်ပြီး အကောင်းဆုံးကို နှိုင်းယှဉ်တာမျိုး မလုပ်ပါဘူး၊ ဒါပေမယ့် ပိုပြီး ထိရောက်တဲ့ Viterbi algorithm ကို အသုံးပြုပါတယ်။,"在实践中,当我们用一个Unigram模型象征一个单词时, 在比较一个单词之前, 我们不计算所有可能的概率, 来比较一个单词的概率, 以保留最好的一个, 但是我们使用维泰比算法, 这是效率更高的方法。"
1729,And that's it!,ဒါပါပဲ!,就是这样!
1730,I hope that this example has allowed you to better understand the Unigram tokenization algorithm.,ဒီဥပမာက Unigram tokenization algorithm ကို ပိုကောင်းကောင်း နားလည်စေဖို့ ကူညီပေးနိုင်မယ်လို့ မျှော်လင့်ပါတယ်။,我希望这个例子能让你更好地了解 Unigram象征性化算法。
1731,"In this video, we will see how you can create your own tokenizer from scratch.",ဒီဗီဒီယိုမှာတော့ သင့်ကိုယ်ပိုင် tokenizer ကို အစကနေ ဘယ်လို ဖန်တီးနိုင်လဲဆိုတာ ကြည့်ရအောင်။,"在这段影片中,我们将看到如何从零开始创建自己的代谢器。"
1732,"To create your own tokenizer, you will have to think about each of the operations involved in tokenization.",သင့်ကိုယ်ပိုင် tokenizer ကို ဖန်တီးဖို့အတွက် tokenization မှာ ပါဝင်တဲ့ လုပ်ဆောင်ချက် တစ်ခုချင်းစီကို စဉ်းစားရပါလိမ့်မယ်။,"要创建你自己的代币器, 您就必须考虑 每一个涉及代币的操作 。"
1733,"Namely, the normalization, the pre-tokenization, the model, the post processing, and the decoding.",ဆိုလိုတာက normalization၊ pre-tokenization၊ model၊ post processing နဲ့ decoding တွေပဲ ဖြစ်ပါတယ်။,即正常化、确定前、模型、员额处理和解码。
1734,"If you don't know what normalization, pre-tokenization, and the model are, I advise you to go and see the videos linked below.",normalization၊ pre-tokenization နဲ့ model ဆိုတာ ဘာတွေလဲ မသိရင် အောက်မှာ လင့်ခ်ချိတ်ထားတဲ့ ဗီဒီယိုတွေကို သွားကြည့်ဖို့ အကြံပေးချင်ပါတယ်။,"如果你不知道什么是正常化, 入门前, 和模型是什么, 我建议你去看看下面连接的视频。"
1735,The post processing gathers all the modifications that we will carry out on the tokenized text.,post processing က tokenized လုပ်ထားတဲ့ စာသားပေါ်မှာ ကျွန်တော်တို့ လုပ်ဆောင်မယ့် ပြောင်းလဲမှုအားလုံးကို စုစည်းထားတာပါ။,邮箱处理收集了我们将对象征性文本进行的所有修改。
1736,"It can include the addition of special tokens, the creation of an intention mask, but also the generation of a list of token IDs.",အဲဒီထဲမှာ အထူး token တွေ ထည့်သွင်းခြင်း၊ intention mask ဖန်တီးခြင်း၊ ဒါ့အပြင် token ID တွေရဲ့ စာရင်းကို ထုတ်ပေးခြင်းတို့ ပါဝင်နိုင်တယ်။,"它可以包括增加特殊标志,建立意图面具,以及制作象征性身份证清单。"
1737,"The decoding operation occurs at the very end, and will allow passing from the sequence of IDs in a sentence.",decoding လုပ်ဆောင်ချက်က အဆုံးမှာ ဖြစ်ပေါ်ပြီး ဝါကျတစ်ခုထဲက ID တွေရဲ့ sequence ကနေ ကူးပြောင်းနိုင်စေမယ်။,"解码操作在句尾进行,将允许从句子中的身份证序列中通过。"
1738,"For example, you can see that the hashtags have been removed, and the tokens composing the word today have been grouped together.",ဥပမာအားဖြင့် hashtag တွေ ဖယ်ရှားခံထားရတာကို မြင်နိုင်ပြီး 'today' စကားလုံးကို ဖွဲ့စည်းထားတဲ့ token တွေကို စုစည်းထားတာ တွေ့ရတယ်။,"例如,您可以看到标签已被删除, 组成今天这个单词的标志被组合在一起。"
1739,"In a fast tokenizer, all these components are gathered in the backend_tokenizer attribute.",fast tokenizer မှာတော့ ဒီအစိတ်အပိုင်းအားလုံးကို backend_tokenizer attribute ထဲမှာ စုစည်းထားတယ်။,"在快速代谢器中,所有这些部件都聚集在后端的托盘属性中。"
1740,"As you can see with this small code snippet, it is an instance of a tokenizer from the tokenizers library.",ဒီ code snippet လေးနဲ့ မြင်ရတဲ့အတိုင်း ဒါက tokenizers library ကနေ tokenizer တစ်ခုရဲ့ instance ဖြစ်တယ်။,"正如你从这个小代码片段可以看到的, 它是一个象征器的例子, 来自于象征器库。"
1741,"So, to create your own tokenizer, you will have to follow these steps.",ဒါကြောင့် သင့်ကိုယ်ပိုင် tokenizer ကို ဖန်တီးဖို့ ဒီအဆင့်တွေကို လိုက်နာရပါလိမ့်မယ်။,"所以,为了创建你自己的代用品, 你必须遵循这些步骤。"
1742,"First, create a training dataset.",ပထမဆုံး လေ့ကျင့်ရေး dataset တစ်ခုကို ဖန်တီးပါ။,"首先,创建培训数据集。"
1743,"Second, create and train a tokenizer with the transformer library.",ဒုတိယအနေနဲ့ transformer library နဲ့ tokenizer တစ်ခုကို ဖန်တီးပြီး လေ့ကျင့်ပါ။,"第二,在变压器库中创建和培训一个象征器。"
1744,"And third, load this tokenizer into a transformer tokenizer.",တတိယအနေနဲ့ ဒီ tokenizer ကို transformer tokenizer ထဲကို ထည့်သွင်းပါ။,"第三,把这个质地器装上变压器"
1745,"To understand these steps, I propose that we recreate a BERT tokenizer together.",ဒီအဆင့်တွေကို နားလည်ဖို့အတွက် BERT tokenizer တစ်ခုကို အတူတူ ပြန်ဖန်တီးကြည့်ဖို့ အဆိုပြုပါတယ်။,"为了理解这些步骤,我提议我们一起重新创建BERT代用品。"
1746,The first thing to do is to create a dataset.,ပထမဆုံး လုပ်ရမယ့်အရာက dataset တစ်ခု ဖန်တီးဖို့ပဲ။,首先要做的是创建数据集。
1747,"With this code snippet you can create an iterator on the dataset wikitext-2-raw-V1, which is a rather small dataset in English, perfect for the example.",ဒီ code snippet နဲ့ wikitext-2-raw-V1 dataset ပေါ်မှာ iterator တစ်ခု ဖန်တီးနိုင်တယ်၊ အဲဒါက အင်္ဂလိပ်လို အတော်လေး သေးငယ်တဲ့ dataset တစ်ခုဖြစ်ပြီး ဥပမာအတွက် ပြီးပြည့်စုံတယ်။,"使用此代码片段, 您可以在数据元件 wikitext-2- raw- V1 上创建一个循环器, 这是一个相当小的英文数据集, 适合此示例 。"
1748,"We attack here the big part, the design of our tokenizer with the tokenizer library.",ဒီမှာတော့ အကြီးစားအပိုင်းကို စတင်ပြီ၊ tokenizer library နဲ့ ကျွန်တော်တို့ရဲ့ tokenizer ကို ဒီဇိုင်းဆွဲတာ ဖြစ်တယ်။,"我们在这里攻击大部份, 我们的代言人设计 与代言人图书馆。"
1749,We start by initializing a tokenizer instance with a WordPiece model because it is the model used by BERT.,BERT က သုံးတဲ့ မော်ဒယ်ဖြစ်တာကြောင့် WordPiece မော်ဒယ်နဲ့ tokenizer instance တစ်ခုကို စတင် အစပြုလိုက်တယ်။,"我们首先先用 WordPiece 模型初始化一个象征器实例, 因为它是 BERT 使用的模型 。"
1750,Then we can define our normalizer.,ပြီးရင် ကျွန်တော်တို့ရဲ့ normalizer ကို သတ်မှတ်နိုင်တယ်။,然后我们可以定义我们的正常化者。
1751,We will define it as a succession of two normalizations used to clean up characters not visible in the text.,စာသားထဲမှာ မမြင်ရတဲ့ စာလုံးတွေကို ရှင်းလင်းဖို့ အသုံးပြုတဲ့ normalization နှစ်ခု ဆက်တိုက်အဖြစ် သတ်မှတ်ပါမယ်။,"我们将把它定义为一连串的两种正常化,用来清理案文中看不到的字符。"
1752,"One lowercasing normalization, and two last normalizations used to remove accents.",စာလုံးအသေးပြောင်းတဲ့ normalization တစ်ခုနဲ့ အသံထွက် သင်္ကေတတွေကို ဖယ်ရှားဖို့ အသုံးပြုတဲ့ နောက်ဆုံး normalization နှစ်ခုပေါ့။,"一种降低的正常化, 和两种最后的正常化 用来去掉口音。"
1753,"For the pre-tokenization, we will chain two pre_tokenizers.",pre-tokenization အတွက် pre_tokenizer နှစ်ခုကို ဆက်တိုက် ချိတ်ဆက်ပါမယ်။,"进化前,我们把两个进化器连锁起来"
1754,"The first one separating the text at the level of spaces, and the second one isolating the punctuation marks.",ပထမတစ်ခုက နေရာလွတ်မှာ စာသားကို ပိုင်းခြားပေးပြီး ဒုတိယတစ်ခုက ပုဒ်ဖြတ် သင်္ကေတတွေကို ခွဲထုတ်ပေးတယ်။,"第一个是将文字分隔在空格一级,第二个是分离标点标记。"
1755,"Now, we can define the trainer that will allow us to train the WordPiece model chosen at the beginning.",အခု အစက ရွေးချယ်ထားတဲ့ WordPiece မော်ဒယ်ကို လေ့ကျင့်ဖို့ ခွင့်ပြုမယ့် trainer ကို သတ်မှတ်နိုင်ပါပြီ။,"现在,我们可以定义训练师, 来训练在开始时选择的WordPiece模式。"
1756,"To carry out the training, we will have to choose a vocabulary size.",လေ့ကျင့်မှု လုပ်ဆောင်ဖို့အတွက် ဝေါဟာရ အရွယ်အစားတစ်ခုကို ရွေးချယ်ရပါမယ်။,"为了进行培训,我们必须选择一个词汇大小。"
1757,"Here we choose 25,000.,ဒီမှာတော့ ၂၅",၀၀၀ ကို ရွေးလိုက်တယ်။,"在这里,我们选择25000。"
1758,And we also need to announce the special tokens that we absolutely want to add to our vocabulary.,ပြီးတော့ ကျွန်တော်တို့ရဲ့ ဝေါဟာရထဲကို လုံးဝထည့်ချင်တဲ့ အထူး token တွေကိုလည်း ကြေညာဖို့ လိုတယ်။,我们还需要宣布 我们绝对想在词汇中添加的特别标志。
1759,"In one line of code, we can train our WordPiece model using the iterator we defined earlier.",code တစ်ကြောင်းတည်းနဲ့ ကျွန်တော်တို့ အစောပိုင်းက သတ်မှတ်ထားတဲ့ iterator ကို သုံးပြီး WordPiece မော်ဒယ်ကို လေ့ကျင့်နိုင်တယ်။,"在一个代码线上, 我们可以用我们早先定义的仿照器 来训练我们的WordPiece模型。"
1760,"Once the model has been trained, we can retrieve the IDs of the special class and separation tokens, because we will need them to post-process our sequence.",မော်ဒယ် လေ့ကျင့်ပြီးတာနဲ့ အထူး class နဲ့ ခွဲခြားမှု token တွေရဲ့ ID တွေကို ပြန်ယူနိုင်ပါတယ်၊ ဘာလို့လဲဆိုတော့ ကျွန်တော်တို့ရဲ့ sequence ကို post-process လုပ်ဖို့ ဒါတွေ လိုအပ်မှာ ဖြစ်လို့ပါ။,"一旦模型经过训练,我们就能检索到 特殊阶级的身份 和分离标志,因为我们需要他们 来处理我们的序列。"
1761,"Thanks to the TemplateProcessing class, we can add the CLS token at the beginning of each sequence, and the SEP token at the end of the sequence, and between two sentences if we tokenize a pair of text.",TemplateProcessing class ကြောင့် sequence တစ်ခုစီရဲ့ အစမှာ CLS token ကို ထည့်နိုင်ပြီး sequence ရဲ့ အဆုံးမှာ SEP token ကို ထည့်နိုင်တယ်၊ စာသားနှစ်တွဲကို tokenization လုပ်ရင် စာကြောင်းနှစ်ကြောင်းကြားမှာလည်း ထည့်နိုင်တယ်။,"多亏了模板处理类, 我们可以在每个序列的起始处添加 CLS 符号, 在序列结尾处添加 SEP 符号, 并在两句之间添加, 如果我们标记成一对文本的话 。"
1762,"Finally, we just have to define our decoder, which will allow us to remove the hashtags at the beginning of the tokens that must be reattached to the previous token.",နောက်ဆုံးမှာတော့ ကျွန်တော်တို့ရဲ့ decoder ကို သတ်မှတ်ရုံပါပဲ၊ ဒါက အရင် token နဲ့ ပြန်တွဲရမယ့် token တွေရဲ့ အစမှာရှိတဲ့ hashtag တွေကို ဖယ်ရှားနိုင်စေမယ်။,"最后,我们只需要定义我们的解码器,这样我们就能够删除标记开始处的标签,这些标签必须重新附在上一个标记上。"
1763,And there it is.,ဒါလေးပဲ။,就是这样。
1764,You have all the necessary lines of code to define your own tokenizer with the tokenizer library.,tokenizer library နဲ့ သင့်ကိုယ်ပိုင် tokenizer ကို သတ်မှတ်ဖို့ လိုအပ်တဲ့ code တွေကို အားလုံး ရရှိသွားပါပြီ။,您有所有必需的代码行来定义您在质记器库中的质记器 。
1765,"Now that we have a brand new tokenizer with the tokenizer library, we just have to load it into a fast tokenizer from the transformers library.",အခု tokenizer library နဲ့ tokenizer အသစ်စက်စက်တစ်ခု ရပြီဆိုတော့ transformers library က fast tokenizer တစ်ခုထဲကို ထည့်သွင်းလိုက်ရုံပဲ။,"现在,我们有一个崭新的代谢器 与代谢器图书馆, 我们只需要把它装入 一个快速代谢器 从变压器图书馆。"
1766,"Here again, we have several possibilities.",ဒီမှာလည်း ကျွန်တော်တို့မှာ ရွေးချယ်စရာတွေ အများကြီး ရှိတယ်။,"在此,我们还有几种可能性。"
1767,"We can load it in the generic class, PreTrainedTokenizerFast, or in the BertTokenizerFast class since we have built a BERT like tokenizer here.",ဒီမှာ BERT လို tokenizer တစ်ခု တည်ဆောက်ထားတာကြောင့် PreTrainedTokenizerFast ဆိုတဲ့ ယေဘုယျ class ထဲမှာ ဒါမှမဟုတ် BertTokenizerFast class ထဲမှာ ထည့်နိုင်တယ်။,"我们可以把它装在通用类, 预培训Tokenizer Fast, 或者在BertTokenizer Fast类, 因为我们已经在这里建造了像象征性的BERT。"
1768,"I really hope this video has helped you understand how you can create your own tokenizer, and that you are ready now to navigate the tokenizer library documentation to choose the components for your brand new tokenizer.",ဒီဗီဒီယိုက သင့်ကိုယ်ပိုင် tokenizer ကို ဘယ်လို ဖန်တီးနိုင်လဲဆိုတာ နားလည်ဖို့ ကူညီပေးခဲ့ပြီး သင့်ရဲ့ tokenizer အသစ်အတွက် အစိတ်အပိုင်းတွေကို ရွေးချယ်ဖို့ tokenizer library စာရွက်စာတမ်းတွေကို လေ့လာဖို့ အဆင်သင့် ဖြစ်နေပြီလို့ တကယ်ပဲ မျှော်လင့်ပါတယ်။,"我真心希望这段视频能帮助你了解如何创建自己的代用品, 并且你现在准备好浏览代用品库文件, 来选择您品牌的新代用品的组件。"
1769,Let's study how to preprocess a dataset for token classification!,Token Classification အတွက် dataset တစ်ခုကို ဘယ်လို စီမံဆောင်ရွက်မလဲ လေ့လာကြရအောင်။,"让我们研究如何预处理一个数据集, 用于代号分类 !"
1770,"Token classification regroups any task that can be framed as labeling each word or token in a sentence, like identifying the persons, organizations and locations for instance.",Token Classification က ဝါကျတစ်ခုထဲက စကားလုံး ဒါမှမဟုတ် token တစ်ခုစီကို label တပ်တဲ့ လုပ်ငန်းအားလုံးကို စုစည်းထားတာပါ၊ ဥပမာ လူပုဂ္ဂိုလ်တွေ၊ အဖွဲ့အစည်းတွေနဲ့ တည်နေရာတွေကို ဖော်ထုတ်တာမျိုးပေါ့။,"Tok 分类重新组合了任何可以标为在句子中给每个词或符号贴上标签的任务,例如识别个人、组织和地点等。"
1771,"For our example, we will use the Conll dataset, in which we remove columns we won't use and rename the other ones to get to a dataset with just two columns, words and labels.",ကျွန်တော်တို့ရဲ့ ဥပမာအတွက် Conll dataset ကို သုံးပါမယ်၊ အဲဒီထဲမှာ မသုံးတော့မယ့် column တွေကို ဖယ်ရှားပြီး ကျန်တာတွေကို စကားလုံးနဲ့ label ဆိုတဲ့ column နှစ်ခုတည်းပဲ ပါအောင် နာမည်ပြောင်းလိုက်တယ်။,"例如,我们将使用 Conll 数据集, 在其中我们删除我们不会使用的列, 并重命名其它列, 以便用两个栏、 单词和标签进入数据集 。"
1772,"If you have your own dataset for token classification, just make sure you clean your data to get to the same point, with one column containing words as list of strings and another containing labels as integers spanning from zero to your number of labels minus one.",သင့်မှာ Token Classification အတွက် ကိုယ်ပိုင် dataset ရှိရင် စာသားစာရင်းအဖြစ် စကားလုံးတွေပါတဲ့ column တစ်ခုနဲ့ သုညကနေ သင့် label အရေအတွက် အနုတ်တစ်အထိ ကိန်းဂဏန်းတွေအဖြစ် label တွေပါတဲ့ နောက်ထပ် column တစ်ခု ရရှိဖို့ သင့်ဒေတာကို ရှင်းလင်းထားဖို့ သေချာပါစေ။,"如果您有自己的标识分类数据集, 只需确保您清理数据, 以达到同一点, 有一列包含字符串列表中的单词, 另一列包含从零到您标签数减去一的整数的标签 。"
1773,Make sure you have your label names stored somewhere.,သင့်ရဲ့ label နာမည်တွေကို တစ်နေရာရာမှာ သိမ်းထားဖို့ သေချာပါစေ။,确保你的标签名称 保存在某个地方。
1774,Here we get them from the dataset features.,ဒီမှာတော့ dataset feature တွေကနေ ယူထားတယ်။,"在这里,我们从数据集的特征中获取它们。"
1775,So you are able to map the integers to some real labels when inspecting your data.,ဒါမှ သင့်ဒေတာကို စစ်ဆေးတဲ့အခါ ကိန်းဂဏန်းတွေကို တကယ့် label တွေနဲ့ တွဲပြီး ကြည့်နိုင်မှာပေါ့။,"因此,在检查数据时,您可以将整数映射为一些真实的标签。"
1776,"Here we are doing named entity recognitions, so ours labels are either O for words that do not belong to any entity.",ဒီမှာတော့ Named Entity Recognition လုပ်နေတာမို့၊ ကျွန်တော်တို့ရဲ့ label တွေက O ဖြစ်ပါတယ်၊ ဒါက ဘယ် entity ထဲမှ မပါဝင်တဲ့ စကားလုံးတွေအတွက်ပါ။,"在这里,我们正在做命名实体的确认, 所以我们的标签要么是O, 指不属于任何实体的单词。"
1777,"LOC for location, PER for person, ORG for organization and MISC for miscellaneous.",LOC က တည်နေရာ၊ PER က လူပုဂ္ဂိုလ်၊ ORG က အဖွဲ့အစည်းနဲ့ MISC က အထွေထွေအတွက် ဖြစ်တယ်။,"关于地点的LOC, 个人PER, 组织的ORG, 杂项的MISC。"
1778,Each label has two versions.,label တစ်ခုစီမှာ ဗားရှင်းနှစ်မျိုး ရှိပါတယ်။,每个标签有两种版本。
1779,The B labels indicate a word that begins an entity while the I labels indicate a word that is inside an entity.,B label တွေက entity တစ်ခု စတင်တဲ့ စကားလုံးကို ညွှန်ပြပြီး I label တွေကတော့ entity တစ်ခုအတွင်းမှာ ရှိတဲ့ စကားလုံးကို ညွှန်ပြတယ်။,"B类标签表示一个开始于一个实体的单词,而I类标签则表示一个实体内的单词。"
1780,The first step to preprocess our data is to tokenize the words.,ကျွန်တော်တို့ရဲ့ ဒေတာကို စီမံဆောင်ရွက်ဖို့ ပထမအဆင့်က စကားလုံးတွေကို tokenization လုပ်ဖို့ပဲ။,预处理我们数据的第一步是象征这些单词。
1781,This is very easily done with the tokenizer.,ဒါကို tokenizer နဲ့ အရမ်းလွယ်လွယ်ကူကူ လုပ်နိုင်တယ်။,这很容易用代谢器完成。
1782,We just have to tell it we have pre-tokenized the data with the flag is_split_into_words=True.,ကျွန်တော်တို့ ဒေတာကို is_split_into_words=True ဆိုတဲ့ flag နဲ့ pre-tokenized လုပ်ထားကြောင်း ပြောလိုက်ရုံပါပဲ။,我们只是要告诉它 我们已经预先确认了数据 与国旗是_split_into_words=True。
1783,Then comes the hard part.,ဒီအခါမှာ ခက်တဲ့အပိုင်း ရောက်လာပြီ။,然后是困难的部分。
1784,"Since we have added special tokens and each word may have been split into several tokens, our labels won't match the tokens anymore.",ကျွန်တော်တို့ special token တွေ ထည့်ထားပြီး စကားလုံးတစ်လုံးစီကို token များစွာအဖြစ် ခွဲထားတာကြောင့် ကျွန်တော်တို့ရဲ့ label တွေက token တွေနဲ့ ကိုက်ညီတော့မှာ မဟုတ်ဘူး။,既然我们添加了特殊标志 每一个单词可能都分成了几个标志 我们的标签就不再符合标志了
1785,This is where the word IDs our fast tokenizer provides come to the rescue.,ဒီနေရာမှာ ကျွန်တော်တို့ရဲ့ fast tokenizer က ပေးတဲ့ word ID တွေက ကူညီဖို့ ရောက်လာတာပေါ့။,这里的字眼识别了我们的快信使 提供的快信使来救援。
1786,They match each token to the word it belongs to which allows us to map each token to its label.,သူတို့က token တစ်ခုစီကို သူနဲ့ သက်ဆိုင်တဲ့ စကားလုံးနဲ့ တွဲပေးတာကြောင့် token တစ်ခုစီကို သူ့ရဲ့ label နဲ့ တွဲနိုင်တယ်။,"它们将每个标记匹配到它所属的字眼, 使我们能够将每个标记映射到它的标签上。"
1787,We just have to make sure we change the B labels to their I counterparts for tokens that are inside but not at the beginning of a word.,စကားလုံးရဲ့ အစ မဟုတ်ဘဲ အတွင်းမှာရှိတဲ့ token တွေအတွက် B label တွေကို I label တွေအဖြစ် ပြောင်းဖို့ သေချာအောင် လုပ်ရပါမယ်။,我们只需要确保我们把B的标签 换成他们的I对等的标签 用来标本里面的标本 而不是一个字开头的标本
1788,"The special tokens get a label of -100, which is how we tell the Transformer loss functions to ignore them when computing the loss.",အထူး token တွေက -100 ဆိုတဲ့ label ကို ရရှိပြီး ဒါက Transformer loss function တွေကို loss တွက်ချက်တဲ့အခါ လျစ်လျူရှုဖို့ ပြောတဲ့ နည်းလမ်း ဖြစ်တယ်။,"特殊标牌的标签是 -100, 这就是我们如何告诉变压器损失功能 在计算损失时忽略它们。"
1789,The code is then pretty straightforward.,ပြီးရင် code က အတော်လေး ရိုးရှင်းသွားတယ်။,那么代码就很直截了当了
1790,We write a function that shifts the labels for tokens that are inside a word that you can customize and use it when generating the labels for each token.,စကားလုံးအတွင်းမှာရှိတဲ့ token တွေအတွက် label တွေကို ပြောင်းလဲပေးမယ့် function တစ်ခု ရေးပြီး token တစ်ခုစီအတွက် label တွေ ထုတ်ပေးတဲ့အခါ အဲဒါကို သုံးနိုင်တယ်။,"我们写一个函数, 将标签移到您可以自定义的单词中的标记, 并在生成每个标记的标签时使用它 。"
1791,"Once that function to create our labels is written, we can preprocess the whole dataset using the map function.",ကျွန်တော်တို့ရဲ့ label တွေ ဖန်တီးဖို့ function ကို ရေးပြီးတာနဲ့ map function ကို သုံးပြီး dataset တစ်ခုလုံးကို စီမံဆောင်ရွက်နိုင်တယ်။,"一旦写入创建标签的函数,我们就可以使用映射函数预处理整个数据集。"
1792,"With the option batched=True, we unleash the speed of out fast tokenizers.",batched=True ဆိုတဲ့ option နဲ့ဆိုရင် ကျွန်တော်တို့ရဲ့ fast tokenizer တွေရဲ့ အရှိန်အဟုန်ကို အပြည့်အဝ အသုံးပြုနိုင်တယ်။,"使用分批的选项=True, 我们释放出快速代谢器的速度 。"
1793,The last problem comes when we need to create a batch.,နောက်ဆုံးပြဿနာက batch တစ်ခု ဖန်တီးဖို့ လိုအပ်တဲ့အခါ ရောက်လာတယ်။,最后一个问题是当我们需要 建立一批。
1794,"Unless you changed the preprocessing function to apply some fixed padding, we will get sentences of various lengths, which we need to pad to the same length.",preprocessing function ကို ပြောင်းပြီး သတ်မှတ်ထားတဲ့ padding ကို မသုံးမချင်း အရှည်မတူညီတဲ့ ဝါကျတွေကို ရရှိမှာဖြစ်ပြီး ၎င်းတို့ကို အရှည်တူအောင် pad လုပ်ဖို့ လိုတယ်။,"除非您更改了预处理功能来应用一些固定的护垫, 否则我们将得到不同长度的句子, 我们需要把长度都加到相同的长度上。"
1795,"The padding needs to be applied to the inputs as well as the labels, since we should have one label per token.",token တစ်ခုစီအတွက် label တစ်ခု ရှိရမှာ ဖြစ်တဲ့အတွက် input တွေနဲ့ label တွေ နှစ်ခုလုံးမှာ padding ကို အသုံးချဖို့ လိုတယ်။,"投入和标签都需要用垫子,因为我们每个标记应该有一个标签。"
1796,"Again, -100 indicates the labels that should be ignored for the loss computation.",ထပ်ပြောရရင် -100 က loss တွက်ချက်မှုအတွက် လျစ်လျူရှုရမယ့် label တွေကို ညွှန်ပြတယ်။,"同样, - 100 表示在计算损失时应忽略的标签。"
1797,"This is all done for us by the DataCollatorForTokenClassification, which you can use in PyTorch or TensorFlow.",ဒီအရာအားလုံးကို DataCollatorForTokenClassification က ကျွန်တော်တို့အတွက် လုပ်ဆောင်ပေးပြီး ဒါကို PyTorch ဒါမှမဟုတ် TensorFlow မှာ သုံးနိုင်တယ်။,"这都是由数据采集器FortokonClassisation完成的, 你可以在 PyTorch 或 Tensor Flow 中使用。"
1798,"With all of this, you are either ready to send your data and this data collator to the Trainer, or use the to_tf_dataset method and the fit method of your model.",ဒီအချက်တွေအားလုံးနဲ့ဆိုရင် သင့်ဒေတာနဲ့ ဒီ data collator ကို Trainer ဆီ ပို့ဖို့ အဆင်သင့်ဖြစ်ပြီ၊ ဒါမှမဟုတ် to_tf_dataset နည်းလမ်းနဲ့ သင့်မော်ဒယ်ရဲ့ fit နည်းလမ်းကို သုံးနိုင်ပါတယ်။,"有了所有这一切,你要么准备将数据及此数据校对器发送到培训者,要么使用to_tf_dataset 方法和模型的合适方法。"
1799,Let's see how we can preprocess our data for masked language modeling.,Masked Language Modeling အတွက် ကျွန်တော်တို့ရဲ့ ဒေတာကို ဘယ်လို စီမံဆောင်ရွက်မလဲ ကြည့်ရအောင်။,让我们看看我们怎样才能预处理数据 用于蒙面语言模型
1800,"As a reminder, masked language modeling is when a model needs to fill the blanks in a sentence.",သတိရစေရန်အတွက် Masked Language Modeling ဆိုတာ မော်ဒယ်တစ်ခုက ဝါကျတစ်ခုထဲက ကွက်လပ်တွေကို ဖြည့်ဖို့ လိုအပ်တဲ့ အခြေအနေ ဖြစ်တယ်။,"作为提醒,当模型需要填充句子中的空白时,隐形语言建模就是当模型需要填充空白时。"
1801,"To do this, you just need texts, no labels, as this is a self-supervised problem.",ဒါကို လုပ်ဖို့အတွက် စာသားတွေပဲ လိုတယ်၊ label မလိုဘူး၊ ဘာလို့လဲဆိုတော့ ဒါက ကိုယ်တိုင်ကြီးကြပ်သော ပြဿနာ ဖြစ်တယ်။,"要做到这一点,你只需要文本,没有标签, 因为这是一个自我监督的问题。"
1802,"To apply this on your own data, just make sure you have all your texts gathered in one column of your dataset.",သင့်ကိုယ်ပိုင် ဒေတာပေါ်မှာ ဒါကို အသုံးချဖို့အတွက် သင့်စာသားအားလုံးကို dataset ရဲ့ column တစ်ခုထဲမှာ စုစည်းထားဖို့ သေချာပါစေ။,"要在您自己的数据中应用此功能, 请确保您将所有文本都收集在您的数据集的一列中 。"
1803,"Before we start randomly masking things, we will need to somehow make all those texts the same length to batch them together.",ကျပန်း masking မလုပ်ခင်မှာ အဲဒီစာသားအားလုံးကို အရှည်တူအောင် လုပ်ဖို့ လိုအပ်ပြီး ဒါမှ batch အဖြစ် စုစည်းနိုင်မှာပါ။,"在开始随机掩盖之前,我们需要设法使所有这些文本的长度都相同,才能把它们拼凑在一起。"
1804,The first way to make all the texts the same length is the one we used in text classification.,စာသားအားလုံးကို အရှည်တူအောင် လုပ်တဲ့ ပထမနည်းလမ်းကတော့ text classification မှာ သုံးခဲ့တဲ့နည်းပဲ။,使所有文本长度相同的第一种方式是我们在文本分类中使用的方法。
1805,Let's pad the short texts and truncate the long ones.,တိုတဲ့ စာသားတွေကို pad လုပ်ပြီး ရှည်တဲ့ စာသားတွေကို ဖြတ်တောက်လိုက်မယ်။,我们把短短的短信贴上 短长的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的文本的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的短的
1806,"As we have seen when we processed data for text classification, this is all done by our tokenizer with the right options for padding and truncation.",Text Classification အတွက် ဒေတာကို စီမံဆောင်ရွက်တုန်းက မြင်ခဲ့ရတဲ့အတိုင်းပဲ padding နဲ့ truncation အတွက် မှန်ကန်တဲ့ options တွေနဲ့ ဒါကို ကျွန်တော်တို့ရဲ့ tokenizer က အားလုံး လုပ်ပေးတယ်။,"正如我们在为文本分类处理数据时所看到的那样,这一切都是由我们的代号器做的,有正确的垫和脱节选择。"
1807,"This will however make us lose a lot of texts if the examples in our dataset are very long, compared to the context length we picked.",ဒါပေမယ့် ကျွန်တော်တို့ ရွေးချယ်ထားတဲ့ context အရှည်နဲ့ နှိုင်းယှဉ်ရင် dataset ထဲက ဥပမာတွေက အလွန်ရှည်နေမယ်ဆိုရင် စာသားတွေ အများကြီး ဆုံးရှုံးသွားနိုင်တယ်။,"然而,如果与我们所选的上下文长度相比,我们数据集中的例子非常长,这将使我们失去许多文本。"
1808,"Here, all the portion in gray is lost.",ဒီမှာ မီးခိုးရောင် အပိုင်းအားလုံး ဆုံးရှုံးသွားတယ်။,"在这里,灰色部分全部丢失了"
1809,"This is why a second way to generate samples of text with the same length is to chunk our text in pieces of context lengths, instead of discarding everything after the first chunk.",ဒါကြောင့် အရှည်တူတဲ့ စာသားနမူနာတွေကို ထုတ်လုပ်ဖို့ ဒုတိယနည်းလမ်းက ပထမအပိုင်းပြီးနောက် အရာအားလုံးကို စွန့်ပစ်မယ့်အစား စာသားကို context အရှည်အပိုင်းအစလေးတွေအဖြစ် ပိုင်းခြားလိုက်တာပဲ။,"这就是为什么产生相同长度文本样本的第二种方式就是将我们的文本按上下文长度的片段块块块,而不是在第一块之后丢弃所有内容。"
1810,"There will probably be a remainder of length smaller than the context size, which we can choose to keep and pad or ignore.",context အရွယ်အစားထက် သေးငယ်တဲ့ အရှည်တစ်ခု ကျန်နေမှာ ဖြစ်ပြီး အဲဒါကို ထားပြီး pad လုပ်မလား၊ လျစ်လျူရှုမလား ရွေးချယ်နိုင်တယ်။,"可能还有比上下文小的剩余长度,我们可以选择保留和搁置或忽略这些长度。"
1811,"Here is how we can apply this in practice, by just adding the return overflowing tokens option in our tokenizer call.",လက်တွေ့မှာ ဒါကို ဘယ်လို အသုံးချနိုင်လဲဆိုတာကတော့ ကျွန်တော်တို့ရဲ့ tokenizer ကို ခေါ်တဲ့အခါ return overflowing tokens option ကို ထည့်လိုက်ရုံပါပဲ။,"这就是我们如何在实际中应用这个方法, 只需在代币器呼叫中加上回转溢溢出的标牌选项。"
1812,Note how this gives us a bigger dataset!,ဒါက ကျွန်တော်တို့ကို ပိုကြီးတဲ့ dataset တစ်ခု ဘယ်လို ပေးလဲဆိုတာ သတိထားကြည့်ပါ။,注意这让我们有了更大的数据集!
1813,"This second way of chunking is ideal if all your texts are very long, but it won't work as nicely if you have a variety of lengths in the texts.",ဒီဒုတိယ chunking နည်းလမ်းက သင့်စာသားတွေအားလုံး အရမ်းရှည်နေရင် စံပြဖြစ်ပေမယ့် စာသားတွေရဲ့ အရှည်က မတူညီဘူးဆိုရင်တော့ ဒီလောက် ကောင်းကောင်း အလုပ်လုပ်မှာ မဟုတ်ဘူး။,"如果你们所有的文本都很长的话, 第二种填充方式是理想的, 但是如果你们文本的长度各异, 效果就不会那么好。"
1814,"In this case, the best option is to concatenate all your tokenized texts in one big stream, with a special tokens to indicate when you pass from one document to the other, and only then split the big stream into chunks.",ဒီလိုအခြေအနေမျိုးမှာ အကောင်းဆုံး ရွေးချယ်စရာကတော့ tokenized လုပ်ထားတဲ့ စာသားအားလုံးကို document တစ်ခုကနေ နောက်တစ်ခုကို ပြောင်းတဲ့အခါ ညွှန်ပြဖို့အတွက် special token တွေနဲ့ စာသားအကြီးကြီး တစ်ခုထဲ ပေါင်းထည့်လိုက်ပြီးမှ အဲဒီ stream အကြီးကြီးကို chunk တွေအဖြစ် ပိုင်းလိုက်တာပဲ ဖြစ်တယ်။,"在此情况下, 最好的选择是将您所有有象征意义的文本 汇集到一条大溪流中, 并配上特殊标记, 以显示您何时从一个文档传递到另一个文档, 然后将大溪流分割成块 。"
1815,"Here is how it can be done with code, with one loop to concatenate all the texts and another one to chunk it.",ဒီမှာ code နဲ့ ဘယ်လိုလုပ်နိုင်လဲဆိုတာ ပြထားတယ်၊ စာသားအားလုံးကို ပေါင်းဖို့ loop တစ်ခုနဲ့ chunk လုပ်ဖို့ နောက်တစ်ခုပေါ့။,"这是如何用代码来完成它, 一个循环将所有文本连接起来, 另一个循环来将它拼凑成块。"
1816,"Notice how it reduces the number of samples in our dataset here, there must have been quite a few short entries!",ဒီမှာ ကျွန်တော်တို့ရဲ့ dataset ထဲက နမူနာ အရေအတွက် ဘယ်လို လျော့သွားလဲဆိုတာ သတိထားပါ၊ တိုတောင်းတဲ့ entry တွေ အတော်များများ ပါနေမှာပဲ။,"注意它如何减少我们数据组中的样本数量, 一定有不少短片!"
1817,"Once this is done, the masking is the easy part.",ဒါပြီးရင် masking လုပ်တာက လွယ်တဲ့အပိုင်းပါ။,"一旦这样做,面具就容易了。"
1818,There is a data collator designed specifically for this in the Transformers library.,Transformers library မှာ ဒီအတွက် အထူးဒီဇိုင်းထုတ်ထားတဲ့ data collator တစ်ခု ရှိပါတယ်။,在变形器库中专门为此设计了一个数据计算器。
1819,"You can use it directly in the Trainer, or when converting your datasets to tensorflow datasets before doing Keras.fit, with the to_tf_dataset method.",ဒါကို Trainer ထဲမှာ တိုက်ရိုက် သုံးနိုင်တယ်၊ ဒါမှမဟုတ် to_tf_dataset နည်းလမ်းနဲ့ သင့် dataset တွေကို tensorflow dataset တွေအဖြစ် ပြောင်းပြီး Keras.fit မလုပ်ခင်မှာ သုံးနိုင်တယ်။,"您可以直接在导师中使用, 或在使用 $_ tf_ dataset 方法之前将您的数据集转换为 shorflow 数据集。 fit, 使用 to_ tf_ dataset 方法 。"
1820,"In this video, we take a look at the mysterious sounding metric called perplexity.",ဒီဗီဒီယိုမှာတော့ နားထောင်ရတာ နက်နဲနေတဲ့ perplexity လို့ခေါ်တဲ့ metric တစ်ခုကို ကြည့်ရအောင်။,"在这部影片中,我们观看了神秘的探测仪, 叫做“困惑”。"
1821,You might have encountered perplexity when reading about generative models.,Generative model တွေအကြောင်း ဖတ်တဲ့အခါ perplexity ကို သင်တွေ့ဖူးမှာပါ။,"在阅读有关传说模型时,你可能遇到了困惑。"
1822,"You can see two examples here, one from the original transformer paper, ""Attention is all you need"", and the other one from the more recent GPT-2 paper.","ဒီမှာ ဥပမာ နှစ်ခု မြင်နိုင်တယ်၊ တစ်ခုက မူရင်း transformer စာတမ်း Attention is all you need ကနေဖြစ်ပြီး နောက်တစ်ခုက ပိုမိုမကြာသေးမီက GPT-2 စာတမ်းကနေ ဖြစ်ပါတယ်။""","您可以在此看到两个例子, 一个来自原始变压器纸, “注意是你所需要的”, 另一个来自最近的 GPT-2 纸。"
1823,Perplexity is a common metric to measure the performance of language models.,Perplexity က ဘာသာစကား မော်ဒယ်တွေရဲ့ စွမ်းဆောင်ရည်ကို တိုင်းတာဖို့ အများဆုံး သုံးတဲ့ metric တစ်ခု ဖြစ်တယ်။,难解性是衡量语言模式绩效的通用衡量标准。
1824,"The smaller its value, the better the performance.",တန်ဖိုးနည်းလေလေ စွမ်းဆောင်ရည် ပိုကောင်းလေလေပါပဲ။,"价值越小,表现越好"
1825,But what does it actually mean and how can we calculate it?,ဒါပေမယ့် တကယ်တမ်း ဘာကို ဆိုလိုတာလဲ၊ ဘယ်လို တွက်ချက်ရမလဲ။,"但是,它实际上意味着什么,我们如何计算它呢?"
1826,A very common quantity in machine learning is the likelihood.,Machine learning မှာ အလွန်အဖြစ်များတဲ့ ပမာဏတစ်ခုက likelihood ဖြစ်တယ်။,"在机器学习中,非常常见的数量是可能性。"
1827,We can calculate the likelihood as the product of each token's probability.,likelihood ကို token တစ်ခုစီရဲ့ ဖြစ်နိုင်ခြေ မြှောက်လဒ်အဖြစ် တွက်ချက်နိုင်တယ်။,我们可以计算每个象征性概率的产物 的可能性。
1828,"What this means is that for each token, we use the language model to predict its probability based on the previous tokens.",ဆိုလိုတာက token တစ်ခုစီအတွက် အရင် token တွေကို အခြေခံပြီး သူ့ရဲ့ ဖြစ်နိုင်ခြေကို ခန့်မှန်းဖို့ language model ကို သုံးတယ်။,"这意味着,对于每个象征物,我们使用语言模型来预测其概率,以先前的象征物为基础。"
1829,"In the end, we multiply all probabilities to get the likelihood.",နောက်ဆုံးမှာ ဖြစ်နိုင်ခြေအားလုံးကို မြှောက်ပြီး likelihood ကို ရရှိတယ်။,"归根结底,我们乘以所有概率来获得可能性。"
1830,"With the likelihood, we can calculate another important quantity, the cross-entropy.",likelihood နဲ့ဆိုရင် နောက်ထပ် အရေးကြီးတဲ့ ပမာဏတစ်ခုဖြစ်တဲ့ cross-entropy ကို တွက်ချက်နိုင်ပါတယ်။,"有可能的话,我们可以计算出另一个重要数量, 跨物种。"
1831,You might have already heard about cross-entropy when looking at loss function.,loss function တွေကို ကြည့်တဲ့အခါ cross-entropy အကြောင်း သင်ကြားဖူးပြီးသား ဖြစ်နိုင်တယ်။,"在研究损失功能时,你可能已经听说过 交叉物种的问题。"
1832,It is often used as a loss function in classification.,ဒါကို classification မှာ loss function အဖြစ် မကြာခဏ အသုံးပြုတယ်။,"在分类中,它常常被用作一种损失功能。"
1833,"In language modeling, we predict the next token based on the previous token, which is also a classification task.",Language modeling မှာ အရင် token ကို အခြေခံပြီး နောက် token ကို ခန့်မှန်းတယ်၊ ဒါကလည်း classification လုပ်ငန်းတစ်ခုပါပဲ။,"在语言建模方面,我们根据上一个代号预测下一个代号,这也是一项分类任务。"
1834,"Therefore, if we want to calculate the cross-entropy of an example, we can simply pass it to the model with its inputs as labels.",ဒါကြောင့် ဥပမာတစ်ခုရဲ့ cross-entropy ကို တွက်ချက်ချင်တယ်ဆိုရင် သူ့ရဲ့ input တွေကို label အဖြစ် ထည့်ပြီး မော်ဒယ်ဆီကို ပို့လိုက်ရုံပါပဲ။,"因此,如果我们想计算一个例子的交叉孔径,我们可以简单地将其作为标签输入模型。"
1835,The loss then corresponds to the cross-entropy.,အဲဒီအခါ loss က cross-entropy နဲ့ ကိုက်ညီတယ်။,"因此,损失与交叉孔径相对应。"
1836,We are now only a single operation away from calculating the perplexity.,အခု perplexity ကို တွက်ချက်ဖို့ လုပ်ဆောင်ချက်တစ်ခုတည်းသာ လိုတော့တယ်။,"现在,我们只是一个行动,不能计算这种两难情况。"
1837,"By exponentiating the cross-entropy, we get the perplexity.",cross-entropy ကို exponentiation လုပ်ခြင်းအားဖြင့် perplexity ကို ရရှိတယ်။,"将跨热带植物放大,我们就会感到困惑。"
1838,So you see that the perplexity is closely related to the loss.,ဒါကြောင့် perplexity က loss နဲ့ နီးနီးစပ်စပ် ဆက်စပ်နေတာကို သင်မြင်နိုင်ပါတယ်။,"所以,你可以看到,困惑与损失密切相关。"
1839,Plugging in previous results shows that this is equivalent to exponentiating the negative average lock probability of each token.,အရင်ရလဒ်တွေကို ထည့်လိုက်တဲ့အခါ ဒါဟာ token တစ်ခုစီရဲ့ အနုတ်ပျမ်းမျှ log ဖြစ်နိုင်ခြေကို exponentiation လုပ်တာနဲ့ ညီမျှတယ်ဆိုတာ ပြသနေတယ်။,"在以往结果中插入显示,这相当于推算每个标记的平均负锁概率。"
1840,Keep in mind that the loss is only a weak proxy for a model's ability to generate quality text and the same is true for perplexity.,Loss ဟာ အရည်အသွေးမြင့် စာသား ထုတ်လုပ်နိုင်တဲ့ မော်ဒယ်ရဲ့ စွမ်းရည်အတွက် အားနည်းတဲ့ ကိုယ်စားလှယ်သာ ဖြစ်တယ်ဆိုတာကို မှတ်ထားပါ၊ perplexity အတွက်လည်း ဒီအတိုင်းပါပဲ။,"牢记损失只是模型生成高质量文本能力的一个薄弱的替代物,对困惑也是一样。"
1841,"For this reason, one usually also calculates more sophisticated metrics such as BLEU or ROUGE on generative tasks.",ဒီအကြောင်းကြောင့် generative လုပ်ငန်းတွေမှာ BLEU ဒါမှမဟုတ် ROUGE လို ပိုပြီး ခေတ်မီတဲ့ metric တွေကိုလည်း တွက်ချက်လေ့ရှိတယ်။,"为此原因,人们通常还计算出更先进的指标,如BLEU或ROUGE的基因任务。"
1842,What is domain adaptation?,Domain Adaptation ဆိုတာ ဘာလဲ။,什么是适应领域?
1843,"When fine-tuning a pre-trained model on a new dataset, the fine-tuned model we obtain will make predictions that are attuned to this new dataset.",ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်တစ်ခုကို dataset အသစ်ပေါ်မှာ fine-tuning လုပ်တဲ့အခါ ကျွန်တော်တို့ ရရှိတဲ့ fine-tuned မော်ဒယ်က ဒီ dataset အသစ်နဲ့ လိုက်လျောညီထွေဖြစ်တဲ့ ခန့်မှန်းချက်တွေ ပေးပါလိမ့်မယ်။,"当微调关于新数据集的预先训练模型时,我们获得的微调模型将作出与这一新数据集相适应的预测。"
1844,"When the two models are trained with the same task, we can then compare their predictions on the same input.",မော်ဒယ်နှစ်ခုကို လုပ်ငန်းတစ်ခုတည်းနဲ့ လေ့ကျင့်တဲ့အခါ ထည့်သွင်းချက်တစ်ခုတည်းပေါ်မှာ သူတို့ရဲ့ ခန့်မှန်းချက်တွေကို နှိုင်းယှဉ်နိုင်တယ်။,"当两个模型接受同一任务的培训时,我们可以比较它们在同一投入上的预测。"
1845,"The predictions of the two models will be different in a way that reflects the differences between the two datasets, a phenomenon we call domain adaptation.",မော်ဒယ်နှစ်ခုရဲ့ ခန့်မှန်းချက်တွေက dataset နှစ်ခုကြားက ကွာခြားချက်တွေကို ထင်ဟပ်စေမယ့် ပုံစံမျိုးနဲ့ ကွဲပြားပါလိမ့်မယ်၊ ဒီဖြစ်စဉ်ကို domain adaptation လို့ ကျွန်တော်တို့ ခေါ်တယ်။,"对这两个模型的预测将有所不同,反映两个数据集之间的差异,我们称之为域适应现象。"
1846,"Let's look at an example with masked language modeling by comparing the outputs of the pre-trained DistilBERT model with the version fine-tuned in chapter 7 of the course, linked below.",masked language modeling နဲ့ ဥပမာတစ်ခု ကြည့်ရအောင်၊ ကြိုတင်လေ့ကျင့်ထားတဲ့ DistilBERT မော်ဒယ်ရဲ့ အထွက်တွေကို သင်တန်းရဲ့ အခန်း ၇ မှာ fine-tune လုပ်ထားတဲ့ ဗားရှင်းနဲ့ နှိုင်းယှဉ်ကြည့်ပါ၊ လင့်ခ်က အောက်မှာ ပေးထားပါတယ်။,"让我们以蒙面语言为模范, 比较训练前的DistilBERT模式的输出结果,"
1847,"The pre-trained model makes generic predictions, whereas the fine-tuned model has its first two predictions linked to cinema.",ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်က ယေဘုယျ ခန့်မှန်းချက်တွေ ပေးပေမယ့် fine-tuned မော်ဒယ်ကတော့ သူ့ရဲ့ ပထမဆုံး ခန့်မှန်းချက်နှစ်ခုကို ရုပ်ရှင်ရုံနဲ့ ချိတ်ဆက်ထားတယ်။,"预先培训的模型进行一般预测,而经过微调的模型头两个预测与电影有关。"
1848,"Since it was fine-tuned on a movie reviews dataset, it's perfectly normal to see it adapted its suggestions like this.",သူ့ကို ရုပ်ရှင်ပြန်လည်သုံးသပ်ချက် dataset ပေါ်မှာ fine-tune လုပ်ထားတာကြောင့် ဒီလို အကြံပြုချက်တွေကို လိုက်လျောညီထွေဖြစ်အောင် လုပ်တာ မြင်ရတာ သဘာဝပါပဲ။,"因为它在电影评论数据集上做了细微的调整, 所以看到它这样修改建议是完全正常的。"
1849,Notice how it keeps the same prediction as the pre-trained model afterward.,နောက်ပိုင်းမှာ ကြိုတင်လေ့ကျင့်ထားတဲ့ မော်ဒယ်နဲ့ တူညီတဲ့ ခန့်မှန်းချက်ကို ဘယ်လို ဆက်ထိန်းထားလဲဆိုတာ သတိထားပါ။,注意它如何保持同样的预测 与训练前模型。
1850,"Even if the fine-tuned model adapts to the new dataset, it's not forgetting what it was pre-trained on.",fine-tuned မော်ဒယ်က dataset အသစ်နဲ့ လိုက်လျောညီထွေဖြစ်အောင် လုပ်ပေမယ့် သူဘာကို ကြိုတင်လေ့ကျင့်ထားလဲဆိုတာ မမေ့ပါဘူး။,"即使微调模型适应新的数据集, 它也不会忘记它是什么 预先训练。"
1851,This is another example on a translation task.,ဒါက ဘာသာပြန်ခြင်း လုပ်ငန်းတစ်ခုပေါ်က နောက်ထပ် ဥပမာတစ်ခု ဖြစ်တယ်။,这是翻译任务的另一个例子 。
1852,"On top, we use a pre-trained French/English model, and at the bottom, the version we fine-tuned in chapter 7.",အပေါ်မှာ ကြိုတင်လေ့ကျင့်ထားတဲ့ ပြင်သစ်/အင်္ဂလိပ် မော်ဒယ်ကို သုံးပြီး အောက်မှာ အခန်း ၇ မှာ fine-tune လုပ်ထားတဲ့ ဗားရှင်းကို သုံးတယ်။,"在上面,我们使用预先训练的法语/英语模式, 在最下面,我们在第7章对版本进行了微调。"
1853,"The top model is pre-trained on lots of texts, and leaves technical English terms, like plugin and email, unchanged in the translation.",အပေါ်က မော်ဒယ်ကို စာသားအများကြီးပေါ်မှာ ကြိုတင်လေ့ကျင့်ထားပြီး plugin နဲ့ email လိုမျိုး နည်းပညာဆိုင်ရာ အင်္ဂလိပ် ဝေါဟာရတွေကို ဘာသာပြန်ရာမှာ မပြောင်းလဲဘဲ ထားခဲ့တယ်။,"顶级模型对许多文本进行了预先培训,在翻译中留下技术英语术语,如插件和电子邮件,未作改动。"
1854,Both are perfectly understood by French people.,ဒီစကားလုံးနှစ်ခုလုံးကို ပြင်သစ်လူမျိုးတွေက ကောင်းကောင်း နားလည်ကြတယ်။,两者都是法国人完全理解的。
1855,The dataset picked for the fine-tuning is a dataset of technical texts where special attention was picked on translating everything in French.,fine-tuning အတွက် ရွေးချယ်ထားတဲ့ dataset က နည်းပညာစာသားတွေရဲ့ dataset ဖြစ်ပြီး အားလုံးကို ပြင်သစ်လို ဘာသာပြန်ရာမှာ အထူးအာရုံစိုက်ထားပါတယ်။,"为微调所选的数据集是一套技术文本的数据集,其中特别注意用法文翻译所有内容。"
1856,"As a result, the fine-tuned model picked that habit and translated both plugin and email.",ရလဒ်အနေနဲ့ fine-tuned မော်ဒယ်က အဲဒီအလေ့အကျင့်ကို ယူလိုက်ပြီး plugin နဲ့ email နှစ်ခုလုံးကို ဘာသာပြန်လိုက်တယ်။,"因此,经过微调的模型选择了这种习惯,翻译了插件和电子邮件。"
1857,Let's see how to preprocess a dataset for translation.,ဘာသာပြန်ခြင်းအတွက် dataset တစ်ခုကို ဘယ်လို စီမံဆောင်ရွက်မလဲ ကြည့်ရအောင်။,让我们看看如何预处理用于翻译的数据集。
1858,This is a task of well translating a sentence in another language.,ဒါက ဝါကျတစ်ခုကို တခြားဘာသာစကားတစ်ခုနဲ့ ကောင်းကောင်း ဘာသာပြန်တဲ့ လုပ်ငန်း ဖြစ်တယ်။,这是一项用另一种语言很好地翻译一句话的任务。
1859,This video will focus on how to preprocess your dataset once you've managed to put it in the following format.,ဒီဗီဒီယိုက သင့် dataset ကို ဒီပုံစံအတိုင်း ထားနိုင်ပြီဆိုရင် ဘယ်လို စီမံဆောင်ရွက်မလဲဆိုတာကို အာရုံစိုက်မှာပါ။,"此视频将聚焦于一旦您成功将数据集以以下格式放入, 如何预处理您的数据集 。"
1860,One column for input texts and one for the target texts.,Input စာသားတွေအတွက် column တစ်ခုနဲ့ target စာသားတွေအတွက် တစ်ခုပေါ့။,"输入文本一栏,目标文本一栏。"
1861,Here is how we can achieve this with the Datasets library and the KDE4 dataset for English to French translation.,အင်္ဂလိပ်ကနေ ပြင်သစ် ဘာသာပြန်ခြင်းအတွက် KDE4 dataset နဲ့ Datasets library ကို သုံးပြီး ဒါကို ဘယ်လို အောင်မြင်အောင် လုပ်နိုင်လဲဆိုတာ ဒီမှာ ပြထားတယ်။,这就是我们如何通过数据集库和 KDE4 将英文译为法文的数据集实现这一点。
1862,"As long as you manage to have your data look like this, you should be able to follow the same steps.",သင့်ဒေတာကို ဒီပုံစံအတိုင်း ဖြစ်အောင် လုပ်နိုင်သရွေ့ ဒီအဆင့်တွေကို လိုက်နာနိုင်ပါလိမ့်မယ်။,只要你能把数据弄成这个样子 你就可以遵循同样的步骤
1863,"For once, our labels are not integers corresponding to some classes, but plain texts.",ဒီတစ်ခါတော့ ကျွန်တော်တို့ရဲ့ label တွေက class အချို့နဲ့ ကိုက်ညီတဲ့ ကိန်းဂဏန်းတွေ မဟုတ်ဘဲ ရိုးရိုးစာသားတွေ ဖြစ်တယ်။,"这一次,我们的标签不是与某些类别相对应的整数,而是简单的文本。"
1864,"We will thus need to tokenize them, like our inputs.",ဒါကြောင့် ကျွန်တော်တို့ရဲ့ input တွေလိုပဲ သူတို့ကို tokenization လုပ်ဖို့ လိုအပ်ပါလိမ့်မယ်။,"因此,我们需要像我们的投入一样,象征性地表示它们。"
1865,"There is a trap there though, as if you tokenize your targets like your inputs, you will hit a problem.",ဒီမှာ ထောင်ချောက်လေးတစ်ခု ရှိတယ်၊ ဘာလို့လဲဆိုတော့ သင်ဟာ သင့် target တွေကို input တွေလို tokenization လုပ်ရင် ပြဿနာတက်လိမ့်မယ်။,"不过那里有个陷阱,好像你用输入的方式象征目标一样, 你会遇到问题。"
1866,"Even if you don't speak French, you might notice some weird things in the tokenization of the targets.",သင် ပြင်သစ်စကား မပြောတတ်ရင်တောင် target တွေရဲ့ tokenization မှာ ထူးဆန်းတာတွေ ရှိနေတာ သတိထားမိမှာပါ။,"即使你不会说法语, 你也会注意到一些奇怪的事情 在目标的象征化。"
1867,"Most of the words are tokenized in several subtokens, while fish, one of the only English word, is tokenized as a single word.",စကားလုံးအများစုကို subtokens များစွာအဖြစ် tokenization လုပ်ထားပေမယ့် အင်္ဂလိပ်စကားလုံး တစ်လုံးတည်းဖြစ်တဲ့ fish ကိုတော့ စကားလုံးတစ်လုံးတည်းအဖြစ် tokenization လုပ်ထားတယ်။,"多数字用几个小字表示,而鱼是唯一的英语词之一,只用一个词表示。"
1868,That's because our inputs have been tokenized as English.,ဒါက ကျွန်တော်တို့ရဲ့ input တွေကို အင်္ဂလိပ်လို tokenization လုပ်ထားလို့ ဖြစ်တယ်။,那是因为我们的投入被象征为英语。
1869,"Since our model knows two languages, you have to warn it when tokenizing the targets so it switches in French mode.",ကျွန်တော်တို့ရဲ့ မော်ဒယ်က ဘာသာစကား နှစ်ခု သိတဲ့အတွက် target တွေကို tokenization လုပ်တဲ့အခါ ပြင်သစ် mode ကို ပြောင်းဖို့အတွက် သူ့ကို သတိပေးရပါမယ်။,"由于我们的模型懂两种语言, 当标记目标时, 您必须警告它, 所以它以法语模式开关 。"
1870,This is done with the as_target_tokenizer context manager.,ဒါကို as_target_tokenizer context manager နဲ့ လုပ်ဆောင်တယ်။,这是与 as_ target_ togenizer 上下文管理器完成的 。
1871,You can see how it results in a more compact tokenization.,ဒါက ဘယ်လို ပိုပြီး ကျစ်လစ်တဲ့ tokenization ဖြစ်လာလဲဆိုတာ သင်မြင်နိုင်ပါတယ်။,你可以看到它如何导致更紧凑的象征性化。
1872,Processing the whole dataset is then super easy with the map function.,map function နဲ့ဆိုရင် dataset တစ်ခုလုံးကို စီမံဆောင်ရွက်တာ အလွန်လွယ်ကူတယ်။,"处理整个数据集后,与地图功能相比,超容易处理。"
1873,"You can pick different maximum lengths for the inputs and targets, and choose to pad at this stage to that maximum length by setting padding=max_length.",input တွေနဲ့ target တွေအတွက် မတူညီတဲ့ အများဆုံး အရှည်တွေကို ရွေးချယ်နိုင်ပြီး padding=max_length လို့ သတ်မှတ်ခြင်းအားဖြင့် ဒီအဆင့်မှာ အဲဒီအများဆုံး အရှည်အထိ pad လုပ်ဖို့ ရွေးချယ်နိုင်တယ်။,"您可以为输入和目标选择不同的最大长度, 并选择在目前阶段通过设置 addding = max_ lax manth, 将输入和目标的最大长度划到最大长度 。"
1874,Here we'll show you to pad dynamically as it requires one more step.,ဒီမှာတော့ dynamic pad လုပ်တာကို ပြပါမယ်၊ ဘာလို့လဲဆိုတော့ နောက်ထပ် အဆင့်တစ်ခု လိုအပ်လို့ပဲ။,"在这里,我们将告诉你 动态的踏板,因为它需要 再一步。"
1875,Your inputs and targets are all sentences of various lengths.,သင့်ရဲ့ input တွေနဲ့ target တွေက အရှည်မတူညီတဲ့ ဝါကျတွေ အားလုံးပါပဲ။,你的投入和目标都是各式各样的句子
1876,"We will pad the inputs and targets separately, as the maximum lengths of the inputs and targets might be different.",input တွေနဲ့ target တွေရဲ့ အများဆုံး အရှည်တွေက မတူညီနိုင်တဲ့အတွက် သူတို့ကို သီးခြားစီ pad လုပ်ပါမယ်။,"我们将分别安排投入和目标,因为投入和目标的最大长度可能不同。"
1877,Then we pad the inputs with the pad token and the targets with the -100 index to make sure they're not taken into account in the loss computation.,ပြီးရင် pad token နဲ့ input တွေကို pad လုပ်ပြီး target တွေကိုတော့ -100 index နဲ့ pad လုပ်ပါတယ်၊ ဒါမှ loss တွက်ချက်မှုမှာ ထည့်မစဉ်းစားမိဖို့ သေချာစေတယ်။,"然后我们用标牌和标的标的贴上输入物 用 -100 指数,以确保在计算损失时不计及它们。"
1878,"Once this is done, batching inputs and targets become super easy.",ဒါပြီးတာနဲ့ input တွေနဲ့ target တွေကို batch လုပ်တာ အလွန်လွယ်ကူသွားပြီ။,"一旦完成这项工作,分批投入和目标就变得非常容易。"
1879,The Transformers library provides us with data collator to do this all automatically.,Transformers library က ဒါတွေအားလုံးကို အလိုအလျောက် လုပ်ပေးနိုင်တဲ့ data collator ကို ပေးထားတယ်။,变换器库为我们提供了数据拼贴器 来自动完成这一切 。
1880,You can then pass it to the Trainer with your datasets or use it in the to_tf_dataset method before using model.fit() on your Keras model.,ပြီးရင် သင့် dataset တွေနဲ့ Trainer ကို ပို့နိုင်တယ် ဒါမှမဟုတ် သင့် Keras မော်ဒယ်ပေါ်မှာ model.fit() ကို မသုံးခင် to_tf_dataset နည်းလမ်းမှာ အသုံးပြုနိုင်တယ်။,"然后,您可以用您的数据集将数据传送给培训人员,或者在使用 Keras 模型的模型.fit () 之前使用 to_tf_dataset 方法。"
1881,What is the BLEU metric?,BLEU metric ဆိုတာ ဘာလဲ။,什么是BLEU衡量标准?
1882,"For many NLP tasks we can use common metrics like accuracy or F1 score, but what do you do when you wanna measure the quality of text that's been translated from a model?",NLP လုပ်ငန်းများစွာအတွက် accuracy ဒါမှမဟုတ် F1 score လိုမျိုး ပုံမှန် metric တွေကို သုံးနိုင်တယ်၊ ဒါပေမယ့် မော်ဒယ်တစ်ခုက ဘာသာပြန်ထားတဲ့ စာသားရဲ့ အရည်အသွေးကို တိုင်းတာချင်တဲ့အခါ ဘာလုပ်ရမလဲ။,"对于许多NLP任务,我们可以使用通用指标,如精确度或F1分, 但如果你想测量从模型翻译的文本的质量, 你会怎么做?"
1883,"In this video, we'll take a look at a widely used metric for machine translation called BLEU.",ဒီဗီဒီယိုမှာတော့ machine translation အတွက် တွင်တွင်ကျယ်ကျယ် အသုံးပြုတဲ့ BLEU လို့ခေါ်တဲ့ metric တစ်ခုကို ကြည့်ရအောင်။,"在这部影片中,我们将研究 一种广泛使用的机器翻译量度 叫做BLEU。"
1884,The basic idea behind BLEU is to assign a single numerical score to a translation that tells us how good it is compared to one or more reference translations.,BLEU ရဲ့ အခြေခံအယူအဆကတော့ ဘာသာပြန်တစ်ခုကို ဂဏန်းတစ်ခုတည်း သတ်မှတ်ပေးပြီး အဲဒါက ဘာသာပြန်တာ ဘယ်လောက်ကောင်းလဲဆိုတာကို ရည်ညွှန်း ဘာသာပြန်တစ်ခု ဒါမှမဟုတ် တစ်ခုထက်ပိုတာတွေနဲ့ နှိုင်းယှဉ်ပြီး ပြောပြတာပဲ ဖြစ်တယ်။,"BLEU背后的基本思想是给翻译工作分配一个单一的数字分数,告诉我们与一个或多个参考翻译相比,翻译工作有多好。"
1885,"In this example, we have a sentence in Spanish that has been translated into English by some model.",ဒီဥပမာမှာ စပိန်လို ဝါကျတစ်ခုကို မော်ဒယ်တစ်ခုက အင်္ဂလိပ်လို ဘာသာပြန်ထားတာ ရှိတယ်။,"在这个例子中,我们有一个西班牙文句子,已经用某种模式翻译成英文。"
1886,"If we compare the generated translation to some reference human translations, we can see that the model is actually pretty good, but has made a common error.",ထုတ်လုပ်ထားတဲ့ ဘာသာပြန်ကို လူသားတွေ ဘာသာပြန်ထားတဲ့ reference တွေနဲ့ နှိုင်းယှဉ်ကြည့်ရင် မော်ဒယ်က တကယ်တော့ အတော်လေး ကောင်းပါတယ်၊ ဒါပေမယ့် အဖြစ်များတဲ့ အမှားတစ်ခု လုပ်ထားတယ်။,"如果我们将生成的翻译与一些参考人文翻译作比较, 我们可以看到模型其实是不错的, 但犯了一个常见的错误。"
1887,"The Spanish word tengo means have in English, and this one-to-one translation is not quite natural.",စပိန်စကားလုံး tengo က အင်္ဂလိပ်လို have လို့ အဓိပ္ပာယ်ရပြီး ဒီတစ်လုံးချင်း ဘာသာပြန်တာက သဘာဝမကျဘူး။,"西班牙语“天鹅”一词的意思是英语,而这种一对一的翻译并不自然。"
1888,So how can we measure the quality of a generated translation in some automatic way?,ဒါဆို ထုတ်လုပ်ထားတဲ့ ဘာသာပြန်ရဲ့ အရည်အသွေးကို အလိုအလျောက် နည်းလမ်းနဲ့ ဘယ်လို တိုင်းတာနိုင်မလဲ။,"因此,我们如何以某种自动方式衡量所产生翻译的质量?"
1889,The approach that BLEU takes is to compare the n-grams of the generated translation to the n-grams in the references.,BLEU ရဲ့ ချဉ်းကပ်ပုံကတော့ ထုတ်လုပ်ထားတဲ့ ဘာသာပြန်ရဲ့ n-gram တွေကို reference တွေထဲက n-gram တွေနဲ့ နှိုင်းယှဉ်ဖို့ပဲ ဖြစ်တယ်။,BLEU采取的做法是将所生成翻译的n克与参考文献中的n克作比较。
1890,"Now, an n-gram is just a fancy way of saying a chunk of n words.",N-gram ဆိုတာကတော့ N စကားလုံးအတန်းတစ်ခုလို့ ပြောတဲ့ ဆန်းဆန်းပြားပြား နည်းလမ်းတစ်ခုပါပဲ။,"现在,恩克只是说一小块恩字的好方法。"
1891,"So let's start with unigrams, which corresponds to the individual words in a sentence.",ဒါကြောင့် ဝါကျတစ်ခုထဲက စကားလုံးတစ်လုံးချင်းစီနဲ့ ကိုက်ညီတဲ့ unigram တွေနဲ့ စလိုက်ရအောင်။,"所以,让我们从单词开始, 与句子中的单词相对应。"
1892,"In this example, you can see that four of the words in the generated translation are also found in one of the reference translations.",ဒီဥပမာမှာ ထုတ်လုပ်ထားတဲ့ ဘာသာပြန်ထဲက စကားလုံးလေးလုံးဟာ reference ဘာသာပြန်တွေထဲက တစ်ခုမှာလည်း တွေ့ရတာကို သင်မြင်နိုင်ပါတယ်။,"在此示例中,您可以看到,生成的翻译中的4个字也出现在其中的一个参考翻译中。"
1893,"And once we've found our matches, one way to assign a score to the translation is to compute the precision of the unigrams.",ကျွန်တော်တို့ရဲ့ ကိုက်ညီမှုတွေကို တွေ့ပြီးတာနဲ့ ဘာသာပြန်တစ်ခုကို score သတ်မှတ်ဖို့ နည်းလမ်းတစ်ခုကတော့ unigram တွေရဲ့ precision ကို တွက်ချက်ဖို့ပဲ ဖြစ်တယ်။,"一旦我们找到匹配, 给翻译分配一个分数的方法 就是计算单字的精确度。"
1894,This means we just count the number of matching words in the generated and reference translations and normalize the count by dividing by the number of words in the generation.,ဆိုလိုတာက ထုတ်လုပ်ထားတဲ့နဲ့ reference ဘာသာပြန်တွေထဲက ကိုက်ညီတဲ့ စကားလုံးအရေအတွက်ကို ရေတွက်ပြီး အဲဒီအရေအတွက်ကို ထုတ်လုပ်မှုထဲက စကားလုံးအရေအတွက်နဲ့ စားခြင်းဖြင့် ပုံမှန်ဖြစ်အောင် လုပ်တာ ဖြစ်တယ်။,"这意味着我们只要计算生成的和引用翻译中的匹配字数,然后通过除以一代中的字数来实现计算正常化。"
1895,"In this example, we found four matching words and our generation has five words.",ဒီဥပမာမှာ ကျွန်တော်တို့ ကိုက်ညီတဲ့ စကားလုံးလေးလုံး တွေ့ခဲ့ပြီး ကျွန်တော်တို့ရဲ့ ထုတ်လုပ်မှုမှာ စကားလုံးငါးလုံး ရှိတယ်။,"在这个例子中,我们找到了四个匹配的词,我们这一代有五个词。"
1896,"Now, in general, precision ranges from zero to one, and higher precision scores mean a better translation.",ယေဘုယျအားဖြင့် precision က သုညကနေ တစ်အထိ ရှိပြီး precision score ပိုမြင့်လေလေ ပိုကောင်းတဲ့ ဘာသာပြန်ခြင်းကို ဆိုလိုတယ်။,"现在,一般而言,精确度从0到1不等,更高的精确分数意味着更好的翻译。"
1897,But this isn't really the whole story because one problem with unigram precision is that translation models sometimes get stuck in repetitive patterns and just repeat the same word several times.,ဒါပေမယ့် ဒါက ဇာတ်လမ်းအပြည့်အစုံ မဟုတ်သေးဘူး၊ ဘာလို့လဲဆိုတော့ unigram precision နဲ့ ပတ်သက်တဲ့ ပြဿနာတစ်ခုက ဘာသာပြန်မော်ဒယ်တွေဟာ တစ်ခါတလေ ထပ်ခါတလဲလဲ ပုံစံတွေမှာ ပိတ်မိပြီး စကားလုံးတစ်လုံးတည်းကို အကြိမ်များစွာ ထပ်ခါတလဲလဲ ပြောနေလို့ပဲ။,"翻译模型有时会陷入重复模式, 重复同一个字数次。"
1898,"If we just count the number of word matches, we can get really high precision scores even though the translation is terrible from a human perspective!",ကျွန်တော်တို့ စကားလုံး ကိုက်ညီမှုအရေအတွက်ကို ရေတွက်ရုံနဲ့ လူသားရှုထောင့်ကနေ ဘာသာပြန်တာ ဆိုးရွားနေရင်တောင် precision score အမြင့်ကြီး ရနိုင်တယ်။,"如果我们只计算匹配的字数, 我们就可以得到非常高的精确分数, 即使翻译从人类的角度来看是可怕的!"
1899,"For example, if our model just generates the word six, we get a perfect unigram precision score.","ဥပမာအားဖြင့် ကျွန်တော်တို့ရဲ့ မော်ဒယ်က ""six"" ဆိုတဲ့ စကားလုံးကိုပဲ ထုတ်ပေးရင် ပြီးပြည့်စုံတဲ့ unigram precision score ကို ရရှိတယ်။","例如,如果我们的模型刚刚生成了6个字, 我们得到一个完美的单字精确分数。"
1900,"So to handle this, BLEU uses a modified precision that clips the number of times to count a word, based on the maximum number of times it appears in the reference translation.",ဒါကြောင့် ဒီလိုမျိုးကို ကိုင်တွယ်ဖို့အတွက် BLEU က ပြုပြင်ထားတဲ့ precision တစ်ခုကို သုံးပါတယ်၊ ဒါက စကားလုံးတစ်ခုကို ရေတွက်ရမယ့် အကြိမ်အရေအတွက်ကို reference ဘာသာပြန်မှာ အများဆုံး ပေါ်လာတဲ့ အကြိမ်အရေအတွက်ပေါ် အခြေခံပြီး ကန့်သတ်လိုက်တယ်။,"因此要处理此操作, BLEU 使用一个修改过的精度, 根据引用翻译中出现的最大次数, 剪切一个单词的计算次数 。"
1901,"In this example, the word six only appears once in the reference, so we clip the numerator to one and the modified unigram precision now gives a much lower score as expected.","ဒီဥပမာမှာ ""six"" စကားလုံးက reference မှာ တစ်ကြိမ်ပဲ ပေါ်လာတဲ့အတွက် numerator ကို တစ်အထိ ကန့်သတ်လိုက်ပြီး ပြုပြင်ထားတဲ့ unigram precision က မျှော်လင့်ထားတဲ့အတိုင်း အများကြီး နိမ့်တဲ့ score ကို ပေးတယ်။","在这个例子中,6字只出现在引用中一次,所以我们把分子剪切成一个,修改后的单字精度现在比预期的得分要低得多。"
1902,Another problem with unigram precision is that it doesn't take into account the order in which the words appear in the translations.,unigram precision နဲ့ ပတ်သက်တဲ့ နောက်ထပ် ပြဿနာတစ်ခုကတော့ ဘာသာပြန်တွေထဲမှာ စကားလုံးတွေ ပေါ်လာတဲ့ အစီအစဉ်ကို ထည့်မတွက်ဘူးဆိုတာပါပဲ။,单词精确度的另一个问题是 它没有考虑到翻译中单词出现的顺序。
1903,"For example, suppose we had Yoda translate our Spanish sentence, then we might get something backwards like, ""Years sixty thirty have I.""","ဥပမာအားဖြင့် ကျွန်တော်တို့ရဲ့ စပိန်ဝါကျကို Yoda က ဘာသာပြန်ခိုင်းမယ်ဆိုရင် ""Years sixty thirty have I"" လိုမျိုး နောက်ပြန်ဖြစ်နေတာမျိုး ရနိုင်တယ်။","比如说,假设我们让尤达翻译了西班牙语的句子, 那么我们可能会得到一些倒退的东西, 比如,“我六十三十岁了。”"
1904,"In this case, the modified unigram precision gives a high precision which is not really what we want.",ဒီကိစ္စမှာ ပြုပြင်ထားတဲ့ unigram precision က မြင့်မားတဲ့ precision ကို ပေးပေမယ့် ဒါက ကျွန်တော်တို့ တကယ်လိုချင်တာ မဟုတ်ဘူး။,"在这种情况下,经过修改的单词精确度给出了一个非常精确的精确度,这并非我们真正想要的。"
1905,"So to deal with word ordering problems, BLEU actually computes the precision for several different n-grams and then averages the result.",ဒါကြောင့် စကားလုံး အစီအစဉ်ပြဿနာတွေကို ဖြေရှင်းဖို့အတွက် BLEU က မတူညီတဲ့ n-gram တွေစွာအတွက် precision ကို တွက်ချက်ပြီး ရလဒ်ကို ပျမ်းမျှယူတယ်။,"为了处理单词订购问题, BLEU 实际计算了数种不同的 n 克的精确度, 然后平均结果 。"
1906,"For example, if we compare 4-grams, we can see that there are no matching chunks of four words in the translations, and so the 4-gram precision is 0.",ဥပမာအားဖြင့် 4-gram တွေကို နှိုင်းယှဉ်မယ်ဆိုရင် ဘာသာပြန်တွေထဲမှာ စကားလုံးလေးလုံး ကိုက်ညီတဲ့ အပိုင်းအစ မရှိဘူးဆိုတာ တွေ့နိုင်ပြီး ဒါကြောင့် 4-gram precision က သုည ဖြစ်တယ်။,"例如,如果我们比较4克, 我们可以看到在翻译中没有4个字的匹配块, 因此4克精确度是0。"
1907,"Now, to compute BLEU scores in Datasets library is really very simple.",Datasets library မှာ BLEU score တွေ တွက်ချက်ဖို့က အရမ်းရိုးရှင်းပါတယ်။,"现在,计算数据集库中的 BLEU 分数非常简单。"
1908,"You just use the load_metric function, provide your model's predictions with their references and you're good to go!",load_metric function ကို သုံးပြီး သင့်မော်ဒယ်ရဲ့ ခန့်မှန်းချက်တွေကို သူတို့ရဲ့ reference တွေနဲ့ ပေးလိုက်ရုံပါပဲ၊ ပြီးရင် အဆင်သင့် ဖြစ်ပြီ။,"你只要使用负载量函数, 提供模型的预测 及其参考, 你就可以去!"
1909,The output will contain several fields of interest.,အထွက်မှာ စိတ်ဝင်စားစရာ ကဏ္ဍများစွာ ပါဝင်ပါလိမ့်မယ်။,产出将包含几个感兴趣的领域。
1910,The precisions field contains all the individual precision scores for each n-gram.,precisions ကဏ္ဍမှာ n-gram တစ်ခုစီအတွက် တစ်ဦးချင်း precision score တွေ အားလုံး ပါဝင်တယ်။,精确字段包含每个 n 克的所有单个精确分数。
1911,The BLEU score itself is then calculated by taking the geometric mean of the precision scores.,BLEU score ကိုယ်တိုင်ကတော့ precision score တွေရဲ့ geometric mean ကို ယူပြီး တွက်ချက်တာ ဖြစ်တယ်။,然后用精确分数的几何平均值来计算BLEU分数本身。
1912,"And by default, the mean of all four n-gram precisions is reported, a metric that is sometimes also called BLEU-4.",ပုံမှန်အားဖြင့် n-gram precision လေးခုလုံးရဲ့ ပျမ်းမျှကို ဖော်ပြပါတယ်၊ ဒီ metric ကို တစ်ခါတလေ BLEU-4 လို့လည်း ခေါ်တယ်။,"默认情况下,报告所有四种n克精确度的平均值,这一指标有时也称为BLEU-4。"
1913,"In this example, we can see the BLEU score is zero because the 4-gram precision was zero.",ဒီဥပမာမှာ 4-gram precision က သုညဖြစ်လို့ BLEU score က သုည ဖြစ်နေတာကို မြင်နိုင်တယ်။,"在这个例子中,我们可以看到BLEU分数为零,因为4克精确度为零。"
1914,"Now, the BLEU metric has some nice properties, but it is far from a perfect metric.",BLEU metric မှာ ကောင်းတဲ့ ဂုဏ်သတ္တိအချို့ ရှိပေမယ့် ပြီးပြည့်စုံတဲ့ metric တော့ မဟုတ်ပါဘူး။,"现在,BLEU的度量 有一些不错的特性, 但它远非完美的度量。"
1915,The good properties are that it's easy to compute and it's widely used in research so you can compare your model against others on common benchmarks.,ကောင်းတဲ့ ဂုဏ်သတ္တိတွေကတော့ တွက်ချက်ရလွယ်ကူပြီး သုတေသနမှာ တွင်တွင်ကျယ်ကျယ် သုံးတဲ့အတွက် သာမန် benchmark တွေပေါ်မှာ သင့်မော်ဒယ်ကို တခြားသူတွေနဲ့ နှိုင်းယှဉ်နိုင်တာပါပဲ။,良好的特性是 它很容易计算 并被广泛用于研究中 这样你就可以比较你的模型 与其他模型在共同基准上。
1916,"On the other hand, there are several big problems with BLEU, including the fact it doesn't incorporate semantics and it struggles a lot on non-English languages.",နောက်တစ်ဖက်မှာတော့ BLEU နဲ့ ပတ်သက်ပြီး ကြီးမားတဲ့ ပြဿနာများစွာ ရှိပါတယ်၊ အဲဒီထဲမှာ အဓိပ္ပာယ်ကို မထည့်သွင်းတာနဲ့ အင်္ဂလိပ်မဟုတ်တဲ့ ဘာသာစကားတွေမှာ အလုပ်လုပ်ရတာ ခက်ခဲတာတွေ ပါဝင်တယ်။,"包括它没有包含语义学, 而且在非英语语言上挣扎不已。"
1917,Another problem with BLEU is that it assumes the human translations have already been tokenized and this makes it hard to compare models that use different tokenizers.,BLEU နဲ့ ပတ်သက်တဲ့ နောက်ထပ် ပြဿနာတစ်ခုက လူသားတွေ ဘာသာပြန်ထားတာတွေကို ကြိုပြီး tokenization လုပ်ထားတယ်လို့ ယူဆတာပါ၊ ဒါက မတူညီတဲ့ tokenizer တွေ သုံးတဲ့ မော်ဒယ်တွေကို နှိုင်းယှဉ်ဖို့ ခက်စေတယ်။,"BLEU的另一个问题是,它假定人文翻译已经被象征性化了,因此难以比较使用不同代用品的模型。"
1918,"So as we've seen, measuring the quality of texts is still a difficult and open problem in NLP research.",ဒါကြောင့် ကျွန်တော်တို့ မြင်ခဲ့ရတဲ့အတိုင်း စာသားတွေရဲ့ အရည်အသွေးကို တိုင်းတာတာဟာ NLP သုတေသနမှာ ခက်ခဲပြီး ဖွင့်ထားဆဲ ပြဿနာတစ်ခု ဖြစ်နေဆဲပါ။,"正如我们所看到的,衡量文本质量仍然是国家劳工政策研究中的一个困难和开放的问题。"
1919,"For machine translation, the current recommendation is to use the SacreBLEU metric, which addresses the tokenization limitations of BLEU.",Machine Translation အတွက် လက်ရှိ အကြံပြုချက်ကတော့ BLEU ရဲ့ tokenization ကန့်သတ်ချက်တွေကို ဖြေရှင်းပေးတဲ့ SacreBLEU metric ကို သုံးဖို့ပဲ ဖြစ်တယ်။,"在机器翻译方面,目前的建议是使用SACEBLEU衡量标准,解决BLEU的象征性限制。"
1920,"As you can see in this example, computing the SacreBLEU score is almost identical to the BLEU one.",ဒီဥပမာမှာ SacreBLEU score ကို တွက်ချက်တာဟာ BLEU နဲ့ အတူတူနီးပါးပဲဆိုတာ သင်မြင်နိုင်ပါတယ်။,"从这个例子中可以看到,计算ScameBLEU的得分几乎与BLEU的得分相同。"
1921,"The main difference is that we now pass a list of texts instead of a list of words to the translations, and SacreBLEU takes care of the tokenization under the hood.",အဓိက ခြားနားချက်ကတော့ ကျွန်တော်တို့က ဘာသာပြန်တွေဆီ စကားလုံးစာရင်းအစား စာသားစာရင်းကို ပေးပို့လိုက်တာဖြစ်ပြီး SacreBLEU ကတော့ နောက်ကွယ်မှာ tokenization ကို လုပ်ဆောင်ပေးတယ်။,"主要区别在于,我们现在通过一份文本清单,而不是一份翻译的单词清单,而SACEBLEU则负责头罩下的象征性化。"
1922,Let's see how to preprocess a dataset for summarization.,အနှစ်ချုပ်ခြင်းအတွက် dataset တစ်ခုကို ဘယ်လို စီမံဆောင်ရွက်မလဲ ကြည့်ရအောင်။,让我们来看看如何预处理一个数据集来进行汇总。
1923,"This is the task of, well, summarizing a long document.",ဒါက စာရွက်စာတမ်းရှည်တစ်ခုကို အနှစ်ချုပ်တာပဲ ဖြစ်တယ်။,这是总结一份长篇文件的任务。
1924,This video will focus on how to preprocess your dataset once you have managed to put it in the following format:,ဒီဗီဒီယိုက သင့် dataset ကို ဒီပုံစံအတိုင်း ထားနိုင်ပြီဆိုရင် ဘယ်လို စီမံဆောင်ရွက်မလဲဆိုတာကို အာရုံစိုက်မှာပါ။,"一旦您设法将数据集以以下格式放入, 此视频将聚焦于如何预处理您的数据集 :"
1925,"one column for the long documents, and one for the summaries.",စာရွက်စာတမ်းရှည်တွေအတွက် column တစ်ခုနဲ့ အနှစ်ချုပ်တွေအတွက် တစ်ခုပေါ့။,"长文件一栏,摘要一栏。"
1926,Here is how we can achieve this with the Datasets library on the XSUM dataset.,XSUM dataset ပေါ်မှာ Datasets library နဲ့ ဒါကို ဘယ်လို လုပ်ဆောင်နိုင်လဲ ဒီမှာ ပြထားတယ်။,这是如何在XSUM数据集的数据集库中实现这一点的。
1927,"For once, our labels are not integers corresponding to some classes, but plain text.",ဒီတစ်ခါတော့ ကျွန်တော်တို့ရဲ့ label တွေက class အချို့နဲ့ ကိုက်ညီတဲ့ ကိန်းဂဏန်းတွေ မဟုတ်ဘဲ ရိုးရိုးစာသားတွေ ဖြစ်တယ်။,"这一次,我们的标签不是与某些类别相对应的整数,而是纯文本。"
1928,"There is a small trap there though, as we need to tokenize our targets inside the as_target_tokenizer context manager.",ဒီမှာ ထောင်ချောက်လေးတစ်ခု ရှိတယ်၊ ဘာလို့လဲဆိုတော့ as_target_tokenizer context manager ထဲမှာ target တွေကို tokenization လုပ်ဖို့ လိုအပ်လို့ပဲ။,"但是那里有一个小陷阱, 因为我们需要将我们的目标象征在 目标- 控制器环境管理器内部。"
1929,"This is because the special tokens we add might be slightly different for the inputs and the target, so the tokenizer has to know which one it is processing.",ဒါက ကျွန်တော်တို့ ထည့်တဲ့ special token တွေက input နဲ့ target အတွက် အနည်းငယ် ကွဲပြားနိုင်တာကြောင့် tokenizer က သူဘာကို စီမံဆောင်ရွက်နေလဲဆိုတာ သိဖို့ လိုအပ်လို့ ဖြစ်တယ်။,这是因为我们添加的特殊标记 可能对输入和目标略有不同 所以代号器必须知道它正在处理的是什么
1930,"Since the summaries are usually much shorter than the documents, you should definitely pick different maximum lengths for the inputs and targets.",အနှစ်ချုပ်တွေက စာရွက်စာတမ်းတွေထက် အများကြီး တိုတောင်းလေ့ရှိတဲ့အတွက် input တွေနဲ့ target တွေအတွက် အများဆုံး အရှည် မတူညီတာကို ရွေးချယ်သင့်ပါတယ်။,"由于摘要通常比文件短得多,你应明确为投入和目标选择不同的最大长度。"
1931,You can choose to pad at this stage to that maximum length by setting padding=max_length.,padding=max_length လို့ သတ်မှတ်ခြင်းအားဖြင့် ဒီအဆင့်မှာ အဲဒီအများဆုံး အရှည်အထိ pad လုပ်ဖို့ ရွေးချယ်နိုင်တယ်။,"您可以选择在目前阶段通过设置 addding =max_ lax manth, 选择在最大长度上粘贴。"
1932,"Here we'll show you how to pad dynamically, as it requires one more step.",ဒီမှာတော့ dynamic pad လုပ်တာကို ပြပါမယ်၊ ဘာလို့လဲဆိုတော့ နောက်ထပ် အဆင့်တစ်ခု လိုအပ်လို့ပဲ။,"在这里,我们将教你如何 动态地滑动,因为它需要再走一步。"
1933,We'll pad the inputs and targets separately as the maximum lengths of the inputs and targets are completely different.,input တွေနဲ့ target တွေရဲ့ အများဆုံး အရှည်တွေက လုံးဝ ကွဲပြားနေတဲ့အတွက် သူတို့ကို သီးခြားစီ pad လုပ်ပါမယ်။,输入和目标的最大长度 和目标是完全不同的
1934,"Then, we pad the inputs to the maximum lengths among the inputs, and same for the target.",ပြီးရင် input တွေကို input တွေထဲက အများဆုံးအရှည်အထိ pad လုပ်ပြီး target အတွက်လည်း အတူတူပါပဲ။,"然后,我们把输入到输入的最大长度之间, 并且对目标同样。"
1935,"We pad the input with the pad token, and the targets with the -100 index to make sure they are not taken into account in the loss computation.",pad token နဲ့ input ကို pad လုပ်ပြီး target တွေကိုတော့ -100 index နဲ့ pad လုပ်ပါတယ်၊ ဒါမှ loss တွက်ချက်မှုမှာ ထည့်မစဉ်းစားမိဖို့ သေချာစေတယ်။,"我们用垫牌标牌和 - 100 指数输入输入目标,以确保在计算损失时不计及它们。"
1936,The Transformers library provide us with a data collator to do this all automatically.,Transformers library က ဒါတွေအားလုံးကို အလိုအလျောက် လုပ်ပေးနိုင်တဲ့ data collator ကို ပေးထားတယ်။,变换器库为我们提供了一个数据计算器 来自动完成这一切 。
1937,"You can then pass it to the Trainer with your datasets, or use it in the to_tf_dataset method before using model.fit on your current model.",ပြီးရင် သင့် dataset တွေနဲ့ Trainer ကို ပို့နိုင်တယ်၊ ဒါမှမဟုတ် သင့်လက်ရှိမော်ဒယ်ပေါ်မှာ model.fit ကို မသုံးခင် to_tf_dataset နည်းလမ်းမှာ အသုံးပြုနိုင်တယ်။,"然后,您可以使用数据集将数据传送给培训人员,或者在使用模型之前使用t_tf_dataset方法。适合您当前的模型。"
1938,What is the ROUGE metric?,ROUGE metric ဆိုတာ ဘာလဲ။,ROUGE的衡量标准是什么?
1939,For many NLP tasks we can use common metrics like accuracy or F1 score.,NLP လုပ်ငန်းများစွာအတွက် accuracy ဒါမှမဟုတ် F1 score လိုမျိုး ပုံမှန် metric တွေကို သုံးနိုင်တယ်။,"对于许多NLP任务,我们可以使用通用指标,如精确度或F1分。"
1940,But what do you do when you wanna measure something like the quality of a summary from a model like T5?,ဒါပေမယ့် T5 လို မော်ဒယ်တစ်ခုကနေ အနှစ်ချုပ်တစ်ခုရဲ့ အရည်အသွေးလိုမျိုး တိုင်းတာချင်တဲ့အခါ ဘာလုပ်ရမလဲ။,"但如果你想用T5这样的模型来测量 概要的质量,你会怎么做?"
1941,"In this video, we'll take a look at a widely used metric for text summarization called ROUGE.",ဒီဗီဒီယိုမှာတော့ စာသား အနှစ်ချုပ်ခြင်းအတွက် တွင်တွင်ကျယ်ကျယ် အသုံးပြုတဲ့ ROUGE လို့ခေါ်တဲ့ metric တစ်ခုကို ကြည့်ရအောင်။,"在这部影片中,我们将研究一个被广泛使用的文本总结指标,叫做“ROUGE”。"
1942,There are actually several variants of ROUGE but the basic idea behind all of them is to assign a single numerical score to a summary that tells us how good it is compared to one or more reference summaries.,ROUGE မှာ အမျိုးအစားများစွာ ရှိပါတယ်၊ ဒါပေမယ့် သူတို့အားလုံးရဲ့ အခြေခံအယူအဆကတော့ အနှစ်ချုပ်တစ်ခုကို ဂဏန်းတစ်ခုတည်း သတ်မှတ်ပေးပြီး အဲဒါက ရည်ညွှန်း အနှစ်ချုပ်တစ်ခု ဒါမှမဟုတ် တစ်ခုထက်ပိုတာတွေနဲ့ နှိုင်းယှဉ်တဲ့အခါ ဘယ်လောက်ကောင်းလဲဆိုတာ ပြောပြတာပဲ ဖြစ်တယ်။,"实际上,有几种变体,但所有这些变体背后的基本想法是给一个摘要分配一个单一的数值分数,说明它与一个或多个参考摘要相比有多好。"
1943,"In this example, we have a book review that has been summarized by some model.",ဒီဥပမာမှာ စာအုပ်ပြန်လည်သုံးသပ်ချက်တစ်ခုကို မော်ဒယ်တစ်ခုက အနှစ်ချုပ်ထားတာ ရှိတယ်။,"在这个例子中,我们有一个由某种模式总结的书本审查。"
1944,"If we compare the generated summary to some reference human summaries, we can see that the model is actually pretty good and only differs by a word or two.",ထုတ်လုပ်ထားတဲ့ အနှစ်ချုပ်ကို လူသားတွေ အနှစ်ချုပ်ထားတဲ့ reference တွေနဲ့ နှိုင်းယှဉ်ကြည့်ရင် မော်ဒယ်က တကယ်တော့ အတော်လေး ကောင်းပါတယ်၊ စကားလုံးတစ်လုံး နှစ်လုံးလောက်ပဲ ကွာခြားတယ်။,"如果我们将所产生的摘要与一些参考人类摘要进行比较,我们可以看到,该模型实际上相当不错,只有一字或两字不同。"
1945,So how can we measure the quality of a generated summary in an automatic way?,ဒါဆို ထုတ်လုပ်ထားတဲ့ အနှစ်ချုပ်တစ်ခုရဲ့ အရည်အသွေးကို အလိုအလျောက် နည်းလမ်းနဲ့ ဘယ်လို တိုင်းတာနိုင်မလဲ။,"因此,我们如何以自动方式衡量所产生摘要的质量?"
1946,The approach that ROUGE takes is to compare the n-grams of the generated summary to the n-grams of the references.,ROUGE ရဲ့ ချဉ်းကပ်ပုံကတော့ ထုတ်လုပ်ထားတဲ့ အနှစ်ချုပ်ရဲ့ n-gram တွေကို reference တွေရဲ့ n-gram တွေနဲ့ နှိုင်းယှဉ်ဖို့ပဲ ဖြစ်တယ်။,ROUGE采取的做法是将生成摘要的n克与参考文献的n克进行比较。
1947,And n-gram is just a fancy way of saying a chunk of N words.,N-gram ဆိုတာက N စကားလုံးအတန်းတစ်ခုလို့ ပြောတဲ့ ဆန်းဆန်းပြားပြား နည်းလမ်းတစ်ခုပါပဲ။,和n -gram只是一个花哨的方式 说一大块的N字。
1948,So let's start with unigrams which correspond to the individual words in a sentence.,ဒါကြောင့် ဝါကျတစ်ခုထဲက စကားလုံးတစ်လုံးချင်းစီနဲ့ ကိုက်ညီတဲ့ unigram တွေနဲ့ စလိုက်ရအောင်။,"因此,让我们从一个词句中的单词对应的单词开始。"
1949,"In this example, you can see that six of the words in the generated summary are also found in one of the reference summaries.",ဒီဥပမာမှာ ထုတ်လုပ်ထားတဲ့ အနှစ်ချုပ်ထဲက စကားလုံးခြောက်လုံးဟာ reference အနှစ်ချုပ်တွေထဲက တစ်ခုမှာလည်း တွေ့ရတာကို သင်မြင်နိုင်ပါတယ်။,"在这个例子中,你可以看到,生成的摘要中的六个字也见于一个参考摘要中。"
1950,And the rouge metric that compares unigrams is called ROUGE-1.,unigram တွေကို နှိုင်းယှဉ်တဲ့ ROUGE metric ကိုတော့ ROUGE-1 လို့ ခေါ်တယ်။,与单行字比较的粗糙度量 叫做ROUGE-1
1951,"Now that we found our matches, one way to assign a score to the summary is to compute the recall of the unigrams.",ကျွန်တော်တို့ရဲ့ ကိုက်ညီမှုတွေကို တွေ့ပြီးတာနဲ့ အနှစ်ချုပ်တစ်ခုကို score သတ်မှတ်ဖို့ နည်းလမ်းတစ်ခုကတော့ unigram တွေရဲ့ recall ကို တွက်ချက်ဖို့ပဲ ဖြစ်တယ်။,"现在,我们找到了我们的匹配, 给总结分配一个分数的一个方法 就是计算单词的记号。"
1952,This means we just count the number of matching words in the generated and reference summaries and normalize the count by dividing by the number of words in the reference.,ဆိုလိုတာက ထုတ်လုပ်ထားတဲ့နဲ့ reference အနှစ်ချုပ်တွေထဲက ကိုက်ညီတဲ့ စကားလုံးအရေအတွက်ကို ရေတွက်ပြီး အဲဒီအရေအတွက်ကို reference ထဲက စကားလုံးအရေအတွက်နဲ့ စားခြင်းဖြင့် ပုံမှန်ဖြစ်အောင် လုပ်တာ ဖြစ်တယ်။,"这意味着我们只要计算生成的和参考摘要中的匹配字数,通过除以引用字数,实现计算正常化。"
1953,"In this example, we found six matching words and our reference has six words.",ဒီဥပမာမှာ ကျွန်တော်တို့ ကိုက်ညီတဲ့ စကားလုံးခြောက်လုံး တွေ့ခဲ့ပြီး ကျွန်တော်တို့ရဲ့ reference မှာ စကားလုံးခြောက်လုံး ရှိတယ်။,"在这个例子中,我们找到了六个对应的词,我们参考的词有六个。"
1954,So our unigram recall is perfect.,ဒါကြောင့် ကျွန်တော်တို့ရဲ့ unigram recall က ပြီးပြည့်စုံတယ်။,"因此,我们的单词回忆是完美的。"
1955,This means that all of the words in the reference summary have been produced in the generated one.,ဒါက reference အနှစ်ချုပ်ထဲက စကားလုံးအားလုံးဟာ ထုတ်လုပ်ထားတဲ့ အနှစ်ချုပ်ထဲမှာ ပါဝင်တယ်ဆိုတဲ့ အဓိပ္ပာယ်ပါပဲ။,这意味着参考摘要中的所有词句都已在生成的词句中生成。
1956,"Now, perfect recall sounds great, but imagine if our generated summary have been something like I really, really, really, really loved reading the Hunger Games.","ပြီးပြည့်စုံတဲ့ recall က ကောင်းပါတယ်၊ ဒါပေမယ့် ကျွန်တော်တို့ရဲ့ ထုတ်လုပ်ထားတဲ့ အနှစ်ချုပ်က ""ကျွန်တော် Hunger Games ဖတ်ရတာ တကယ်၊ တကယ်၊ တကယ်၊ တကယ် သဘောကျခဲ့တယ်"" ဆိုတာမျိုး ဖြစ်နေမယ်ဆိုရင် စဉ်းစားကြည့်ပါ။","现在,完美的回忆听起来听起来很棒, 但是想象一下,如果我们所编的总结 就像是我真的,真的,真的, 真的,真的,真的, 真的很喜欢阅读 饥饿运动会。"
1957,"This would also have perfect recall but is arguably a worse summary, since it is verbose.",ဒါကလည်း ပြီးပြည့်စုံတဲ့ recall ရှိနေဦးမှာပဲ၊ ဒါပေမယ့် စကားလုံးများလွန်းလို့ ပိုဆိုးတဲ့ အနှစ်ချုပ် ဖြစ်ကောင်း ဖြစ်နိုင်တယ်။,"这也将会得到完美的回忆,但可以说是一个更糟糕的总结,因为它是动词。"
1958,"To deal with these scenarios, we can also compute precision, which in the ROUGE context measures how much of the generator summary was relevant.",ဒီလို အခြေအနေမျိုးတွေကို ကိုင်တွယ်ဖို့အတွက် precision ကိုလည်း တွက်ချက်နိုင်ပါတယ်၊ ဒါက ROUGE ရှုထောင့်အရ ထုတ်လုပ်တဲ့ အနှစ်ချုပ်ထဲက ဘယ်လောက် အပိုင်းက သက်ဆိုင်လဲဆိုတာကို တိုင်းတာတာ ဖြစ်တယ်။,"为了处理这些假设情况,我们还可以计算精确度,在ROUGE中,精确度衡量发电机摘要中有多少是相关的。"
1959,"In practice, both precision and recall are usually computed and then the F1 score is reported.",လက်တွေ့မှာ precision နဲ့ recall နှစ်ခုလုံးကို တွက်ချက်ပြီးနောက် F1 score ကို ဖော်ပြလေ့ရှိတယ်။,"在实践中,通常计算精确度和召回率,然后报告F1分数。"
1960,Now we can change the granularity of the comparison by comparing bigrams instead of unigrams.,အခု unigram တွေအစား bigram တွေကို နှိုင်းယှဉ်ခြင်းဖြင့် နှိုင်းယှဉ်မှုရဲ့ အသေးစိတ်အဆင့်ကို ပြောင်းလဲနိုင်ပါတယ်။,"现在,我们可以通过比较重标而不是单行字来改变比较的颗粒性。"
1961,"With bigrams, we chunk the sentence into pairs of consecutive words and then count how many pairs in the generated summary are present in the reference one.",bigram တွေနဲ့ဆိုရင် ဝါကျကို ဆက်တိုက် စကားလုံးအတွဲတွေအဖြစ် ပိုင်းပြီး ထုတ်လုပ်ထားတဲ့ အနှစ်ချုပ်ထဲက ဘယ်နှအတွဲက reference ထဲမှာ ပါလဲဆိုတာ ရေတွက်တယ်။,"用大写,我们把句子拼成一对连续的单词,然后计算出在所生成的摘要中有多少对在参考部分中。"
1962,"This gives us ROUGE-2 precision and recall which as we can see, is lower than the ROUGE-1 scores from earlier.",ဒါက ကျွန်တော်တို့ကို ROUGE-2 precision နဲ့ recall ကို ပေးပါတယ်၊ မြင်ရတဲ့အတိုင်းပဲ ဒါက အရင် ROUGE-1 score တွေထက် နိမ့်ပါတယ်။,"这给了我们ROUGE-2的精确度,并让我们想起我们可以看到的比以前ROUGE-1分数还低的那一分。"
1963,"Now, if the summaries are long, the ROUGE-2 scores will generally be small because there are fewer bios to match.",အခု အနှစ်ချုပ်တွေက ရှည်ရင် ROUGE-2 score တွေက နည်းနေတတ်တယ်၊ ဘာလို့လဲဆိုတော့ ကိုက်ညီဖို့ အတွဲနည်းသွားလို့ပဲ။,"现在,如果摘要是长的, ROUGE-2分数一般会很小, 因为匹配的生物较少。"
1964,And this is also true for abstractive summarization.,ဒါက abstractive summarization အတွက်လည်း မှန်ပါတယ်။,抽象总结也是如此。
1965,So both ROUGE-1 and ROUGE-2 scores are usually reported.,ဒါကြောင့် ROUGE-1 နဲ့ ROUGE-2 score နှစ်ခုလုံးကို အများအားဖြင့် ဖော်ပြလေ့ရှိတယ်။,"因此,ROUGE-1和ROUGE-2的分数通常都报告。"
1966,The last ROUGE variant we will discuss is ROUGE L.,နောက်ဆုံး ROUGE အမျိုးအစားကတော့ ROUGE L ဖြစ်ပါတယ်။,我们将要讨论的最后一种ROUGE变体是ROUGE L。
1967,ROUGE L doesn't compare ngrams but instead treats each summary as a sequence of words and then looks for the longest common subsequence or LCS.,ROUGE L က n-gram တွေကို နှိုင်းယှဉ်တာ မဟုတ်ဘဲ အနှစ်ချုပ်တစ်ခုစီကို စကားလုံးအတန်းအဖြစ် မှတ်ယူပြီး အရှည်ဆုံး ဘုံ subsequence ဒါမှမဟုတ် LCS ကို ရှာတယ်။,"ROUGE L 不比较 ngrams, 而是将每个摘要作为单词序列处理, 然后查找最长的常见子序列或 LCS 。"
1968,"A subsequence is a sequence that appears in the same relative order, but not necessarily contiguous.",Subsequence ဆိုတာကတော့ ဆက်တိုက် မဟုတ်ပေမယ့် တူညီတဲ့ ဆွေမျိုးအစီအစဉ်နဲ့ ပေါ်လာတဲ့ sequence တစ်ခု ဖြစ်တယ်။,"后继序列是按相同相对顺序出现的序列,但不一定毗连。"
1969,"So in this example, I loved reading the Hunger Games, is the longest common subsequence between the two summaries.","ဒါကြောင့် ဒီဥပမာမှာ ""I loved reading the Hunger Games"" ဟာ အနှစ်ချုပ်နှစ်ခုကြားက အရှည်ဆုံး ဘုံ subsequence ဖြစ်တယ်။","因此在这个例子中,我喜欢阅读饥饿运动会, 这是两个摘要之间最长的共同后遗症。"
1970,"And the main advantage of ROUGE L over ROUGE-1 or ROUGE-2 is that it doesn't depend on consecutive n-gram matches, and so it tends to capture sentence structure much more accurately.",ROUGE L ရဲ့ ROUGE-1 ဒါမှမဟုတ် ROUGE-2 ထက် အဓိက အားသာချက်ကတော့ ဆက်တိုက် n-gram ကိုက်ညီမှုတွေပေါ် မူတည်တာ မဟုတ်ဘဲ ဝါကျဖွဲ့စည်းပုံကို ပိုပြီး တိကျစွာ ဖမ်းယူနိုင်ခြင်းပဲ ဖြစ်တယ်။,"在ROUGE-1或ROUGE-2上使用ROUGE L的主要优势是,它并不依赖于连续的 n 克匹配,因此它倾向于更准确地捕捉判刑结构。"
1971,Now to compute ROUGE scores in the data sets library is very simple.,Datasets library မှာ ROUGE score တွေ တွက်ချက်ဖို့က အရမ်းရိုးရှင်းပါတယ်။,现在计算数据集库中的ROUGE分数非常简单。
1972,"You just use the load_metric function, provide your model summaries along with the references and you're good to go.",load_metric function ကို သုံးပြီး သင့်မော်ဒယ် အနှစ်ချုပ်တွေကို reference တွေနဲ့အတူ ပေးလိုက်ရုံပါပဲ၊ ပြီးရင် အဆင်သင့် ဖြစ်ပြီ။,"你只要使用负载量函数, 提供您的模型摘要 以及参考文献, 你就可以去。"
1973,The output from the calculation contains a lot of information.,တွက်ချက်မှုကနေ ရတဲ့ အထွက်မှာ အချက်အလက် အများကြီး ပါဝင်တယ်။,计算结果含有大量信息。
1974,"The first thing we can see is that the confidence intervals of each ROUGE score are provided in the low, mid and high fields.",ပထမဆုံး မြင်ရတဲ့အရာက ROUGE score တစ်ခုစီရဲ့ ယုံကြည်မှုကြားကာလတွေကို low၊ mid နဲ့ high ကဏ္ဍတွေမှာ ပေးထားတာပဲ ဖြစ်တယ်။,"我们可以看到的第一件事是,每个ROUGE分数的信任间隔是在低、中、高领域提供的。"
1975,This is really useful if you wanna know the spread of your ROUGE scores when comparing two or more models.,မော်ဒယ်နှစ်ခု ဒါမှမဟုတ် နှစ်ခုထက်ပိုတာတွေကို နှိုင်းယှဉ်တဲ့အခါ သင့် ROUGE score တွေရဲ့ ပျံ့နှံ့မှုကို သိချင်ရင် ဒါက တကယ် အသုံးဝင်ပါတယ်။,"如果您在比较两个或两个以上的模型时想知道你的ROUGE分数的分布, 这真的有用 。"
1976,The second thing to notice is that we have four types of ROUGE score.,သတိထားရမယ့် ဒုတိယအချက်က ROUGE score အမျိုးအစား လေးမျိုး ရှိတယ်။,第二点要注意的是 我们有四种ROUGE分数
1977,"We've already seen ROUGE-1, ROUGE-2 and ROUGE-L So what is ROUGE-L sum?",ကျွန်တော်တို့ ROUGE-1၊ ROUGE-2 နဲ့ ROUGE-L ကို မြင်ခဲ့ပြီးပြီ၊ ဒါဆို ROUGE-L sum ဆိုတာ ဘာလဲ။,"我们已经见过ROUGE-1,ROUGE-2和ROUGE-L 那么什么是ROUGE-L总和?"
1978,"Well, the sum in ROUGEL's sum refers to the fact that this metric is computed over a whole summary while ROUGE-L is computed as the average of individual sentences.",ROUGE-L sum မှာပါတဲ့ sum က ဒီ metric ကို အနှစ်ချုပ်တစ်ခုလုံးအပေါ် တွက်ချက်တာကို ရည်ညွှန်းပြီး ROUGE-L ကိုတော့ တစ်ဦးချင်း ဝါကျတွေရဲ့ ပျမ်းမျှအဖြစ် တွက်ချက်တာ ဖြစ်တယ်။,"ROUGEL的总和是指这一指标是按整个摘要计算的,而ROUGEL-L是按个别判决的平均数计算的。"
1979,"In this video, we take a look at the data processing necessary to train causal language models.",ဒီဗီဒီယိုမှာတော့ Causal Language Model တွေ လေ့ကျင့်ဖို့ လိုအပ်တဲ့ ဒေတာ စီမံဆောင်ရွက်ခြင်းကို ကြည့်ရအောင်။,"在这部影片中,我们审视了培训因果语言模型所需的数据处理。"
1980,Causal language modeling is the task of predicting the next token based on the previous ones.,Causal Language Modeling က အရင် token တွေကို အခြေခံပြီး နောက် token ကို ခန့်မှန်းတဲ့ လုပ်ငန်း ဖြစ်တယ်။,因果语言建模的任务是根据前一种预测下一个符号。
1981,Another term for causal language modeling is autoregressive modeling.,Causal Language Modeling အတွက် နောက်ထပ် အသုံးအနှုန်းတစ်ခုကတော့ autoregressive modeling ဖြစ်တယ်။,因果语言建模的另一个术语是自动递减型建模。
1982,"In the example that you can see here, the next token could, for example, be NLP or it could be machine learning.",ဒီမှာ မြင်ရတဲ့ ဥပမာမှာ နောက် token က ဥပမာအားဖြင့် NLP ဒါမှမဟုတ် machine learning ဖြစ်နိုင်တယ်။,"例如,在您在这里看到的示例中,下一个符号可以是NLP,也可以是机器学习。"
1983,A popular example of causal language models is the GPT family of models.,Causal Language Model တွေရဲ့ နာမည်ကြီး ဥပမာတစ်ခုကတော့ GPT မော်ဒယ် မိသားစု ဖြစ်တယ်။,流行的因果语言模式实例是GPT模式。
1984,"To train models such as GPT, we usually start with a large corpus of text files.",GPT လို မော်ဒယ်တွေကို လေ့ကျင့်ဖို့အတွက် ကျွန်တော်တို့က စာသားဖိုင်များစွာပါဝင်တဲ့ ကြီးမားတဲ့ corpus တစ်ခုနဲ့ စတင်လေ့ရှိတယ်။,"为了训练GPT这样的模型,我们通常先从大量文本文件开始。"
1985,"These files can be webpages scraped from the internet such as the Common Crawl dataset or they can be Python files from GitHub, like the ones you can see here.",ဒီဖိုင်တွေက Common Crawl dataset လိုမျိုး အင်တာနက်ကနေ ရတဲ့ ဝဘ်စာမျက်နှာတွေ ဖြစ်နိုင်သလို ဒီမှာ မြင်ရတဲ့အတိုင်း GitHub ကနေ Python ဖိုင်တွေလည်း ဖြစ်နိုင်တယ်။,"这些文件可以来自互联网的网页, 例如通用的 Crawl 数据集, 也可以是来自 GitHub 的 Python 文件, 就像您在这里看到的一样 。"
1986,"As a first step, we need to tokenize these files such that we can feed them through the model.",ပထမအဆင့်အနေနဲ့ မော်ဒယ်ထဲ ထည့်ဖို့အတွက် ဒီဖိုင်တွေကို tokenization လုပ်ဖို့ လိုတယ်။,"作为第一步,我们需要把这些文件象征下来,这样我们就可以通过模型喂养它们。"
1987,"Here, we show the tokenized texts as bars of various length, illustrating that they're shorter and longer ones.",ဒီမှာတော့ tokenized လုပ်ထားတဲ့ စာသားတွေကို အရှည်မတူညီတဲ့ bar တွေအဖြစ် ပြထားပြီး တိုတာတွေနဲ့ ရှည်တာတွေ ရှိတယ်ဆိုတာ ပြသနေတယ်။,"在这里,我们把象征性的文字 显示为不同长度的条条, 说明它们更短,更长。"
1988,This is very common when working with text.,ဒါက စာသားနဲ့ အလုပ်လုပ်တဲ့အခါ အလွန်အဖြစ်များတယ်။,"在与案文合作时,这是非常常见的。"
1989,"However, transform models have a limited context window and depending on the data source, it is possible that the tokenized texts are much longer than this window.",ဒါပေမယ့် Transformer မော်ဒယ်တွေမှာ ကန့်သတ်ထားတဲ့ context window ရှိပြီး ဒေတာရင်းမြစ်ပေါ် မူတည်ပြီး tokenized လုပ်ထားတဲ့ စာသားတွေဟာ ဒီ window ထက် အများကြီး ရှည်နိုင်တယ်။,"然而,变换模型的上下文窗口有限,视数据来源而定,象征性文本可能比这个窗口长得多。"
1990,"In this case, we could just truncate the sequences to the context length, but this would mean that we lose everything after the first context window.",ဒီကိစ္စမှာ sequence တွေကို context အရှည်အထိ ဖြတ်တောက်နိုင်ပေမယ့် ဒါက ပထမဆုံး context window ပြီးနောက် အရာအားလုံးကို ဆုံးရှုံးစေနိုင်တယ်။,"在这种情况下,我们可以仅仅将顺序缩短到上下文长度,但这将意味着我们在第一个上下文窗口之后失去一切。"
1991,"Using the return overflowing token flag, we can use the tokenizer to create chunks with each one being the size of the context length.",return overflowing token flag ကို သုံးပြီး tokenizer ကို အသုံးပြုကာ chunk တွေ ဖန်တီးနိုင်ပြီး အပိုင်းတစ်ခုစီက context အရှည်အတိုင်း ရှိမယ်။,"使用返回溢出的标记标记, 我们可以使用代谢器来创建块块, 每个块的大小与上下文长度相同 。"
1992,"Sometimes, it can still happen that the last chunk is too short if there aren't enough tokens to fill it.",တစ်ခါတလေမှာ token တွေ အပြည့်မရှိရင် နောက်ဆုံး chunk က အရမ်းတိုနေနိုင်တယ်။,"有时,如果没有足够的标记来填上, 最后一块块还是太短, 仍然会发生。"
1993,"In this case, we can just remove it.",ဒီကိစ္စမှာတော့ ဒါကို ဖယ်ရှားလိုက်လို့ ရတယ်။,"在此情况下,我们可以删除它。"
1994,"With the return_length keyword, we also get the length of each chunk from the tokenizer.",return_length keyword နဲ့ဆိုရင် tokenizer ကနေ chunk တစ်ခုစီရဲ့ အရှည်ကိုလည်း ရရှိတယ်။,"使用返回的长关键字, 我们也可以从代谢器中获取每个块的长度 。"
1995,This function shows all the steps necessary to prepare the dataset.,ဒီ function က dataset ကို ပြင်ဆင်ဖို့ လိုအပ်တဲ့ အဆင့်အားလုံးကို ပြသတယ်။,此函数显示准备数据集所需的所有步骤 。
1996,"First, we tokenize the dataset with the flags I just mentioned.",ပထမဆုံး ကျွန်တော် ခုနက ပြောခဲ့တဲ့ flag တွေနဲ့ dataset ကို tokenization လုပ်တယ်။,"首先,我们用我刚才提到的旗帜象征数据集。"
1997,"Then, we go through each chunk and if it's length matches the context length, we add it to the inputs we return.",ပြီးရင် chunk တစ်ခုစီကို ဖြတ်သွားပြီး အရှည်က context အရှည်နဲ့ ကိုက်ညီရင် ကျွန်တော်တို့ ပြန်ပေးတဲ့ inputs ထဲ ထည့်လိုက်တယ်။,"然后,我们通过每个块, 如果长度与上下文长度一致, 我们把它加入我们返回的投入中。"
1998,We can apply this function to the whole dataset.,ဒီ function ကို dataset တစ်ခုလုံးကို အသုံးချနိုင်တယ်။,我们可以将此函数应用到整个数据集中。
1999,"In addition, we make sure that to use batches and remove the existing columns.",ဒါ့အပြင် batch တွေသုံးပြီး ရှိပြီးသား column တွေကို ဖယ်ရှားဖို့ သေချာအောင် လုပ်ရမယ်။,"此外,我们确保使用批次和删除现有栏目。"
2000,"We need to remove the existing columns, because we can create multiple samples per text, and the shapes in the dataset would not match anymore in that case.",ရှိပြီးသား column တွေကို ဖယ်ရှားဖို့ လိုအပ်တယ်၊ ဘာလို့လဲဆိုတော့ စာသားတစ်ခုစီအတွက် နမူနာများစွာ ဖန်တီးနိုင်ပြီး အဲဒီကိစ္စမှာ dataset ထဲက ပုံသဏ္ဍာန်တွေက ကိုက်ညီတော့မှာ မဟုတ်ဘူး။,"我们需要删除现有的列, 因为我们每文本可以生成多个样本, 而在这种情况下,数据集中的形状将不再匹配。"
2001,"If the context length is of similar lengths as the files, this approach doesn't work so well anymore.",context အရှည်က ဖိုင်တွေရဲ့ အရှည်နဲ့ ဆင်တူနေရင် ဒီချဉ်းကပ်ပုံက သိပ်ကောင်းကောင်း အလုပ်မလုပ်တော့ဘူး။,"如果上下文长度与文件长度相似,这个方法就不再有效了。"
2002,"In this example, both sample 1 and 2 are shorter than the context size and will be discarded with the previous approach.",ဒီဥပမာမှာ sample 1 နဲ့ 2 နှစ်ခုလုံးဟာ context အရွယ်အစားထက် တိုနေပြီး အရင်ချဉ်းကပ်ပုံနဲ့ဆိုရင် စွန့်ပစ်ခံရမှာ ဖြစ်တယ်။,"在这个例子中,样本1和样本2都比上下文大小短,将用前一种办法放弃。"
2003,"In this case, it is better to first tokenize each sample without truncation and then concatenate the tokenized samples with an end of string or EOS token in between.",ဒီကိစ္စမှာ ပိုကောင်းတာကတော့ ပထမဆုံး နမူနာတစ်ခုစီကို ဖြတ်တောက်ခြင်းမရှိဘဲ tokenization လုပ်ပြီး tokenized လုပ်ထားတဲ့ နမူနာတွေကို end of string ဒါမှမဟုတ် EOS token နဲ့ ချိတ်ဆက်လိုက်တာပဲ။,"在这种情况下,最好首先在不缩短时间的情况下将每个样品象征性化,然后将象征性化样品与绳子的尾端或中间的EOS标记混为一谈。"
2004,"Finally, we can chunk this long sequence with the context length and we don't lose too many sequences because they're too short anymore.",နောက်ဆုံးမှာ ဒီရှည်လျားတဲ့ sequence ကို context အရှည်နဲ့ chunk လုပ်နိုင်ပြီး sequence တွေ အရမ်းတိုလွန်းလို့ အများကြီး ဆုံးရှုံးတော့မှာ မဟုတ်ဘူး။,"最后,我们可以用上下文长度来打乱这个长的序列, 我们不会因为时间太短而失去太多的序列。"
2005,"So far, we have only talked about the inputs for causal language modeling, but not the labels needed for supervised training.",အခုထိတော့ Causal Language Modeling အတွက် inputs တွေအကြောင်းပဲ ပြောခဲ့ပြီး supervised training အတွက် လိုအပ်တဲ့ label တွေအကြောင်း မပြောရသေးဘူး။,"迄今为止,我们只谈到对因果语言建模的投入,而没有谈到监督培训所需的标签。"
2006,"When we do causal language modeling, we don't require any extra labels for the input sequences as the input sequences themselves are the labels.",Causal Language Modeling လုပ်တဲ့အခါ input sequence တွေအတွက် အပို label တွေ မလိုအပ်ပါဘူး၊ ဘာလို့လဲဆိုတော့ input sequence တွေ ကိုယ်တိုင်က label တွေ ဖြစ်လို့ပဲ။,"当我们做因果语言建模时, 我们不需要额外的输入序列标签, 因为输入序列本身就是标签。"
2007,"In this example, when we feed the token trans to the model, the next token we wanted to predict is formers.","ဒီဥပမာမှာ ""trans"" token ကို မော်ဒယ်ထဲ ထည့်လိုက်တဲ့အခါ ကျွန်တော်တို့ ခန့်မှန်းချင်တဲ့ နောက် token က ""formers"" ဖြစ်တယ်။","在这个例子中,当我们把象征性的转换器喂给模型时, 我们想要预测的下一个信号是旧的。"
2008,"In the next step, we feed trans and formers to the model and the label we wanted to predict is are.","နောက်အဆင့်မှာ ""trans"" နဲ့ ""formers"" ကို မော်ဒယ်ထဲ ထည့်လိုက်ပြီး ခန့်မှန်းချင်တဲ့ label က ""are"" ဖြစ်တယ်။","下一步,我们向模型提供转基因和前导,我们想要预测的标签是。"
2009,"This pattern continues, and as you can see, the input sequence is the label sequence just shifted by one.",ဒီပုံစံအတိုင်း ဆက်သွားတယ်၊ သင်မြင်တဲ့အတိုင်းပဲ input sequence က label sequence ကို တစ်နေရာ ရွှေ့ထားတာပဲ ဖြစ်တယ်။,"此图案继续, 正如你可以看到的, 输入序列是标签序列 刚刚被一个转动 。"
2010,"Since the model only makes prediction after the first token, the first element of the input sequence, in this case, trans, is not used as a label.","မော်ဒယ်က ပထမ token ပြီးမှသာ ခန့်မှန်းတာကြောင့် input sequence ရဲ့ ပထမ အစိတ်အပိုင်း ဒီကိစ္စမှာ ""trans"" ကို label အဖြစ် အသုံးမပြုပါဘူး။","由于模型仅在第一个标记后作出预测,输入序列的第一个要素,在此情况下,即转号,不用作标签。"
2011,"Similarly, we don't have a label for the last token in the sequence since there is no token after the sequence ends.",အလားတူပဲ sequence ပြီးနောက် token မရှိတော့တဲ့အတွက် sequence ရဲ့ နောက်ဆုံး token အတွက် label မရှိဘူး။,"同样,在序列中,我们没有最后一个标记的标签, 因为序列结束后没有标记。"
2012,Let's have a look at what we need to do to create the labels for causal language modeling in code.,Causal Language Modeling အတွက် label တွေကို code မှာ ဖန်တီးဖို့ ဘာလုပ်ဖို့ လိုလဲ ကြည့်ရအောင်။,让我们来看看我们需要做些什么 来创建标签 来模拟代码中的因果语言模式。
2013,"If we want to calculate a loss on a batch, we can just pass the input_ids as labels and all the shifting is handled in the model internally.",batch တစ်ခုပေါ်မှာ loss တွက်ချင်ရင် input_ids ကို label အဖြစ် ထည့်လိုက်ရုံပါပဲ၊ shifting လုပ်တာအားလုံးကို မော်ဒယ်အတွင်းမှာ ကိုင်တွယ်ပေးတယ်။,"如果我们想要计算批量损失, 我们可以将输入的代号作为标签传送, 所有转换都由模型内部处理 。"
2014,"So, you see, there's no matching involved in processing data for causal language modeling, and it only requires a few simple steps.",ဒါကြောင့် Causal Language Modeling အတွက် ဒေတာ စီမံဆောင်ရွက်ရာမှာ ကိုက်ညီမှုတွေ ပါဝင်တာ မရှိဘူး၊ ရိုးရှင်းတဲ့ အဆင့်အနည်းငယ်သာ လိုတယ်ဆိုတာ သင်တွေ့နိုင်ပါတယ်။,"所以,你看,在处理因果语言建模数据时没有匹配, 它只需要几个简单的步骤。"
2015,"In this video, we take a look at setting up a custom loss function for training.",ဒီဗီဒီယိုမှာတော့ လေ့ကျင့်မှုအတွက် စိတ်ကြိုက် loss function တစ်ခုကို ဘယ်လို စီစဉ်သတ်မှတ်မလဲဆိုတာ ကြည့်ရအောင်။,"在影片中,我们研究设置培训的习惯损失功能。"
2016,"In the default loss function, all samples, such as these code snippets, are treated the same irrespective of their content but there are scenarios where it could make sense to weight the samples differently.",ပုံမှန် loss function မှာ ဒီ code snippet တွေလို နမူနာအားလုံးကို သူတို့ရဲ့ အကြောင်းအရာနဲ့ မဆိုင်ဘဲ တူညီစွာ သတ်မှတ်ပေမယ့် နမူနာတွေကို မတူညီတဲ့ အလေးချိန်တွေ ပေးသင့်တဲ့ အခြေအနေတွေ ရှိတယ်။,"在默认损失功能下,所有样品,如这些代码片段,无论内容如何,都得到同样的处理,但有些情况是,对样品进行不同的加权是合情合理的。"
2017,"If, for example, one sample contains a lot of tokens that are of interest to us or if a sample has a favorable diversity of tokens.",ဥပမာအားဖြင့် နမူနာတစ်ခုမှာ ကျွန်တော်တို့ စိတ်ဝင်စားတဲ့ token များစွာ ပါဝင်နေမယ်ဆိုရင် ဒါမှမဟုတ် နမူနာတစ်ခုမှာ token တွေရဲ့ ကွဲပြားမှု ကောင်းမွန်နေမယ်ဆိုရင်ပေါ့။,"例如,如果一个样本含有许多令我们感兴趣的物证,或者一个样本具有有利的多种物证。"
2018,We can also implement other heuristics with pattern matching or other rules.,Pattern Matching ဒါမှမဟုတ် တခြား စည်းမျဉ်းတွေနဲ့ အခြား heuristic တွေကိုလည်း အကောင်အထည်ဖော်နိုင်တယ်။,我们还可以用模式匹配或其他规则来实施其他方法。
2019,"For each sample, we get a loss value during training and we can combine that loss with a weight.",နမူနာတစ်ခုစီအတွက် လေ့ကျင့်နေစဉ်မှာ loss တန်ဖိုးတစ်ခု ရရှိပြီး အဲဒီ loss ကို အလေးချိန်တစ်ခုနဲ့ ပေါင်းစပ်နိုင်တယ်။,"对于每个样本,我们在培训期间都有损失价值,我们可以将损失与重量结合起来。"
2020,Then we can create a weighted sum or average over all samples to get the final loss for the batch.,ပြီးရင် batch အတွက် နောက်ဆုံး loss ကို ရရှိဖို့ နမူနာအားလုံးပေါ်မှာ အလေးချိန် ပေါင်းလဒ် ဒါမှမဟုတ် ပျမ်းမျှကို ဖန်တီးနိုင်တယ်။,"然后我们就可以在所有样本中建立一个加权总和或平均值,以获得批量的最后损失。"
2021,Let's have a look at a specific example.,သီးခြား ဥပမာတစ်ခုကို ကြည့်ရအောင်။,让我们来看看一个具体的例子。
2022,We want to set up a language model that helps us autocomplete common data science code.,ကျွန်တော်တို့က အဖြစ်များတဲ့ data science code တွေကို အလိုအလျောက် ဖြည့်ပေးနိုင်မယ့် language model တစ်ခုကို စီစဉ်ချင်တယ်။,我们希望建立一个语言模式 帮助我们自动完成共同数据科学代码
2023,"For that task, we would like to weight samples stronger where tokens related to the data science stack, such as pd or np, occur more frequently.",အဲဒီလုပ်ငန်းအတွက် data science နဲ့ သက်ဆိုင်တဲ့ token တွေ ဥပမာ pd ဒါမှမဟုတ် np လိုမျိုး token တွေ ပိုမို ပေါ်လာတဲ့ နမူနာတွေကို ပိုပြီး အလေးချိန်ပေးချင်တယ်။,"为了完成这项任务,我们希望在与数据科学堆叠有关的标牌,如pd或np更频繁发生时,对样品进行加权,使之更强。"
2024,Here you see a loss function that does exactly that for causal language modeling.,ဒီမှာ Causal Language Modeling အတွက် အတိအကျ အဲဒီလို လုပ်ဆောင်တဲ့ loss function တစ်ခုကို သင်မြင်နိုင်တယ်။,"这里您可以看到一个损失函数, 它完全可以用于因果语言模型。"
2025,"It takes the model's input and predicted logits, as well as the key tokens, as input.",သူက မော်ဒယ်ရဲ့ input နဲ့ ခန့်မှန်းထားတဲ့ logits တွေအပြင် key token တွေကိုပါ input အဖြစ် ယူတယ်။,它将模型的投入和预测的日志以及关键标记作为输入。
2026,"First, the inputs and logits are aligned.",ပထမဦးစွာ input တွေနဲ့ logits တွေကို ချိန်ညှိတယ်။,"首先,输入和日志对齐。"
2027,"Then the loss per sample is calculated, followed by the weights.",ပြီးရင် နမူနာတစ်ခုစီအတွက် loss ကို တွက်ချက်ပြီး အဲဒီနောက် အလေးချိန်တွေကို တွက်တယ်။,"然后计算每个样本的损失,然后计算重量。"
2028,"Finally, the loss and the weights are combined and returned.",နောက်ဆုံးမှာတော့ loss နဲ့ အလေးချိန်တွေကို ပေါင်းစပ်ပြီး ပြန်ပေးလိုက်တယ်။,"最后,将损失和重量合并并退还。"
2029,"This is a pretty big function, so let's take a closer look at the loss and the weight blocks.",ဒါက အတော်လေး ကြီးတဲ့ function တစ်ခုမို့ loss နဲ့ weight block တွေကို ပိုပြီး အနီးကပ် ကြည့်ရအောင်။,"这是一个相当大的功能, 所以让我们仔细看一看 损失和重量区块。"
2030,"During the calculation of the standard loss, the logits and labels are flattened over the batch.",ပုံမှန် loss တွက်ချက်နေစဉ်အတွင်း logits တွေနဲ့ label တွေကို batch ပေါ်မှာ ပြန့်ကျဲသွားအောင် လုပ်တယ်။,"在计算标准损失期间,在批次上平整了日志和标签。"
2031,"With the view, we unflatten the tensor to get the matrix with a row for each sample in the batch and a column for each position in the sequence of the sample.",view ကို သုံးပြီး tensor ကို မပြန့်ကျဲတော့အောင် လုပ်လိုက်တယ်၊ ဒါမှ batch ထဲက နမူနာတစ်ခုစီအတွက် အတန်းတစ်တန်းနဲ့ နမူနာရဲ့ sequence ထဲက အနေအထားတစ်ခုစီအတွက် column တစ်ခုစီပါတဲ့ matrix ကို ရရှိတယ်။,"在查看时,我们卸减气压,以获得每批样本的一行表和每组样本的一列表,以及每个位置的一列表。"
2032,"We don't need the loss per position, so we average the loss over all positions for each sample.",ကျွန်တော်တို့က အနေအထားတစ်ခုစီအတွက် loss ကို မလိုဘူး၊ ဒါကြောင့် နမူနာတစ်ခုစီအတွက် အနေအထားအားလုံးပေါ်က loss ကို ပျမ်းမျှယူလိုက်တယ်။,"我们不需要每个位置的损失, 所以我们平均损失 所有位置的每个样本。"
2033,"For the weights, we use Boolean logic to get a tensor with 1s where a keyword occurred and 0s where not.",Weights တွေအတွက် keyword ပေါ်လာတဲ့နေရာမှာ 1 နဲ့ မဟုတ်တဲ့နေရာမှာ 0 ပါတဲ့ tensor တစ်ခုရရှိဖို့ Boolean logic ကို သုံးတယ်။,"对于权重,我们使用布尔逻辑来获得一个带 1s 的电压,其中出现关键字, 0s 则没有。"
2034,This tensor has an additional dimension as the loss tensor we just saw because we get the information for each keyword in a separate matrix.,ဒီ tensor မှာ ခုနက မြင်ခဲ့ရတဲ့ loss tensor လိုပဲ နောက်ထပ် အတိုင်းအတာတစ်ခု ပါဝင်ပါတယ်၊ ဘာလို့လဲဆိုတော့ keyword တစ်ခုစီအတွက် အချက်အလက်ကို သီးခြား matrix တစ်ခုစီမှာ ရရှိလို့ပဲ။,"这种压力还有另一个维度,就像我们刚刚看到的损失压力一样,因为我们在一个单独的矩阵中获得了每个关键词的信息。"
2035,"We only want to know how many times keywords occurred per sample, so we can sum overall keywords and all positions per sample.",ကျွန်တော်တို့က နမူနာတစ်ခုစီအတွက် keyword တွေ ဘယ်နှစ်ကြိမ် ပေါ်လာလဲဆိုတာပဲ သိချင်တဲ့အတွက် keyword အားလုံးနဲ့ နမူနာတစ်ခုစီရဲ့ အနေအထားအားလုံးပေါ်မှာ ပေါင်းလိုက်နိုင်တယ်။,"我们只想知道每个样本中关键词的发生次数, 这样我们就可以对每个样本中的总关键词和所有位置进行总和。"
2036,Now we're almost there.,အခုဆိုရင် ရောက်တော့မယ်။,现在我们就快到了
2037,We only need to combine the loss with the weight per sample.,နမူနာတစ်ခုစီအတွက် loss ကို အလေးချိန်နဲ့ ပေါင်းစပ်ဖို့ပဲ လိုတော့တယ်။,我们只需将损失与每个样本的重量结合起来。
2038,We do this with element wise multiplication and then average overall samples in the batch.,ဒါကို element wise multiplication နဲ့ လုပ်ဆောင်ပြီး batch ထဲက နမူနာအားလုံးပေါ်မှာ ပျမ်းမျှယူတယ်။,"我们用元素智慧乘法来做这个,然后用批量中的平均总样本来做这个。"
2039,"In the end, we have exactly one loss value for the whole batch and this is the whole necessary logic to create a custom weighted loss.",နောက်ဆုံးမှာ batch တစ်ခုလုံးအတွက် loss တန်ဖိုးတစ်ခုတည်းကို ရရှိပြီး ဒါက စိတ်ကြိုက် အလေးချိန် loss တစ်ခု ဖန်တီးဖို့ လိုအပ်တဲ့ ယုတ္တိဗေဒ အားလုံးပါပဲ။,"归根结底,我们在整个批次中都有完全一个损失价值,这是产生定制加权损失的完全必要的逻辑。"
2040,Let's see how we can make use of that custom loss with Accelerate and the Trainer.,Accelerate နဲ့ Trainer နဲ့ ဒီစိတ်ကြိုက် loss ကို ဘယ်လို အသုံးပြုနိုင်လဲ ကြည့်ရအောင်။,让我们看看我们怎样才能利用 加速和训练员的习惯损失
2041,"In Accelerate, we just pass the input_ids to the model to get the logits and then we can call the custom loss function.",Accelerate မှာ input_ids ကို မော်ဒယ်ဆီ ပို့ပြီး logits တွေကို ယူတယ်၊ ပြီးတော့ custom loss function ကို ခေါ်နိုင်တယ်။,"在加速中,我们只是将输入的代号传送到模型 以获得登录 然后我们可以调用自定义损失函数。"
2042,"After that, we continue with the normal training loop by, for example, calling backward.",အဲဒီနောက် ဥပမာအားဖြင့် backward ကို ခေါ်ပြီး ပုံမှန် လေ့ကျင့်ရေး loop ကို ဆက်လုပ်တယ်။,"之后,我们继续正常的培训循环,例如,叫 "" 后向 "" 。"
2043,"For the Trainer, we can overwrite the compute loss function of the standard trainer.",Trainer အတွက် ပုံမှန် trainer ရဲ့ compute loss function ကို ပြန်ရေးနိုင်တယ်။,"对于训练员来说,我们可以覆盖标准训练员的计算损失功能。"
2044,We just need to make sure that we return the loss and the model outputs in the same format.,loss နဲ့ မော်ဒယ်အထွက်တွေကို ပုံစံတူ ပြန်ပေးဖို့ သေချာအောင် လုပ်ဖို့ပဲ လိုတယ်။,我们只需要确保我们以同样的格式归还损失和模型产出。
2045,"With that, you can integrate your own awesome loss function with both the Trainer and Accelerate.",ဒီလိုဆိုရင် Trainer နဲ့ Accelerate နှစ်ခုလုံးနဲ့ သင့်ကိုယ်ပိုင် အမိုက်စား loss function ကို ပေါင်းစပ်နိုင်ပါပြီ။,"这样,你就可以把自己惊人的损失功能 和训练员和加速器结合起来。"
2046,Let's study how to preprocess a dataset for question answering.,Question Answering အတွက် dataset တစ်ခုကို ဘယ်လို စီမံဆောင်ရွက်မလဲ လေ့လာကြရအောင်။,让我们研究如何为回答问题预处理数据集。
2047,Question answering is a task of finding answers to a question in some context.,Question Answering က context တစ်ခုထဲက မေးခွန်းတစ်ခုရဲ့ အဖြေတွေကို ရှာဖွေတဲ့ လုပ်ငန်း ဖြစ်တယ်။,回答问题的任务是在某种情况下找到对某一问题的答复。
2048,"For example, we'll use the SQuAD dataset in which we remove columns we won't use and just extract the information we will need for the labels, the start and the end of the answer in the context.",ဥပမာအားဖြင့် SQuAD dataset ကို သုံးပါမယ်၊ အဲဒီထဲမှာ မသုံးတော့မယ့် column တွေကို ဖယ်ရှားပြီး label တွေအတွက် လိုအပ်မယ့် အချက်အလက်တွေ၊ context ထဲက အဖြေရဲ့ အစနဲ့အဆုံးကိုပဲ ထုတ်ယူပါမယ်။,"例如,我们将使用 SQAD 数据集, 在其中我们删除我们不会使用的列, 并提取标签、 答案的开始和结束所需的信息, 在上下文中 。"
2049,"If you have your own dataset for question answering, just make sure you clean your data to get to the same point, with one column containing the questions, one column containing the context, one column for the index of the start and end character of the answer in the context.",သင့်မှာ Question Answering အတွက် ကိုယ်ပိုင် dataset ရှိရင် မေးခွန်းတွေပါတဲ့ column တစ်ခု၊ context ပါတဲ့ column တစ်ခု၊ context ထဲက အဖြေရဲ့ အစနဲ့အဆုံး စာလုံးရဲ့ index အတွက် column တစ်ခု ရရှိဖို့ သင့်ဒေတာကို ရှင်းလင်းထားဖို့ သေချာပါစေ။,"如果您有自己的数据集用于回答问题,请确保清理数据以达到同一点,用一列包含问题,一列包含上下文,一列包含上下文,一列用于上下文中答案的起始和结尾字符的索引。"
2050,Note that the answer must be part of the context.,အဖြေဟာ context ရဲ့ အစိတ်အပိုင်း ဖြစ်ရမယ်ဆိုတာ သတိထားပါ။,"请注意,答案必须是上下文的一部分。"
2051,"If you want to perform generative question answering, look at one of the sequence to sequence videos linked below.",Generative Question Answering လုပ်ချင်တယ်ဆိုရင် အောက်မှာ လင့်ခ်ချိတ်ထားတဲ့ sequence to sequence ဗီဒီယိုတွေထဲက တစ်ခုကို ကြည့်ပါ။,"如果您想要进行基因问题回答, 请看看下面连接到的视频序列的顺序 。"
2052,"Now, if we have a look at the tokens we will feed our model, we'll see the answer lies somewhere inside the context.",အခု ကျွန်တော်တို့ မော်ဒယ်ကို ထည့်သွင်းမယ့် token တွေကို ကြည့်မယ်ဆိုရင် အဖြေက context ရဲ့ အတွင်းမှာ တစ်နေရာရာမှာ ရှိနေတာ တွေ့ရပါလိမ့်မယ်။,"现在,如果我们看一看 标牌,我们将喂养我们的模型, 我们将看到答案 位于背景的某处。"
2053,"For very long context, that answer may get truncated by the tokenizer.",အလွန်ရှည်လျားတဲ့ context တွေအတွက် အဲဒီအဖြေက tokenizer ကြောင့် ဖြတ်တောက်ခံရနိုင်တယ်။,"从很长的角度来看,这个答案可能会被代号器截断。"
2054,"In this case, we won't have any proper labels for our model, so we should keep the truncated part as a separate feature instead of discarding it.",ဒီကိစ္စမှာ ကျွန်တော်တို့ မော်ဒယ်အတွက် သင့်လျော်တဲ့ label တွေ ရှိတော့မှာ မဟုတ်ဘူး၊ ဒါကြောင့် ဖြတ်တောက်ထားတဲ့ အပိုင်းကို စွန့်ပစ်မယ့်အစား သီးခြား feature တစ်ခုအဖြစ် ထားသင့်တယ်။,"在这种情况下,我们将没有任何合适的模型标签, 所以我们应该保留短路部分作为单独的特性, 而不是丢弃它。"
2055,The only thing we need to be careful with is to allow some overlap between separate chunks so that the answer is not truncated and that the feature containing the answer gets sufficient context to be able to predict it.,ကျွန်တော်တို့ သတိထားရမယ့် တစ်ခုတည်းသောအရာကတော့ သီးခြား chunk တွေကြားမှာ အနည်းငယ် ထပ်နေတာကို ခွင့်ပြုဖို့ပဲ၊ ဒါမှ အဖြေက ဖြတ်တောက်မခံရဘဲ အဖြေပါတဲ့ feature က ခန့်မှန်းနိုင်ဖို့အတွက် လုံလောက်တဲ့ context ကို ရရှိနိုင်မှာပါ။,"我们唯一需要小心的是允许分开的块块之间有一些重叠,这样答案就不会被缩短,而包含答案的特征有足够的背景来预测答案。"
2056,Here is how it can be done by the tokenizer.,ဒီမှာတော့ tokenizer က ဒါကို ဘယ်လို လုပ်ဆောင်နိုင်လဲ ပြထားတယ်။,这是象征器如何做到的。
2057,"We pass it the question, context, set a truncation for the context only, and the padding to the maximum length.",မေးခွန်း၊ context ကို ပို့တယ်၊ context အတွက်ပဲ truncation သတ်မှတ်တယ်၊ ပြီးတော့ အများဆုံး အရှည်အထိ padding လုပ်တယ်။,"我们通过问题、上下文,只为上下文设定了短线,而划到最长长度。"
2058,"The stride argument is where we set the number of overlapping tokens, and the return overflowing tokens equals true means we don't want to discard the truncated part.",stride argument က ထပ်နေတဲ့ token အရေအတွက်ကို သတ်မှတ်တဲ့နေရာဖြစ်ပြီး return overflowing tokens equals true ကတော့ ဖြတ်တောက်ထားတဲ့ အပိုင်းကို မစွန့်ပစ်ချင်ဘူးလို့ ဆိုလိုတယ်။,"我们设定了重叠的标牌数量, 返回溢出的标牌等于真实, 意味着我们不想丢弃被截断的部分 。"
2059,"Lastly, we also return the offset mappings to be able to find the tokens corresponding to the answer start and end.",နောက်ဆုံးအနေနဲ့ အဖြေရဲ့ အစနဲ့ အဆုံးနဲ့ ကိုက်ညီတဲ့ token တွေကို ရှာနိုင်ဖို့ offset mappings တွေကိုလည်း ပြန်ပေးလိုက်တယ်။,"最后,我们还要归还抵消图谱,以便能够找到与答案的开始和结束相对应的标记。"
2060,We want those tokens because they will be the labels we pass through our model.,အဲဒီ token တွေကို ကျွန်တော်တို့ လိုချင်တယ်၊ ဘာလို့လဲဆိုတော့ ဒါတွေက ကျွန်တော်တို့ရဲ့ မော်ဒယ်ထဲ ထည့်သွင်းမယ့် label တွေ ဖြစ်လာမှာ ဖြစ်လို့ပဲ။,"我们想要这些标志, 因为它们是我们通过我们的模型的标签。"
2061,"In a one-hot encoded version, here is what they look like.",one-hot encoded ပုံစံနဲ့ဆိုရင် သူတို့ပုံစံက ဒီလိုပါပဲ။,"在一热编码的版本, 这是他们的样子。"
2062,"If the context we have does not contain the answer, we set the two labels to the index of the CLS token.",ကျွန်တော်တို့မှာရှိတဲ့ context မှာ အဖြေမပါရင် label နှစ်ခုလုံးကို CLS token ရဲ့ index ကို သတ်မှတ်လိုက်တယ်။,"如果上下文没有包含答案, 我们就会将两个标签设置为 CLS 符号的索引 。"
2063,We also do this if the context only partially contains the answer.,context က အဖြေကို တစ်စိတ်တစ်ပိုင်းပဲ ပါဝင်နေရင်လည်း ဒီလို လုပ်တယ်။,"如果上下文仅部分包含答案,我们也这样做。"
2064,"In terms of code, here is how we can do it.",Code အရဆိုရင် ဒီလို လုပ်နိုင်တယ်။,"就代码而言,这是我们如何做到的。"
2065,"Using the sequence IDs of an input, we can determine the beginning and the end of the context.",input ရဲ့ sequence ID တွေကို သုံးပြီး context ရဲ့ အစနဲ့ အဆုံးကို ဆုံးဖြတ်နိုင်တယ်။,"使用输入的序列代号,我们可以确定上下文的开始和结束。"
2066,"Then, we know if we have to return to the CLS position for the two labels or we determine the position of the first and last tokens of the answer.",ပြီးရင် label နှစ်ခုလုံးအတွက် CLS အနေအထားကို ပြန်ပေးရမလား ဒါမှမဟုတ် အဖြေရဲ့ ပထမနဲ့ နောက်ဆုံး token တွေရဲ့ အနေအထားကို ဆုံးဖြတ်ရမလားဆိုတာ သိနိုင်တယ်။,"然后,我们知道,我们是否必须回到CLS的位置,以获得两个标签,或者确定答案的第一和最后象征的位置。"
2067,We can check it works properly on our previous example.,ကျွန်တော်တို့ရဲ့ အရင်ဥပမာပေါ်မှာ ကောင်းကောင်း အလုပ်လုပ်လား စစ်ဆေးနိုင်တယ်။,我们可以按照我们以前的例子来检查它是否正常。
2068,"Putting it all together looks like this big function, which we can apply to our datasets with the map method.",ဒါတွေအားလုံးကို စုစည်းလိုက်ရင် ဒီလို ကြီးမားတဲ့ function ပုံစံဖြစ်ပြီး ဒါကို map နည်းလမ်းနဲ့ ကျွန်တော်တို့ရဲ့ dataset တွေပေါ်မှာ အသုံးချနိုင်တယ်။,把它们一起组合起来 看起来像一个大功能 我们可以用地图方法 应用到我们的数据集中
2069,"Since we applied padding during the tokenization, we can then use this directly as the trainer or apply the to_tf_dataset method to use Keras.fit.",tokenization လုပ်နေစဉ်မှာ padding ကို သုံးခဲ့တဲ့အတွက် ဒါကို Trainer အဖြစ် တိုက်ရိုက် သုံးနိုင်တယ် ဒါမှမဟုတ် Keras.fit ကို သုံးဖို့ to_tf_dataset နည်းလမ်းကို အသုံးချနိုင်တယ်။,"由于我们在象征性化期间应用了贴板, 我们可以直接使用这个作为训练员, 或者使用to_tf_dataset 方法来使用 Keras. fit 。"
2070,The post-processing step in a question answering task.,မေးခွန်းဖြေဆိုတဲ့ အလုပ်မှာ နောက်ဆက်တွဲ စီမံဆောင်ရွက်မှု အဆင့် (post-processing) အကြောင်း ပြောကြမယ်။,后处理步骤在回答问题的任务中。
2071,"When doing question answering, the processing of the initial dataset implies splitting examples in several features, which may or may not contain the answer.",မေးခွန်းဖြေဆိုတဲ့အခါ မူလဒေတာအတွဲကို စီမံဆောင်ရွက်တာက ဥပမာတွေကို အဖြေ ပါချင်လည်းပါမယ်၊ မပါချင်လည်း မပါဘူး၊ အဲဒီလို feature အများအပြား ခွဲထုတ်တာကို ဆိုလိုတယ်။,"在回答问题时,处理最初的数据集意味着在几个方面有分裂的例子,这些例子可能包含答案,也可能不包含答案。"
2072,"Passing those features through the model will give us logits for the start and end positions, since our labels are the indices of the token that correspond to the start and end the answer.",အဲဒီ feature တွေကို မော်ဒယ်ထဲ ဖြတ်သန်းပို့လိုက်ရင် စတင်တဲ့နဲ့ ပြီးဆုံးတဲ့ နေရာတွေအတွက် logit တွေ ရလာလိမ့်မယ်၊ ဘာလို့လဲဆိုတော့ ကျွန်တော်တို့ရဲ့ label တွေက အဖြေရဲ့ အစနဲ့အဆုံးကို ကိုက်ညီတဲ့ token တွေရဲ့ အညွှန်းတွေ ဖြစ်နေလို့လေ။,"通过模型传递这些特征将给我们起始位置和结束位置的登录记录,因为我们的标签是标志的索引,与开始和结束答案相对应。"
2073,"We must then somehow convert those logits into an answer, and then pick one of the various answers each feature gives to be the answer for a given example.",အဲဒီနောက် အဲဒီ logit တွေကို အဖြေတစ်ခုအဖြစ် ပြောင်းလဲပြီး feature တစ်ခုစီက ပေးတဲ့ အဖြေအမျိုးမျိုးထဲက တစ်ခုကို ရွေးထုတ်ရမယ်၊ အဲဒါက ပေးထားတဲ့ ဥပမာတစ်ခုအတွက် အဖြေ ဖြစ်သွားတာပေါ့။,"然后,我们必须以某种方式将这些登录转换成一个答案, 然后选择每个特性给定的答案中的一个, 来回答一个特定的例子。"
2074,"For the processing step, you should refer to the video linked below.",စီမံဆောင်ရွက်တဲ့ အဆင့်အတွက် အောက်မှာ လင့်ခ်ချိတ်ထားတဲ့ ဗီဒီယိုကို ကြည့်သင့်တယ်။,"对于处理步骤,请参考以下链接的视频。"
2075,"It's not very different for validation, we just need to add a few lines to keep track of two things.",စိစစ်အတည်ပြုဖို့အတွက်က သိပ်မကွာခြားပါဘူး၊ အချက်နှစ်ချက်ကို မှတ်သားထားဖို့ စာကြောင်းအနည်းငယ် ထပ်ထည့်ဖို့ပဲ လိုတယ်။,"这在验证方面没有很大区别, 我们只需要添加几行来追踪两件事。"
2076,"Instead of discarding the offset mappings, we keep them, and also include in them the information of where the context is by setting the offsets of the special tokens and the question to None.",offset mappings တွေကို ပယ်ဖျက်မယ့်အစား သိမ်းထားမယ်၊ ပြီးတော့ အထူး token တွေနဲ့ မေးခွန်းတွေရဲ့ offset တွေကို None လို့ သတ်မှတ်ပေးခြင်းအားဖြင့် context ဘယ်နေရာမှာ ရှိတယ်ဆိုတဲ့ အချက်အလက်ကိုပါ ထည့်သွင်းထားတယ်။,"我们不放弃平面图谱,而是保留这些图谱,并在图文中加入有关背景的信息,将特别标牌的补分和问题无一提及。"
2077,"Then we also keep track of the example ID for each feature, to be able to map back feature to the examples that they originated from.",ပြီးတော့ feature တစ်ခုစီအတွက် ဥပမာ ID ကိုပါ မှတ်သားထားတယ်၊ ဒါမှ အဲဒီ feature တွေ ဘယ်ဥပမာကနေ ဆင်းသက်လာတယ်ဆိုတာ ပြန်လည် ဆက်စပ်နိုင်မှာပေါ့။,"然后我们还要追踪每个特征的示例ID, 以便能够将特征映射回它们从中产生的例子。"
2078,"If you don't want to compute the validation loss, you won't need to include all the special code that we used to create the labels.",စိစစ်အတည်ပြုတဲ့ loss ကို မတွက်ချင်ဘူးဆိုရင်တော့ label တွေ ဖန်တီးဖို့ ကျွန်တော်တို့ သုံးခဲ့တဲ့ အထူး code တွေအားလုံးကို ထည့်ဖို့ မလိုအပ်ပါဘူး။,"如果您不想计算验证损失, 您不需要包含我们用来创建标签的所有特殊代码 。"
2079,"With this done, we can apply that preprocessing function using the map method.",ဒီအဆင့်ပြီးတာနဲ့ အဲဒီ preprocessing function ကို map method ကို သုံးပြီး အသုံးချနိုင်တယ်။,"完成这项工作后,我们可以使用地图方法应用该预处理功能。"
2080,We take the SQUAD dataset like in the preprocessing for question-answering video.,မေးခွန်းဖြေဆိုခြင်းအတွက် preprocessing ဗီဒီယိုမှာလိုပဲ SQUAD ဒေတာအတွဲကို ယူသုံးမယ်။,我们使用SQUAD数据集 就像预处理中的 问答视频。
2081,"Once this is done, the next step is to create our model.",ဒါပြီးတာနဲ့ နောက်တစ်ဆင့်က ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို ဖန်တီးဖို့ပဲ။,"一旦这样做,下一步就是建立我们的模式。"
2082,"We use the default model behind the question-answering pipeline here, but you should use any model you want to evaluate.",ဒီမှာ မေးခွန်းဖြေဆိုခြင်း ပိုက်လိုင်းနောက်ကွယ်က မူလမော်ဒယ်ကို သုံးပါတယ်၊ ဒါပေမယ့် သင်အကဲဖြတ်ချင်တဲ့ မော်ဒယ်ကို သုံးသင့်ပါတယ်။,"我们在这里使用解答管道背后的默认模式, 但你应该使用任何您想要评估的模式 。"
2083,"We'll run a manual evaluation loop, so we create a PyTorch DataLoader with our features.",ကျွန်တော်တို့ လက်စွဲ စိစစ်အတည်ပြုမှု loop တစ်ခုကို လုပ်ဆောင်မှာမို့ ကျွန်တော်တို့ရဲ့ feature တွေနဲ့ PyTorch DataLoader တစ်ခုကို ဖန်တီးမယ်။,"我们将运行一个手动评估循环, 所以我们创建一个带有我们特征的 PyTorrch数据操作器。"
2084,"With it, we can compute and gather all the start and end logits like this, with a standard PyTorch evaluation loop.",ဒီ DataLoader နဲ့ဆိုရင် ဒီလိုမျိုး စံပြ PyTorch စိစစ်အတည်ပြုမှု loop နဲ့ အစနဲ့အဆုံး logit တွေအားလုံးကို တွက်ချက်ပြီး စုဆောင်းနိုင်တယ်။,"用它,我们可以计算并收集所有的开始和结束记录, 用标准的PyTorrch评估环。"
2085,"With this done, we can really dive into the post-processing.",ဒါပြီးတာနဲ့ post-processing ကို တကယ်တမ်း စူးစိုက်လေ့လာနိုင်ပြီ။,"完成这个之后,我们就能真正跳入后处理。"
2086,"First, we'll need a map from example to features, which we can create like this.",ပထမဆုံးအနေနဲ့ ဥပမာကနေ feature တွေဆီကို ပြသတဲ့ မြေပုံတစ်ခု လိုအပ်ပါတယ်၊ အဲဒါကို ဒီလို ဖန်တီးနိုင်တယ်။,"首先,我们需要一张地图,从示例到特征, 我们可以创造出这样的地图。"
2087,"Now, for the main part of the post-processing, let's see how to extract an answer from the logits.",အခု post-processing ရဲ့ အဓိကအပိုင်းအတွက် logit တွေကနေ အဖြေတစ်ခုကို ဘယ်လို ထုတ်ယူမလဲ ကြည့်ရအောင်။,"现在,对于后处理的主要部分, 让我们来看看如何从日志中提取答案 。"
2088,"We could just take the best index for the start and end logits and be done, but if our model predicts something impossible, like tokens in the question, we'll look at more of the logits.",စတင်တဲ့နဲ့ ပြီးဆုံးတဲ့ logit တွေအတွက် အကောင်းဆုံး index ကို ယူလိုက်ရုံနဲ့ ပြီးသွားနိုင်ပါတယ်၊ ဒါပေမယ့် ကျွန်တော်တို့ရဲ့ မော်ဒယ်က မေးခွန်းထဲက token တွေလိုမျိုး မဖြစ်နိုင်တဲ့အရာတစ်ခုကို ခန့်မှန်းလိုက်ရင် logit တွေကို ပိုပြီးကြည့်ဖို့ လိုမယ်။,"我们可以只用最好的索引 来开始和结束登录 并完成, 但如果我们的模型 预测一些不可能的事情, 像问题中的标记, 我们将看到更多的记录。"
2089,"Note that in the question-answering pipeline, we attributed score to each answer based on the probabilities, which we did not compute here.",သတိပြုရမှာက မေးခွန်းဖြေဆိုခြင်း ပိုက်လိုင်းမှာ ကျွန်တော်တို့က အဖြေတစ်ခုစီကို ဖြစ်နိုင်ခြေတွေပေါ် မူတည်ပြီး score တွေ သတ်မှတ်ခဲ့တာပါ၊ အဲဒါကို ဒီမှာ မတွက်ချက်ခဲ့ဘူး။,"请注意,在问答管道中,我们根据概率对每个答案都进行了评分,我们在此没有计算概率。"
2090,"In terms of logits, the multiplication we had in the scores becomes an addition.",logit တွေနဲ့ ပြောရရင် score တွေမှာ ရှိခဲ့တဲ့ မြှောက်ခြင်းက ပေါင်းခြင်း ဖြစ်သွားတယ်။,"在登录方面,分数中的乘法 变成了一个附加值"
2091,"To go fast, we don't look at all possible start and end logits, but the 20 best one is enough.",မြန်မြန်လုပ်ဖို့အတွက် ဖြစ်နိုင်တဲ့ အစနဲ့အဆုံး logit တွေအားလုံးကို မကြည့်တော့ဘူး၊ အကောင်းဆုံး ၂၀ က လုံလောက်ပါတယ်။,"要快速前进,我们不看 所有可能的开始和结束登录, 但20个最好的一个就够了。"
2092,We ignore the logits that spawn impossible answers or answer that are too long.,မဖြစ်နိုင်တဲ့ အဖြေတွေ ဒါမှမဟုတ် အရမ်းရှည်တဲ့ အဖြေတွေ ထုတ်ပေးတဲ့ logit တွေကို လျစ်လျူရှုတယ်။,"我们忽略了那些导致无法回答或回答的日志,那些答案太长了。"
2093,"As we saw in the preprocessing, the labels 0,0 correspond to a no answer.","preprocessing မှာ မြင်ခဲ့ရတဲ့အတိုင်းပဲ label 0,0 က အဖြေမရှိခြင်းကို ကိုက်ညီတယ်။","正如我们在预处理中看到的, 标签0,0对应一个无答案。"
2094,Otherwise we use the offsets to get the answer inside the context.,မဟုတ်ရင်တော့ context ထဲက အဖြေကို ရဖို့ offsets တွေကို သုံးတယ်။,"否则,我们用抵消来获得 答案在上下文内。"
2095,"Let's have a look at the predicted answer for the first feature, which is the answer with the best score or the best logit score since the SoftMax is an increasing function.",ပထမ feature အတွက် ခန့်မှန်းထားတဲ့ အဖြေကို ကြည့်ရအောင်၊ အဲဒါက SoftMax က တိုးပွားနေတဲ့ function ဖြစ်တာကြောင့် အကောင်းဆုံး score ဒါမှမဟုတ် အကောင်းဆုံး logit score ရှိတဲ့ အဖြေပဲ ဖြစ်တယ်။,"让我们来看看第一个功能的预测答案, 即最佳分数或最佳日志分数的答案, 因为SoftMax是一个不断增长的函数。"
2096,The model got it right.,မော်ဒယ် မှန်သွားပြီ။,模型是对的
2097,"Next we just have to loop this for every example, picking for each the answer with the best logit score in all the features the example generated.",နောက်တစ်ခုကတော့ ဥပမာတစ်ခုစီအတွက် ဒီ loop ကို လုပ်ဆောင်ရုံပါပဲ၊ ဥပမာက ထုတ်ပေးတဲ့ feature အားလုံးထဲက အကောင်းဆုံး logit score ရှိတဲ့ အဖြေကို ရွေးချယ်ရမယ်။,"接下来,我们只需环绕每个例子, 选择每个答案, 并选择每个答案, 在所有功能中, 最佳登录分数, 生成的示例 。"
2098,Now you know how to get answers from your model prediction.,အခု သင့်မော်ဒယ်ရဲ့ ခန့်မှန်းချက်ကနေ အဖြေတွေ ဘယ်လိုရယူရမယ်ဆိုတာ သိသွားပါပြီ။,现在你知道如何从模型预测中得到答案了
2099,The post-processing step in a question-answering task.,မေးခွန်းဖြေဆိုတဲ့ အလုပ်မှာ နောက်ဆက်တွဲ စီမံဆောင်ရွက်မှု အဆင့် အကြောင်း ပြောကြမယ်။,后处理步骤的问答任务。
2100,"Passing those features through the model will give us logits for the start and end positions, since our labels are the indices of the tokens that correspond to the start and end the answer.",အဲဒီ feature တွေကို မော်ဒယ်ထဲ ဖြတ်သန်းပို့လိုက်ရင် စတင်တဲ့နဲ့ ပြီးဆုံးတဲ့ နေရာတွေအတွက် logit တွေ ရလာလိမ့်မယ်၊ ဘာလို့လဲဆိုတော့ ကျွန်တော်တို့ရဲ့ label တွေက အဖြေရဲ့ အစနဲ့အဆုံးကို ကိုက်ညီတဲ့ token တွေရဲ့ အညွှန်းတွေ ဖြစ်နေလို့လေ။,"通过模型传递这些特征将给我们起始位置和结束位置的登录记录,因为我们的标签是标志的索引,与开始和结束答案相对应。"
2101,"It's not very different for validation, we just need to add a few lines to keep track of two things: instead of discarding the offset mappings, we keep them, and also include in them the information of where the context is by setting the offsets of the special tokens and the question to None.",စိစစ်အတည်ပြုဖို့အတွက်က သိပ်မကွာခြားပါဘူး၊ အချက်နှစ်ချက်ကို မှတ်သားထားဖို့ စာကြောင်းအနည်းငယ် ထပ်ထည့်ဖို့ပဲ လိုတယ်၊ offset mappings တွေကို ပယ်ဖျက်မယ့်အစား သိမ်းထားမယ်၊ ပြီးတော့ အထူး token တွေနဲ့ မေးခွန်းတွေရဲ့ offset တွေကို None လို့ သတ်မှတ်ပေးခြင်းအားဖြင့် context ဘယ်နေရာမှာ ရှိတယ်ဆိုတဲ့ အချက်အလက်ကိုပါ ထည့်သွင်းထားတယ်။,"这在验证方面没有很大区别, 我们只需要添加几行来追踪两件事: 而不是丢弃抵消绘图, 而是保留它们, 并在其中加入背景信息, 通过设置特殊标志的抵消和问题为零。"
2102,"With the to_tf_dataset method, we can just sent our processed dataset to model.predict, and we directly get our start and end logits for the whole dataset as NumPy arrays.",to_tf_dataset method ကို သုံးပြီး ကျွန်တော်တို့ စီမံထားတဲ့ ဒေတာအတွဲကို model.predict ကို ပို့လိုက်ရုံပါပဲ၊ ပြီးတော့ ဒေတာအတွဲတစ်ခုလုံးအတွက် အစနဲ့အဆုံး logit တွေကို NumPy array အနေနဲ့ တိုက်ရိုက် ရနိုင်ပါတယ်။,"使用 to_tf_dataset 方法, 我们可以将处理过的数据集发送到模型. pridict, 然后我们直接获得整个数据集的开始和结束日志, 作为 NumPy 矩阵 。"
2103,"We could just take the best index for the start and end logits and be done, but if our model predicts something impossible, like tokens in the questions, we will look at more of the logits.",စတင်တဲ့နဲ့ ပြီးဆုံးတဲ့ logit တွေအတွက် အကောင်းဆုံး index ကို ယူလိုက်ရုံနဲ့ ပြီးသွားနိုင်ပါတယ်၊ ဒါပေမယ့် ကျွန်တော်တို့ရဲ့ မော်ဒယ်က မေးခွန်းထဲက token တွေလိုမျိုး မဖြစ်နိုင်တဲ့အရာတစ်ခုကို ခန့်မှန်းလိုက်ရင် logit တွေကို ပိုပြီးကြည့်ဖို့ လိုမယ်။,"我们可以只用最好的索引来开始和结束登录,然后完成, 但是如果我们的模型预测了不可能的事情, 比如问题中的标记, 我们将看到更多的记录。"
2104,"Note that in the question-answering pipeline, we attributed the score to each answer based on the probabilities, which we did not compute here.",သတိပြုရမှာက မေးခွန်းဖြေဆိုခြင်း ပိုက်လိုင်းမှာ ကျွန်တော်တို့က အဖြေတစ်ခုစီကို ဖြစ်နိုင်ခြေတွေပေါ် မူတည်ပြီး score တွေ သတ်မှတ်ခဲ့တာပါ၊ အဲဒါကို ဒီမှာ မတွက်ချက်ခဲ့ဘူး။,"请注意,在问答管道中,我们根据概率将得分归结于每一个答案,我们在此没有计算概率。"
2105,"To go fast, we don't look at all possible start and end logits, but the 20 best ones.",မြန်မြန်လုပ်ဖို့အတွက် ဖြစ်နိုင်တဲ့ အစနဲ့အဆုံး logit တွေအားလုံးကို မကြည့်တော့ဘူး၊ အကောင်းဆုံး ၂၀ က လုံလောက်ပါတယ်။,"要快速前进,我们不看 所有可能的开始和结束登录, 但20个最好的。"
2106,"As we saw in the preprocessing, the label ""0, 0"" correspond to no answer, otherwise we use the offset to get the answer inside the context.","preprocessing မှာ မြင်ခဲ့ရတဲ့အတိုင်းပဲ label ""0, 0"" က အဖြေမရှိခြင်းကို ကိုက်ညီတယ်၊ မဟုတ်ရင်တော့ context ထဲက အဖြေကို ရဖို့ offset ကို သုံးတယ်။","正如我们在预处理过程中看到的那样,“0,0”的标签对应于无答案,否则我们用偏移来获得上下文中的答案。"
2107,"Let's have a look at the predicted answer for the first feature, which is the answer with the best score, or the best logit score since the SoftMax is an increasing function.",ပထမ feature အတွက် ခန့်မှန်းထားတဲ့ အဖြေကို ကြည့်ရအောင်၊ အဲဒါက SoftMax က တိုးပွားနေတဲ့ function ဖြစ်တာကြောင့် အကောင်းဆုံး score ဒါမှမဟုတ် အကောင်းဆုံး logit score ရှိတဲ့ အဖြေပဲ ဖြစ်တယ်။,"让我们来看看第一个特征的预测答案, 即最佳分数的答案, 或者自软式马克思功能不断增长以来的最佳日志分数。"
2108,"Next, we just have to loop this for every example, picking for each the answer with the best logit score in all the features the example generated.",နောက်တစ်ခုကတော့ ဥပမာတစ်ခုစီအတွက် ဒီ loop ကို လုပ်ဆောင်ရုံပါပဲ၊ ဥပမာက ထုတ်ပေးတဲ့ feature အားလုံးထဲက အကောင်းဆုံး logit score ရှိတဲ့ အဖြေကို ရွေးချယ်ရမယ်။,"接下来,我们只需环绕每个例子, 选择每个答案, 以所有特征中的最佳日志分数, 来选择例子生成的所有特征 。"
2109,Now you know how to get answers from your model predictions.,အခု သင့်မော်ဒယ်ရဲ့ ခန့်မှန်းချက်ကနေ အဖြေတွေ ဘယ်လိုရယူရမယ်ဆိုတာ သိသွားပါပြီ။,现在你知道如何从模型预测中得到答案了
2110,"In a lot of our examples, you're going to see DataCollators popping up over and over.",ကျွန်တော်တို့ရဲ့ ဥပမာတွေ အများကြီးမှာ DataCollators တွေကို ခဏခဏ တွေ့ရပါလိမ့်မယ်။,"在我们的许多例子中, 你会看到数据收集器 一次又一次地跳出来。"
2111,"They're used in both PyTorch and TensorFlow workflows, and maybe even in JAX, but no-one really knows what's happening in JAX.",သူတို့ကို PyTorch နဲ့ TensorFlow နှစ်ခုလုံးရဲ့ အလုပ်လုပ်ပုံတွေမှာ သုံးပါတယ်၊ JAX မှာတောင် ဖြစ်နိုင်တယ်၊ ဒါပေမယ့် JAX မှာ ဘာဖြစ်နေလဲ ဘယ်သူမှ တိတိကျကျ မသိကြသေးဘူး။,"它们被用于PyTorrch和Tensor Flow的工作流程, 甚至可能用于JAX, 但是没有人真正知道JAX发生的事情。"
2112,"We do have a research team working on it though, so maybe they'll tell us soon.",ကျွန်တော်တို့မှာ သုတေသနအဖွဲ့က လုပ်နေပါတယ်၊ မကြာခင် ပြောပြပေးနိုင်လိမ့်မယ်လို့ ယူဆရတယ်။,"我们确实有一个研究小组在研究它, 所以也许他们会很快告诉我们。"
2113,But coming back on topic.,ကဲ၊ အဓိက အကြောင်းအရာကို ပြန်လာကြရအောင်။,但又回到话题上
2114,What are data collators?,Data collator ဆိုတာ ဘာလဲ။,什么是数据核对器?
2115,Data collators collate data.,Data collator တွေက ဒေတာတွေကို စုစည်းပေးတယ်။,数据核对器对数据进行核对。
2116,That's not that helpful.,ဒါက သိပ် အထောက်အကူ မဖြစ်ဘူးနော်။,那可没那么有用
2117,"But to be more specific, they put together a list of samples into a single training minibatch.",ပိုပြီး တိတိကျကျပြောရရင် သူတို့က sample တွေရဲ့ စာရင်းကို တစ်ခုတည်းသော training minibatch အဖြစ် ပေါင်းစပ်ပေးတယ်။,"更具体地说,他们把样本清单 放在一个训练小包里。"
2118,"For some tasks, the data collator can be very straightforward.",အချို့လုပ်ငန်းတွေအတွက် data collator က အရမ်းရိုးရှင်းနိုင်တယ်။,"对于某些任务,数据核对器可以非常直截了当。"
2119,"For example, when you're doing sequence classification, all you really need from your data collator is that it pads your samples to the same length and concatenates them into a single Tensor.",ဥပမာအားဖြင့် sequence classification လုပ်တဲ့အခါ သင့် data collator ကနေ တကယ်လိုအပ်တာက သင့် sample တွေကို အရှည်တူအောင် pad လုပ်ပေးဖို့နဲ့ သူတို့ကို Tensor တစ်ခုတည်းအဖြစ် ပေါင်းစပ်ပေးဖို့ပါပဲ။,"例如,当你在进行序列分类时, 你真正需要的数据核对器 将样本插入相同的长度 将其结合成一个单一的Tensor。"
2120,"But for other workflows, data collators can be quite complex as they handle some of the preprocessing needed for that particular task.",ဒါပေမယ့် တခြား အလုပ်လုပ်ပုံတွေအတွက်တော့ data collator တွေက အဲဒီလုပ်ငန်းအတွက် လိုအပ်တဲ့ preprocessing အချို့ကို ကိုင်တွယ်တဲ့အတွက် အတော်လေး ရှုပ်ထွေးနိုင်တယ်။,"但对于其他工作流程而言,数据核对器可能相当复杂,因为它们处理这一具体任务所需的某些预处理。"
2121,"So, if you want to use a data collator, for PyTorch users, you usually pass the data collator to your Trainer object.",ဒါကြောင့် data collator ကို သုံးချင်တယ်ဆိုရင် PyTorch သုံးစွဲသူတွေအတွက် data collator ကို သင့် Trainer object ဆီ ပေးပို့လေ့ရှိတယ်။,"所以,如果你想使用数据核对器, 对于 PyTorrch 用户来说, 您通常会将数据核对器传送到您的教练对象 。"
2122,"In TensorFlow, it's a bit different.",TensorFlow မှာတော့ နည်းနည်း ကွာခြားတယ်။,"在Tensor Flow,有点不同。"
2123,The easiest way to use a data collator is to pass it to the to_tf_dataset method of your dataset.,data collator ကို အလွယ်ဆုံးသုံးနိုင်တဲ့ နည်းလမ်းကတော့ သင့် dataset ရဲ့ to_tf_dataset method ကို ပေးပို့လိုက်တာပါပဲ။,使用数据核对器最容易的方法是将其传送到数据集的 to_tf_dataset 方法。
2124,And this will give you a tensorflow_tf_data.dataset that you can then pass to model.fit.,ဒီလိုလုပ်ခြင်းကနေ model.fit ကို ပေးပို့နိုင်တဲ့ tensorflow_tf_data.dataset ကို ရရှိပါလိမ့်မယ်။,"这将为您提供一个 shourflow_ tf_ data. datas 数据集, 然后您可以传送到 model. fit 。"
2125,You'll see these approaches used in the examples and notebooks throughout this course.,ဒီသင်တန်းတစ်လျှောက်လုံးက ဥပမာတွေနဲ့ notebook တွေမှာ ဒီချဉ်းကပ်မှုတွေကို တွေ့ရပါလိမ့်မယ်။,你会看到这些方法 在整个课程的范例和笔记本中使用。
2126,Also note that all of our collators take a return_tensors argument.,ကျွန်တော်တို့ရဲ့ collator တွေအားလုံးဟာ return_tensors argument ကို ယူတယ်ဆိုတာကိုလည်း သတိပြုပါ။,"请注意,我们所有的校对者 都得出了返回的加速度的论断。"
2127,"You can set this to ""pt"" to get PyTorch Tensors, ""tf"" to get TensorFlow Tensors, or ""np"" to get Numpy arrays.","PyTorch Tensor တွေရဖို့ ""pt""၊ TensorFlow Tensor တွေရဖို့ ""tf"" ဒါမှမဟုတ် Numpy array တွေရဖို့ ""np"" လို့ သတ်မှတ်နိုင်တယ်။",您可以设置此选项为“ pt” 以获取 PyTorrch 火苗、 Tf 以获取 Tensor Flow 火苗、 或“ np ” 以获取 Numpy 阵列 。
2128,"For backward compatibility reasons, the default value is ""pt"", so PyTorch users don't even have to set this argument most of the time.","နောက်ပြန်လိုက်ဖက်မှု အကြောင်းပြချက်တွေကြောင့် မူလတန်ဖိုးက ""pt"" ဖြစ်နေတာမို့ PyTorch သုံးစွဲသူတွေက အချိန်အများစုမှာ ဒီ argument ကို သတ်မှတ်စရာတောင် မလိုဘူး။","由于后向兼容性的原因,默认值是“pt”,所以PyTorrch用户甚至大部分时间都不必设置这个参数。"
2129,"And so as a result, they're often totally unaware that this argument even exists.",ဒါကြောင့် ရလဒ်အနေနဲ့ သူတို့က ဒီ argument ရှိနေတာကိုတောင် လုံးဝ မသိကြဘူး။,"因此,结果,他们常常完全不知道 这个论点甚至存在。"
2130,We can learn something from this which is that the beneficiaries of privilege are often the most blind to its existence.,ဒီကနေ သင်ခန်းစာယူနိုင်တာကတော့ အခွင့်ထူးခံရသူတွေဟာ အဲဒီအခွင့်ထူး တည်ရှိနေတာကို မမြင်နိုင်ကြဘူးဆိုတာပါပဲ။,"我们可以从中学到一些东西,那就是特权的受益者往往最不了解特权的存在。"
2131,"But okay, coming back.",ဒါပေမယ့် ကဲ၊ ပြန်လာရအောင်။,好吧 回来吧
2132,Let's see how some specific data collators work in action.,သီးခြား data collator အချို့ ဘယ်လိုအလုပ်လုပ်လဲ ကြည့်ကြရအောင်။,让我们看看某些具体的数据核对器如何在行动中发挥作用。
2133,"Although again, remember if none of the built-in data collators do what you need, you can always write your own and they're often quite short.",ထပ်ပြောရရင် တည်ဆောက်ပြီးသား data collator တွေထဲက ဘယ်သူမှ သင့်လိုအပ်ချက်ကို မဖြည့်ဆည်းပေးနိုင်ရင် သင်ကိုယ်တိုင် ရေးလို့ရတယ်ဆိုတာ သတိရပါ၊ ပြီးတော့ သူတို့က များသောအားဖြင့် အရမ်းတိုပါတယ်။,"不过,记住,如果内置数据核对器 都没有做你需要的, 你总是可以写自己的, 而且它们常常很短。"
2134,"So first, we'll see the ""basic"" data collators.","ပထမဆုံးအနေနဲ့ ""အခြေခံ"" data collator တွေကို ကြည့်ကြမယ်။","首先,我们将看到“基本”数据收集器。"
2135,These are DefaultDataCollator and DataCollatorWithPadding.,ဒါတွေက DefaultDataCollator နဲ့ DataCollatorWithPadding တို့ ဖြစ်ပါတယ်။,这些是默认数据采集器和数据采集器与粘贴器。
2136,These are the ones you should use if your labels are straightforward and your data doesn't need any special processing before being ready for training.,သင့် label တွေက ရိုးရှင်းပြီး ဒေတာက လေ့ကျင့်ဖို့အတွက် အထူးစီမံဆောင်ရွက်မှု မလိုအပ်ဘူးဆိုရင် ဒါတွေကို သုံးသင့်တယ်။,如果你的标签是直截了当的 你的数据不需要特殊处理 就能准备好接受训练
2137,"Notice that because different models have different padding tokens, DataCollatorWithPadding will need your model's Tokenizer so it knows how to pad sequences properly.",မော်ဒယ်တွေ မတူညီတဲ့ padding token တွေရှိတာကြောင့် DataCollatorWithPadding က သင့်မော်ဒယ်ရဲ့ Tokenizer ကို လိုအပ်ပါတယ်၊ ဒါမှ sequence တွေကို ဘယ်လို မှန်ကန်စွာ pad လုပ်ရမယ်ဆိုတာ သိမှာပေါ့။,"请注意,由于不同的模型有不同的贴布符号, 数据连接器与粘贴器将需要您的模型的调制器, 以便它知道如何正确粘贴序列。"
2138,"The default data collator doesn't need a Tokenizer to work, but it will as a result throw an error unless all of your sequences are the same length.",default data collator ကတော့ အလုပ်လုပ်ဖို့ Tokenizer မလိုအပ်ပေမယ့် သင့် sequence တွေအားလုံး အရှည်တူညီနေမှသာ အဆင်ပြေမှာ၊ မဟုတ်ရင် error ပြပါလိမ့်မယ်။,"默认数据校验器不需要调制器才能工作, 但结果会出错, 除非所有序列的长度相同 。"
2139,"So, you should be aware of that.",ဒါကို သင်သိထားသင့်တယ်။,"所以,你应该知道这一点。"
2140,Moving on though.,ဆက်သွားရအောင်။,继续吧
2141,"A lot of the other data collators aside from the basic two are, they're usually designed to handle one specific task.",အခြေခံနှစ်ခုကလွဲလို့ ကျန်တဲ့ data collator အများစုကတော့ သူတို့ဟာ များသောအားဖြင့် သီးခြားလုပ်ငန်းတစ်ခုကို ကိုင်တွယ်ဖို့ ရည်ရွယ်ပြီး ဒီဇိုင်းထုတ်ထားတာပါ။,"除了基本数据和基本数据之外, 许多其他的数据协调器, 通常设计它们来处理一个特定的任务。"
2142,"And so, I'm going to show a couple here.",ဒါကြောင့် ဒီမှာ နှစ်ခုလောက် ပြပေးမယ်။,"所以,我要在这里展示一对夫妇。"
2143,These are DataCollatorForTokenClassification and DataCollatorForSeqToSeq.,ဒါတွေက DataCollatorForTokenClassification နဲ့ DataCollatorForSeqToSeq တို့ ဖြစ်တယ်။,这些是数据采集器FokenClassification 和数据采集器ForSeqToSeq。
2144,And the reason these tasks need special collators is because their labels are variable in length.,ဒီလုပ်ငန်းတွေမှာ အထူး collator တွေ လိုအပ်ရတဲ့ အကြောင်းရင်းကတော့ သူတို့ရဲ့ label တွေက အရှည် မတည်ငြိမ်လို့ ဖြစ်တယ်။,这些任务需要特殊的校对器的原因是 它们的标签长度变化不定。
2145,"In token classification there's one label for each token, and so the length of the labels is the length of the sequence.",token classification မှာ token တစ်ခုစီအတွက် label တစ်ခုစီ ရှိပြီး label တွေရဲ့ အရှည်ဟာ sequence ရဲ့ အရှည်ပါပဲ။,"在代号分类中,每个代号有一个标签, 所以标签的长度是序列的长度。"
2146,"While in SeqToSeq the labels are a sequence of tokens that can be variable length, that can be very different from the length of the input sequence.",SeqToSeq မှာတော့ label တွေက အရှည် မတည်ငြိမ်တဲ့ token တွေရဲ့ sequence ဖြစ်ပြီး ထည့်သွင်း sequence ရဲ့ အရှည်နဲ့ လုံးဝ ကွာခြားနိုင်တယ်။,"在 SeqToSeq 中, 标签是可变长度的标记序列, 与输入序列的长度有很大不同 。"
2147,"So in both of these cases, we handle collating that batch by padding the labels as well, as you can see here in this example.",ဒါကြောင့် ဒီကိစ္စနှစ်ခုလုံးမှာ ဒီဥပမာမှာ မြင်ရတဲ့အတိုင်းပဲ label တွေကိုပါ pad လုပ်ခြင်းဖြင့် batch ကို စုစည်းပေးတယ်။,"因此,在这两种情况下, 我们处理整理 批次的拼贴标签, 以及你在这里看到的这个例子。"
2148,"So, inputs and the labels will need to be padded if we want to join samples of variable length into the same minibatch.",အရှည် မတည်ငြိမ်တဲ့ sample တွေကို minibatch တစ်ခုတည်းမှာ ပေါင်းချင်တယ်ဆိုရင် ထည့်သွင်းချက်တွေနဲ့ label တွေကို pad လုပ်ဖို့ လိုအပ်ပါတယ်။,"因此,投入和标签需要加插, 如果我们想将不同长度的样本加入同一小批中的话。"
2149,"That's exactly what the data collators and that's exactly what these data collators will do for us you know, for this particular task.",ဒါက data collator တွေ လုပ်ဆောင်ပေးမယ့်အရာပဲ၊ ဒီ data collator တွေက ဒီသီးခြားလုပ်ငန်းအတွက် ကျွန်တော်တို့အတွက် အဲဒါကို အတိအကျ လုပ်ပေးလိမ့်မယ်။,这正是数据核对器的作用 也是这些数据核对器将为我们做的工作 为了完成这个特殊的任务
2150,"So, there's one final data collator I want to show you as well just in this lecture.",ဒါ့အပြင် ဒီသင်ခန်းစာမှာ ကျွန်တော် နောက်ဆုံး data collator တစ်ခု ပြချင်သေးတယ်။,"所以,有一个最终的数据核对器 我想在这个讲座上展示给你们看。"
2151,And that's the DataCollatorForLanguageModeling.,ဒါကတော့ DataCollatorForLanguageModeling ဖြစ်ပါတယ်။,这是Language模型的数据解码器
2152,"So, it's very important, and it's firstly, because language models are just so foundational to do for everything we do with NLP these days.",ဒါက အရမ်းအရေးကြီးတယ်၊ ပထမအချက်ကတော့ language model တွေဟာ ဒီနေ့ခေတ် NLP မှာ ကျွန်တော်တို့ လုပ်သမျှ အရာအားလုံးအတွက် အခြေခံအုတ်မြစ် ဖြစ်နေလို့ပါ။,"所以,这是非常重要的,这是第一, 因为语言模型只是如此的基础性 做我们这些天在NLP做的一切。"
2153,"But secondly, because it has two modes that do two very different things.",ဒါပေမယ့် ဒုတိယအချက်ကတော့ သူမှာ လုံးဝကွဲပြားတဲ့ အရာနှစ်ခုကို လုပ်ဆောင်တဲ့ mode နှစ်ခု ပါဝင်နေလို့ ဖြစ်တယ်။,"但是,第二,因为它有两种模式, 做两种截然不同的事情。"
2154,So you choose which mode you want with the mlm argument.,mlm argument နဲ့ သင်လိုချင်တဲ့ mode ကို ရွေးချယ်နိုင်တယ်။,"所以,您要选择 mlm 参数的哪种模式 。"
2155,"Set it to True for masked language modeling, and set it to False for causal language modeling.",masked language modeling အတွက် True သတ်မှတ်ပြီး causal language modeling အတွက် False သတ်မှတ်ပါ။,"设置为真实语言, 用于掩码语言建模, 并设置为假语言, 用于因果语言建模 。"
2156,"So, collating data for causal language modeling is actually quite straightforward.",causal language modeling အတွက် ဒေတာ စုစည်းတာက တကယ်တော့ ရိုးရှင်းပါတယ်။,"因此,为因果语言建模整理数据其实很简单。"
2157,"The model is just making predictions for what token comes next, and so your labels are more or less just a copy of your inputs, and the collator will handle that and ensure that the inputs and labels are padded correctly.",မော်ဒယ်က ဘယ် token က နောက်လာမလဲဆိုတာ ခန့်မှန်းနေရုံပါပဲ၊ ဒါကြောင့် သင့် label တွေက သင့်ရဲ့ ထည့်သွင်းချက်တွေရဲ့ မိတ္တူလောက်ပဲ ရှိပြီး collator က အဲဒါကို ကိုင်တွယ်ကာ ထည့်သွင်းချက်တွေနဲ့ label တွေ မှန်ကန်စွာ pad လုပ်ထားကြောင်း သေချာစေတယ်။,"模型只是预测接下来的象征是什么, 所以你的标签或多或少只是你投入的复制件, 校对者会处理, 并确保输入和标签的填充正确。"
2158,"When you set mlm to True though, you get quite different behavior, that's different from any other data collator, and that's because setting mlm to True means masked language modeling and that means the labels need to be, you know, the inputs need to be masked.",ဒါပေမယ့် mlm ကို True သတ်မှတ်လိုက်ရင် တခြား data collator တွေနဲ့ ကွဲပြားတဲ့ အမူအကျင့်ကို တွေ့ရပါလိမ့်မယ်၊ mlm ကို True သတ်မှတ်တာက masked language modeling ကို ဆိုလိုပြီး ဒါက label တွေ လိုအပ်တယ်၊ ဆိုလိုတာက ထည့်သွင်းချက်တွေကို mask လုပ်ဖို့ လိုအပ်တယ်။,"当您设置 mlm 到 True 时, 您的行为会非常不同, 这和任何其他的数据协调器不同, 因为设置 mlm 到 True 意味着隐藏语言模型, 这意味着标签需要, 你知道, 输入需要被隐藏 。"
2159,"So, what does that look like?",ဒါက ဘယ်လိုပုံလဲ။,"那么,这看起来像什么?"
2160,"So, recall that in masked language modeling, the model is not predicting the next word, instead we randomly mask out some tokens and the model predicts all of them at once.",masked language modeling မှာ မော်ဒယ်က နောက်စကားလုံးကို ခန့်မှန်းနေတာ မဟုတ်ဘူးဆိုတာ သတိရပါ။ အဲဒီအစား ကျွန်တော်တို့က ကျပန်း token အချို့ကို ဖုံးကွယ်လိုက်ပြီး မော်ဒယ်က အဲဒါတွေအားလုံးကို တစ်ပြိုင်တည်း ခန့်မှန်းပေးတယ်။,"所以,请记住,在蒙面语言模型中,模型没有预测下一个词,相反,我们随机遮盖一些象征物,模型同时预测所有象征物。"
2161,"So, it tries to kinda fill in the blanks for those masked tokens.",ဒါကြောင့် သူက အဲဒီ ဖုံးကွယ်ထားတဲ့ token တွေအတွက် အကွက်ဖြည့်ဖို့ ကြိုးစားတယ်။,"所以,它试图填补空白 那些蒙面的标志。"
2162,But the process of random masking is surprisingly complex.,ဒါပေမယ့် ကျပန်း mask လုပ်ခြင်း လုပ်ငန်းစဉ်က မထင်မှတ်ထားလောက်အောင် ရှုပ်ထွေးပါတယ်။,但随机遮蔽的过程 令人惊讶地复杂。
2163,"If we follow the protocol from the original BERT paper, we need to replace some tokens with a masked token, some other tokens with a random token, and then keep a third set of tokens unchanged.",မူရင်း BERT စာတမ်းကနေ စည်းမျဉ်းကို လိုက်နာမယ်ဆိုရင် token အချို့ကို masked token နဲ့ အစားထိုးဖို့၊ တချို့ token တွေကို ကျပန်း token နဲ့ အစားထိုးဖို့၊ ပြီးတော့ တတိယ token အစုကို မပြောင်းလဲဘဲ ထားဖို့ လိုအပ်တယ်။,"如果我们遵循原始 BERT 纸上的协议, 我们需要用一个遮蔽的牌子替换一些标记, 其它的牌子则用随机的牌子替换, 然后保持第三组牌子不变 。"
2164,"Yeah, this is not the lecture to go into the specifics of that or why we do it.",ဒါက ဒီအသေးစိတ် ဒါမှမဟုတ် ဘာကြောင့် လုပ်တာလဲဆိုတာ ပြောပြဖို့ သင်ခန်းစာ မဟုတ်ပါဘူး။,"是啊,这不是讲 具体细节的讲座 或为什么我们这样做。"
2165,You can always check out the original BERT paper if you're curious.,သင်သိချင်ရင် မူရင်း BERT စာတမ်းကို အမြဲတမ်း ကြည့်နိုင်ပါတယ်။,"如果你好奇的话,你总可以看看原始的BERT纸。"
2166,It's well written. It's easy to understand.,ကောင်းကောင်းရေးထားပြီး နားလည်ရလွယ်တယ်။,"写得很好,很容易理解"
2167,The main thing to know here is that it can be a real pain and quite complex to implement that yourself.,ဒီမှာ သိထားရမယ့် အဓိကအချက်ကတော့ ဒါကို ကိုယ်တိုင် အကောင်အထည်ဖော်ဖို့က တကယ်ကို ခေါင်းစားစရာကောင်းပြီး ရှုပ်ထွေးနိုင်တယ်ဆိုတာပါပဲ။,"这里需要知道的主要事情是,自己实施这个原则可能是一种真正的痛苦和相当复杂的问题。"
2168,But DataCollatorForLanguageModeling will do it for you when you set mlm to True.,ဒါပေမယ့် mlm ကို True လို့ သတ်မှတ်လိုက်ရင် DataCollatorForLanguageModeling က သင့်အတွက် လုပ်ပေးလိမ့်မယ်။,"但是当您设置 mlm 到 True 时, Language Modeling 的数据协调器将会为您做 。"
2169,And that's an example of the more intricate preprocessing that some of our data collators do.,ဒါက ကျွန်တော်တို့ရဲ့ data collator အချို့ လုပ်ဆောင်ပေးတဲ့ ပိုမိုရှုပ်ထွေးတဲ့ preprocessing ဥပမာတစ်ခု ဖြစ်ပါတယ်။,这是我们一些数据核对员 更复杂的预处理的例子。
2170,And that's it!,ဒါပဲ!,就是这样!
2171,"So, this covers the most commonly used data collators and the tasks they're used for.",ဒါက အသုံးအများဆုံး data collator တွေနဲ့ သူတို့ အသုံးပြုတဲ့ လုပ်ငန်းတွေကို ဖော်ပြပေးထားတာပါ။,"因此,它覆盖了最常用的数据协调器 以及它们所使用的任务。"
2172,"And hopefully, now you'll know when to use data collators and which one to choose for your specific task.",အခုတော့ data collator တွေကို ဘယ်အချိန်မှာ သုံးရမယ်၊ သင့်ရဲ့ သီးခြားလုပ်ငန်းအတွက် ဘယ်ဟာကို ရွေးချယ်ရမယ်ဆိုတာ သိလောက်ပြီလို့ မျှော်လင့်ပါတယ်။,"并且希望,现在你知道什么时候使用数据校对器 以及选择哪个来完成你的具体任务。"
2173,In this video we'll learn the first things to do when you get an error.,ဒီဗီဒီယိုမှာတော့ error တစ်ခု ကြုံလာတဲ့အခါ ပထမဆုံး လုပ်သင့်တဲ့ အရာတွေကို လေ့လာကြမယ်။,"在这段影片中,如果你出错,我们会学到第一件事。"
2174,This is not throwing your laptop through the window.,ဒါက သင့် laptop ကို ပြတင်းပေါက်ကနေ ပစ်ချတာ မဟုတ်ဘူးနော်။,这不是扔你的笔记本电脑 穿过窗口。
2175,Let's say we want to use the question answering pipeline on a particular model and we get the following error.,ဥပမာအားဖြင့် မော်ဒယ်တစ်ခုပေါ်မှာ question answering pipeline ကို သုံးချင်ပြီး ဒီလို error မျိုး တွေ့ရတယ်လို့ ဆိုကြပါစို့။,假设我们想用一个特定模型的解答问题 来解答管道 就会有以下错误
2176,Errors in Python can appear overwhelming because you get so much information printed out but that's because Python is trying to help you the best it can to solve your problem.,Python မှာ error တွေက အရမ်းများတဲ့ အချက်အလက်တွေ ထွက်လာတာကြောင့် လွှမ်းမိုးနေသလို ထင်ရနိုင်တယ်၊ ဒါပေမယ့် Python က သင့်ပြဿနာကို ဖြေရှင်းဖို့ တတ်နိုင်သမျှ ကူညီနေတာကြောင့်ပါ။,"Python 的错误可能显得难以承受, 这是因为你得到了这么多的信息 打印出来,但那是因为 Python 正在尽力帮助你 解决你的问题。"
2177,"In this video, we'll see how to interpret the error report we get.",ဒီဗီဒီယိုမှာ ကျွန်တော်တို့ ရရှိတဲ့ error report ကို ဘယ်လို အဓိပ္ပာယ်ဖွင့်ဆိုရမလဲ ကြည့်မယ်။,"在这段视频中,我们会看到如何解释我们收到的错误报告。"
2178,The first thing to notice at the very top is that Python shows you with a clear arrow the line of code that triggers the error so you don't have to fiddle with your code and remove random lines to figure out where the error comes from.,အပေါ်ဆုံးမှာ ပထမဆုံး သတိထားရမှာက Python က မြှားလေးနဲ့ error ကို ဖြစ်စေတဲ့ code လိုင်းကို ရှင်းရှင်းလင်းလင်း ပြပေးထားတယ်၊ ဒါကြောင့် error ဘယ်ကလာတာလဲဆိုတာ သိဖို့ သင့် code ကို ရှုပ်ထွေးအောင်လုပ်ပြီး ကျပန်းလိုင်းတွေ ဖြုတ်နေစရာ မလိုဘူး။,最上面第一件要注意的事情是 Python 用清晰的箭头向您展示 触发错误的代码线 这样您就不用玩弄你的代码 并删除随机的线条 来找出错误的来源
2179,You have the answer in front of you right here.,သင့်ရှေ့မှာပဲ အဖြေရှိနေတယ်။,你面前有答案就在这里
2180,The errors you see below are a part of the code Python tried to execute while running the instruction.,အောက်မှာ သင်မြင်ရတဲ့ error တွေက Python က အဲဒီ ညွှန်ကြားချက်ကို လုပ်ဆောင်နေတုန်းမှာ ကြိုးစားခဲ့တဲ့ code ရဲ့ တစ်စိတ်တစ်ပိုင်း ဖြစ်တယ်။,您在下面看到的错误是 Python 运行指令时试图执行的代码的一部分 。
2181,"Here we are inside the pipeline function and zero came on this line while trying to execute the function check_tasks, which then raised the KeyError we see displayed.",ဒီမှာ ကျွန်တော်တို့ pipeline function ထဲမှာ ရှိနေပြီး check_tasks function ကို လုပ်ဆောင်ဖို့ ကြိုးစားနေတုန်းမှာ ဒီလိုင်းပေါ်မှာ error တစ်ခု ဖြစ်ခဲ့တယ်၊ အဲဒါက KeyError ကို ဖြစ်စေခဲ့တာပေါ့။,"我们在此进入管道功能, 零在这条线上, 试图执行此功能检查_ tasks, 并升起显示的 KeyError 。"
2182,"Note that Python tells you exactly where the function it's executing lives, so if you feel adventurous you can even go inspect the source code.",Python က သူ လုပ်ဆောင်နေတဲ့ function ဘယ်မှာ ရှိတယ်ဆိုတာ အတိအကျ ပြောပြပေးတယ်၊ ဒါကြောင့် စွန့်စားချင်တယ်ဆိုရင် source code ကိုတောင် သွားစစ်ဆေးနိုင်တယ်။,"请注意 Python 告诉你它执行生命的功能的确切位置, 所以如果你觉得很冒险, 你甚至可以去检查源代码。"
2183,"This whole thing is called the ""Traceback.""","ဒီအရာအားလုံးကို ""Traceback"" လို့ ခေါ်တယ်။","这整件事叫做""回溯"""
2184,"If you're running your code on Colab the Traceback is automatically minimized, so you have to click to expand it.",သင် code ကို Colab မှာ run နေတယ်ဆိုရင် Traceback က အလိုအလျောက် သေးငယ်နေတတ်တယ်၊ ဒါကြောင့် ချဲ့ကြည့်ဖို့ နှိပ်ရပါမယ်။,"如果你在Colab上运行您的代码 追踪器会自动最小化, 所以您必须点击才能扩展它 。"
2185,At the very end of the Traceback you finally get the actual error message.,Traceback ရဲ့ အောက်ဆုံးမှာတော့ တကယ့် error message ကို နောက်ဆုံးမှာ တွေ့ရတယ်။,在追踪器的尽头 你终于收到错误信息了
2186,The first thing you should do when encountering an error is to read that error message.,error တစ်ခု ကြုံလာတဲ့အခါ ပထမဆုံး လုပ်သင့်တာက အဲဒီ error message ကို ဖတ်ဖို့ပါပဲ။,"遇到错误时,首先要做的是读取错误消息。"
2187,"Here it's telling us it doesn't know the question answering task and helpfully gives us the list of supported tasks in which we can see that ""question-answering"" actually is.","ဒီမှာ သူက question answering task ကို မသိဘူးလို့ ပြောနေတယ်၊ ပြီးတော့ ကူညီတဲ့အနေနဲ့ ပံ့ပိုးပေးထားတဲ့ task တွေရဲ့ စာရင်းကို ပေးထားတယ်၊ အဲဒီထဲမှာ ""question-answering"" တကယ်ရှိနေတာကို တွေ့နိုင်တယ်။","这里它告诉我们,它不知道回答问题的任务, 并且帮助我们提供了一份支持任务的清单, 我们可以看到“回答问题”其实是。"
2188,"Looking more closely though, we used an underscore to surprise the two words when the task is written with a minus, so we should fix that.",ဒါပေမယ့် ပိုပြီး သေချာကြည့်လိုက်တော့ task ကို မိုင်းနပ်စ်နဲ့ ရေးရမယ့်အစား စကားလုံးနှစ်လုံးကို တွဲဖို့ underscore သုံးထားတာ တွေ့ရတယ်၊ ဒါကြောင့် အဲဒါကို ပြင်သင့်တယ်။,"不过,我们更仔细地看,我们用一个强调来给这两个字一个惊喜,当任务用一个负数来写时,我们就应该解决这个问题。"
2189,Now let's retry our code with the tags properly written and what is happening today?,အခု tag တွေကို မှန်ကန်စွာ ရေးပြီး code ကို ပြန် run ကြည့်ရအောင်၊ ဒီနေ့ ဘာဖြစ်နေတာလဲ။,"现在,让我们重试我们的代码 用正确的标记写 和今天发生了什么?"
2190,Another error.,နောက်ထပ် error တစ်ခု။,另一个错误。
2191,"As we said before, we go look at the bottom to read the actual error message.",အရင်က ပြောခဲ့သလိုပဲ တကယ့် error message ကို ဖတ်ဖို့ အောက်ခြေကို သွားကြည့်တယ်။,"正如我们以前说过的那样,我们从底部看实际错误信息。"
2192,"It's telling us that we should check our model is a correct model identifier, so let's hop onto hf.co/models.",မော်ဒယ်က မှန်ကန်တဲ့ မော်ဒယ် သတ်မှတ်ချက် ဟုတ်မဟုတ် စစ်ဆေးသင့်တယ်လို့ ပြောနေတယ်၊ ဒါကြောင့် hf.co/models ကို သွားကြည့်ရအောင်။,"它告诉我们,我们应该检查我们的模型 是一个正确的模型识别符, 所以让我们跳到Hf.co/模型。"
2193,We can see our model listed there in the ones available for question answering.,ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို question answering အတွက် ရရှိနိုင်တဲ့ စာရင်းထဲမှာ တွေ့ရတယ်။,"我们可以看到,我们的模型列在可供回答问题的模型中。"
2194,"The difference is that it's spelled ""distilbert"" with one L, and we use two, so let's fix that.","ကွာခြားချက်က ""distilbert"" ကို L တစ်လုံးတည်းနဲ့ စာလုံးပေါင်းထားတာဖြစ်ပြီး ကျွန်တော်တို့က နှစ်လုံးသုံးထားတယ်၊ ဒါကြောင့် ပြင်ကြည့်ရအောင်။","区别在于它用一个L拼写成""脱落"", 我们用两个,所以让我们来解决这个问题。"
2195,We finally get our results.,နောက်ဆုံးတော့ ရလဒ်တွေ ရပါပြီ။,我们终于有结果了
2196,"If our error is more complex, you might need to use the Python debugger.",ကျွန်တော်တို့ရဲ့ error က ပိုရှုပ်ထွေးနေမယ်ဆိုရင် Python debugger ကို သုံးဖို့ လိုကောင်း လိုမယ်။,"如果我们的错误更为复杂, 您可能需要使用 Python 调试器 。"
2197,Check out the videos below to learn how.,ဘယ်လိုသုံးရမလဲဆိုတာ လေ့လာဖို့ အောက်က ဗီဒီယိုတွေကို ကြည့်ပါ။,"看看下面的视频,学习如何学习。"
2198,Using the Python debugger in a notebook.,notebook ထဲမှာ Python debugger ကို ဘယ်လိုသုံးမလဲ။,在笔记本中使用 Python 调试器 。
2199,"In this video, we'll learn how to use the Python debugger in a Jupyter Notebook or a Colab.",ဒီဗီဒီယိုမှာ Jupyter Notebook ဒါမှမဟုတ် Colab မှာ Python debugger ကို ဘယ်လိုသုံးရမလဲဆိုတာ လေ့လာကြမယ်။,"在这段影片中,我们会学习如何使用 Jupyter笔记本或Colab中的 Python 调试器。"
2200,"For this example, we are running code from the token classification section, downloading the Conll dataset, looking a little bit at data, before loading a tokenizer to preprocess the whole dataset.",ဒီဥပမာအတွက် token classification အပိုင်းက code ကို run နေတယ်၊ Conll ဒေတာအတွဲကို ဒေါင်းလုဒ်လုပ်တယ်၊ ဒေတာကို နည်းနည်းကြည့်ပြီးမှ tokenizer ကို load လုပ်ပြီး ဒေတာအတွဲတစ်ခုလုံးကို preprocess လုပ်တယ်။,"例如,我们正在从象征性分类部分运行代码,下载 Conll 数据集, 略微查看数据, 然后再加载一个标记器来预处理整个数据集 。"
2201,Check out the section of the course linked below for more information.,ပိုမိုသိရှိလိုပါက အောက်ပါ သင်တန်းအပိုင်းကို လင့်ခ်ချိတ်ထားတာကို ကြည့်ရှုပါ။,请查看以下链接的课程部分以获取更多信息。
2202,"Once this is done, we try to load eight features of the training dataset, and then batch them together, using tokenizer.pad, and we get the following error.",ဒါပြီးတာနဲ့ training dataset ရဲ့ feature ရှစ်ခုကို load လုပ်ပြီး tokenizer.pad ကို သုံးပြီး သူတို့ကို batch အဖြစ် ပေါင်းလိုက်တယ်၊ ပြီးတော့ ဒီ error ကို ရရှိတယ်။,"一旦完成这项工作, 我们尝试装入训练数据集的八种特性, 然后用 messerizer.pad 将它们合并, 我们就会发现以下错误 。"
2203,"We use PyTorch here, with return_tensors=""pt"" but you will get the same error with TensorFlow.","ဒီမှာတော့ return_tensors=""pt"" နဲ့ PyTorch ကို သုံးပါတယ်၊ ဒါပေမယ့် TensorFlow နဲ့ဆိုရင်လည်း အတူတူပဲ error ရပါလိမ့်မယ်။","我们在这里使用 PyTorrch , 并使用 return_ tensors= ""pt"" , 但你会得到与 Tensor Flow 相同的错误 。"
2204,"As we have seen in the ""How to debug an error?"" video, the error message is at the end of the traceback.","အဲဒီ ""error ကို ဘယ်လို debug လုပ်မလဲ"" ဗီဒီယိုမှာ မြင်ခဲ့ရတဲ့အတိုင်း error message က traceback ရဲ့ အဆုံးမှာ ရှိတယ်။","正如我们在“如何调试错误”的视频中看到的,错误信息在回溯的结尾。"
2205,"Here, it indicates us we should use padding, which we are actually trying to do.",ဒီမှာတော့ padding ကို သုံးသင့်တယ်လို့ ညွှန်ပြနေတယ်၊ ကျွန်တော်တို့က တကယ်တမ်း သုံးဖို့ ကြိုးစားနေတာပါ။,"在这里,这表明我们应该使用垫子,我们实际上正在努力这样做。"
2206,"So this is not useful at all, and we will need to go a little deeper to debug the problem.",ဒါကြောင့် ဒါက လုံးဝ အသုံးမဝင်ဘူး၊ ပြဿနာကို debug လုပ်ဖို့ နည်းနည်း ပိုပြီး စူးစိုက်ဖို့ လိုအပ်ပါလိမ့်မယ်။,"因此,这完全没有用处,我们需要更深入地解决这个问题。"
2207,"Fortunately, you can use the Python debugger at any time you get an error in a Jupyter Notebook by typing the magic command, debug, in a cell.",ကံကောင်းစွာနဲ့ပဲ Jupyter Notebook မှာ error တစ်ခုရတဲ့အခါတိုင်း debug ဆိုတဲ့ magic command ကို cell ထဲ ရိုက်ထည့်ပြီး Python debugger ကို အချိန်မရွေး သုံးနိုင်တယ်။,"幸运的是,您可以随时使用 Python 调试器, 在 Jupyter Notebook 中输入魔力命令、 调试、 在单元格中键入错误 。"
2208,Don't forget the percent at the beginning.,အစမှာ ရာခိုင်နှုန်းကို မမေ့ပါနဲ့။,别忘了一开始的百分率
2209,"When executing that cell, you go to the very bottom of the traceback where you can type commands that will help you debug your script.",အဲဒီ cell ကို လုပ်ဆောင်လိုက်တဲ့အခါ traceback ရဲ့ အောက်ဆုံးကို ရောက်သွားပြီး သင့် script ကို debug လုပ်ဖို့ ကူညီပေးမယ့် command တွေကို ရိုက်ထည့်နိုင်တယ်။,"当执行该单元格时,您会转到跟踪的底部,在那里您可以键入命令,帮助您调试脚本。"
2210,"The first two commands you should learn, are u and d, for up and down.",သင်လေ့လာသင့်တဲ့ ပထမဆုံး command နှစ်ခုက up နဲ့ down အတွက် u နဲ့ d ဖြစ်တယ်။,"头两个命令,你应该学习, 即u和d, 上下。"
2211,Typing u and enter will take you up one step in the traceback to the previous instruction.,u လို့ ရိုက်ပြီး enter နှိပ်ရင် traceback မှာ အရင် ညွှန်ကြားချက်ဆီကို တစ်ဆင့်တက်သွားပါလိမ့်မယ်။,"键入 u 和 输入后, 将会向上一个指令的跟踪前进一步 。"
2212,Typing d and then enter will take you one step down in the traceback.,d လို့ ရိုက်ပြီး enter နှိပ်ရင် traceback မှာ တစ်ဆင့် ဆင်းသွားပါလိမ့်မယ်။,打字D然后输入 将让你一步下来 在追踪。
2213,"Going up twice, we get to the point the error was reached.",နှစ်ခါတက်လိုက်ရင် error ရောက်တဲ့ နေရာကို ရောက်သွားပါပြီ။,"向上走两次,我们到达错误到达的点。"
2214,"The third command to learn for the debugger is p, for print.",debugger အတွက် လေ့လာရမယ့် တတိယ command ကတော့ print အတွက် p ဖြစ်တယ်။,"为调试器学习的第三个命令是 p, 打印 。"
2215,It allows you to print any value you want.,သင်လိုချင်တဲ့ တန်ဖိုးကို print ထုတ်နိုင်တယ်။,它允许您打印任何您想要的值 。
2216,"For instance, typing p return_tensors and enter, we see the value pt that we pass to the bad function.",ဥပမာအားဖြင့် p return_tensors လို့ ရိုက်ပြီး enter နှိပ်လိုက်ရင် ကျွန်တော်တို့ မကောင်းတဲ့ function ကို ပေးပို့လိုက်တဲ့ pt ဆိုတဲ့ တန်ဖိုးကို တွေ့ရတယ်။,"例如,键入 p 返回_ tensors 并输入,我们看到我们传递到错误函数的价值 pt 。"
2217,We can also have a look at the batch outputs this batch line coding object gets.,ဒီ batch line coding object က ရတဲ့ batch outputs တွေကိုလည်း ကြည့်နိုင်တယ်။,我们还可以查看批量输出 这个批量线编码对象获得的批量输出。
2218,"The batch outputs dictionary is a bit hard to dig in to, so let's dive into smaller pieces of it.",batch outputs dictionary ထဲကို တူးဖော်ကြည့်ဖို့ နည်းနည်း ခက်ခဲတဲ့အတွက် ပိုသေးငယ်တဲ့ အပိုင်းလေးတွေထဲကို ဝင်ကြည့်ရအောင်။,"批量输出词典有点难以挖掘, 所以让我们潜入小部分。"
2219,"Inside the debugger you can not only print any variable but also evaluate any expression, for instance, we can have a look at the input_ids keys this batch_outputs object.",debugger ထဲမှာ သင်ဟာ variable တွေကို print ထုတ်နိုင်ရုံသာမက expression မှန်သမျှကိုပါ အကဲဖြတ်နိုင်တယ်၊ ဥပမာအားဖြင့် ဒီ batch_outputs object ရဲ့ input_ids key ကို ကြည့်နိုင်တယ်။,"在调试器内,您不仅可以打印任何变量,还可以评价任何表达式,例如,我们可以查看输入_id 键,这个批发输出对象。"
2220,Or at the labels keys of this batch_outputs object.,ဒါမှမဟုတ် ဒီ batch_outputs object ရဲ့ labels key ကိုပေါ့။,或此批量输出对象的标签键。
2221,"Those labels are definitely weird: they are of various sizes, which we can actually confirm, if we want, by printing the size with the least compression.",အဲဒီ label တွေက တကယ်ပဲ ထူးဆန်းတယ်၊ သူတို့က အရွယ်အစား အမျိုးမျိုး ရှိနေတယ်၊ ကျွန်တော်တို့ လိုချင်ရင် အနည်းဆုံး ဖိအားနဲ့ အရွယ်အစားကို print ထုတ်ပြီး အတည်ပြုနိုင်တယ်။,"这些标签肯定是奇怪的:它们有不同的尺寸,如果我们愿意,我们可以通过以最小压缩打印这些尺寸来确认这些尺寸。"
2222,"This is because the pad method of the tokenizer only takes care of the tokenizer outputs: input IDs, attention mask, and token type IDs, so we have to pad the labels ourselves before trying to create a tensor with them.",ဒါက tokenizer ရဲ့ pad method က tokenizer ရဲ့ အထွက်တွေဖြစ်တဲ့ input IDs၊ attention mask နဲ့ token type IDs တွေကိုပဲ ဂရုစိုက်လို့ ဖြစ်တယ်၊ ဒါကြောင့် သူတို့နဲ့ tensor တစ်ခု ဖန်တီးဖို့ မကြိုးစားခင် label တွေကို ကိုယ်တိုင် pad လုပ်ဖို့ လိုအပ်တယ်။,"这是因为代号器的垫板方法只处理代号器输出:输入代号、关注面罩和符号型代号,所以我们必须在试图与标签加压前自己加贴标签。"
2223,"Once you are ready to exit the Python debugger, you can press q and enter for quit.",Python debugger ကနေ ထွက်ဖို့ အသင့်ဖြစ်ပြီဆိုရင် quit အတွက် q လို့ ရိုက်ပြီး enter နှိပ်နိုင်တယ်။,"一旦您准备好退出 Python 调试器, 您可以按 q 键并输入退出 。"
2224,One way to fix the error is to manually pad the labels to the longest.,error ကို ပြင်နိုင်တဲ့ နည်းလမ်းတစ်ခုကတော့ label တွေကို အရှည်ဆုံးအထိ လက်ဖြင့် pad လုပ်ပေးတာပဲ။,修正错误的方法之一是手动将标签粘贴到最长 。
2225,Another way is to use a data collator specifically designed for token classification.,နောက်ထပ်နည်းလမ်းတစ်ခုကတော့ token classification အတွက် အထူးဒီဇိုင်းထုတ်ထားတဲ့ data collator ကို သုံးတာပဲ။,另一种方法是使用专门为象征性分类设计的数据核对器。
2226,You can also use a Python debugger directly in the terminal.,terminal မှာလည်း Python debugger ကို တိုက်ရိုက် သုံးနိုင်တယ်။,您也可以在终端中直接使用 Python 调试器。
2227,Check out the video link below to learn how.,ဘယ်လိုလုပ်ရမလဲဆိုတာ လေ့လာဖို့ အောက်က ဗီဒီယို လင့်ခ်ကို ကြည့်ပါ။,"查看下面的视频链接,学习如何学习。"
2228,Using the Python debugger in a terminal.,terminal မှာ Python debugger ကို ဘယ်လိုသုံးမလဲ။,在终端中使用 Python 调试器 。
2229,"In this video, we'll learn how to use a Python debugger in a terminal.",ဒီဗီဒီယိုမှာ terminal မှာ Python debugger ကို ဘယ်လိုသုံးရမလဲဆိုတာ လေ့လာကြမယ်။,"在这段视频中,我们会学习如何在终端使用 Python 调试器。"
2230,"For this example, we're running code from the token classification section, downloading the Conll dataset before loading a tokenizer to pre-process it.",ဒီဥပမာအတွက် token classification အပိုင်းက code ကို run နေတယ်၊ Conll ဒေတာအတွဲကို ဒေါင်းလုဒ်လုပ်ပြီးမှ tokenizer ကို load လုပ်ပြီး preprocess လုပ်တယ်။,"例如,我们正在从象征性分类部分运行代码, 下载 Conll 数据集, 然后再装入一个标记器到预处理 。"
2231,Check out the section of the course link below for more information.,ပိုမိုသိရှိလိုပါက အောက်ပါ သင်တန်းအပိုင်းကို လင့်ခ်ချိတ်ထားတာကို ကြည့်ရှုပါ။,更多信息请查看下面课程链接的一节。
2232,"Once this is done, we try to batch together some features of the training dataset by padding them and returning a tensor.",ဒါပြီးတာနဲ့ training dataset ရဲ့ feature အချို့ကို pad လုပ်ပြီး tensor တစ်ခု ပြန်ပေးခြင်းဖြင့် batch အဖြစ် ပေါင်းစည်းဖို့ ကြိုးစားတယ်။,"这项工作完成后,我们试图将训练数据集的一些特征分解成一组,将它们贴上标签,并返回一个气压。"
2233,If we try to execute our scripts in a terminal we get an error.,terminal မှာ ကျွန်တော်တို့ရဲ့ script တွေကို လုပ်ဆောင်ဖို့ ကြိုးစားရင် error တစ်ခု ရတယ်။,"如果我们试图在终端中执行脚本, 我们就会出错 。"
2234,Note that we use PyTorch here we return tensors equal pity.,ဒီမှာတော့ PyTorch ကို သုံးပါတယ်၊ return tensors ကို pt လို့ ပြန်ပေးတယ်။,"请注意,我们使用皮托尔奇 在这里,我们返回 数以万计的同情。"
2235,But you would get the same error with TensorFlow.,ဒါပေမယ့် TensorFlow နဲ့ဆိုရင်လည်း အတူတူပဲ error ရပါလိမ့်မယ်။,"但是,你会得到相同的错误 与天索佛罗。"
2236,"As we have seen in the, 'How to debug an error?' video, The raw message is at the end and it indicates we should use pairing, which we're actually trying to do.","အဲဒီ ""error ကို ဘယ်လို debug လုပ်မလဲ"" ဗီဒီယိုမှာ မြင်ခဲ့ရတဲ့အတိုင်း မူရင်း message က အဆုံးမှာ ရှိပြီး pairing သုံးသင့်တယ်လို့ ညွှန်ပြနေတယ်၊ ကျွန်တော်တို့က တကယ်တမ်း သုံးဖို့ ကြိုးစားနေတာပါ။","正如我们在“如何调试错误?”的视频中所看到的, 原始信息在结尾, 它表明我们应该使用配对, 而我们实际上正在尝试这样做。"
2237,So this is not useful and we need to go little deeper to debug the problem.,ဒါကြောင့် ဒါက အသုံးမဝင်ဘူး၊ ပြဿနာကို debug လုပ်ဖို့ နည်းနည်း ပိုပြီး စူးစိုက်ဖို့ လိုအပ်ပါလိမ့်မယ်။,"因此,这没有用处,我们需要更深入地去调试这个问题。"
2238,"Fortunately, you can use the Python debugger quite easily in a terminal by launching your script with Python -m PDB and then the name of the training script.",ကံကောင်းစွာနဲ့ပဲ Python -m PDB နဲ့ သင့် script ကို launch လုပ်ခြင်းအားဖြင့် terminal မှာ Python debugger ကို အလွယ်တကူ သုံးနိုင်တယ်။,"幸运的是,您可以在终端中很容易地使用 Python 调试器, 方法是与 Python -m PDB 一起启动您的脚本, 然后是培训脚本的名称 。"
2239,"When executing that comment, you are sent to the first instruction of your script.",အဲဒီ comment ကို လုပ်ဆောင်လိုက်တဲ့အခါ သင့် script ရဲ့ ပထမဆုံး ညွှန်ကြားချက်ဆီကို ပို့လိုက်တယ်။,"执行该注释时,您会被发送到脚本的第一个指令。"
2240,You can run just the next instruction by typing N and enter.,N လို့ ရိုက်ပြီး enter နှိပ်ရင် နောက် ညွှန်ကြားချက်ကိုပဲ run နိုင်တယ်။,您可以通过输入 N 键来运行下一个指令并输入 。
2241,Or you can continue directly to zero by typing C and enter.,ဒါမှမဟုတ် C လို့ ရိုက်ပြီး enter နှိပ်ရင် error ဆီကို တိုက်ရိုက် ဆက်သွားနိုင်တယ်။,"或者通过输入 C 键入并输入,您可以继续直接到零。"
2242,"Once there, you go to the very bottom of the traceback and you can type commands.",အဲဒီရောက်ရင် traceback ရဲ့ အောက်ဆုံးကို သွားပြီး command တွေ ရိုက်ထည့်နိုင်တယ်။,"一旦到达那里,你就会去追踪的底部 你可以输入命令。"
2243,"The first two commands you should learn are U and D, for up and down.",သင်လေ့လာသင့်တဲ့ ပထမဆုံး command နှစ်ခုက up နဲ့ down အတွက် U နဲ့ D ဖြစ်တယ်။,"首先你应该学习的两个命令是U和D, 上下调。"
2244,This allows you to get up and down in the traceback.,ဒါက traceback မှာ အပေါ်နဲ့အောက် သွားနိုင်စေတယ်။,这可以让你上下上下回回回溯
2245,The first command to learn is P for print.,ပထမဆုံး လေ့လာရမယ့် command ကတော့ print အတွက် P ဖြစ်တယ်။,学习的第一个命令是 P 打印 。
2246,"For instance, here we can see the value of return_tensors or batch_outputs to try to understand what triggered zero.",ဥပမာအားဖြင့် ဒီမှာ return_tensors ဒါမှမဟုတ် batch_outputs ရဲ့ တန်ဖိုးကို ကြည့်ပြီး error ကို ဘာက ဖြစ်စေခဲ့လဲ နားလည်အောင် ကြိုးစားနိုင်တယ်။,"例如,在这里,我们可以看到返回的量值 或批量输出值, 以试图理解什么触发了零。"
2247,The batch outputs dictionary is a bit hard to see so let's dive into smaller pieces of it.,batch outputs dictionary ကို ကြည့်ဖို့ နည်းနည်း ခက်ခဲတဲ့အတွက် ပိုသေးငယ်တဲ့ အပိုင်းလေးတွေထဲကို ဝင်ကြည့်ရအောင်။,批量输出词典有点难看 所以让我们潜入小部分
2248,"Inside the debugger, you can not only print any variable but also evaluate any expression, so we can look independently at the inputs.",debugger ထဲမှာ သင်ဟာ variable တွေကို print ထုတ်နိုင်ရုံသာမက expression မှန်သမျှကိုပါ အကဲဖြတ်နိုင်တယ်၊ ဒါကြောင့် inputs တွေကို သီးခြားကြည့်နိုင်တယ်။,"在调试器内部,您不仅可以打印任何变量,还可以评价任何表达式,这样我们可以独立查看输入。"
2249,Also labels.,label တွေလည်း ကြည့်နိုင်တယ်။,还有标签
2250,Those labels are definitely weird.,အဲဒီ label တွေက တကယ်ပဲ ထူးဆန်းတယ်။,那些标签绝对是怪异的。
2251,"They are various size, which we can confirm by printing the sites using a release compression.",သူတို့က အရွယ်အစား အမျိုးမျိုး ရှိနေတယ်၊ release compression ကို သုံးပြီး size တွေကို print ထုတ်ခြင်းဖြင့် အတည်ပြုနိုင်တယ်။,"它们大小不同,我们可以通过使用发布压缩打印印刷网站来证实这一点。"
2252,No wonder the tokenizer wasn't able to create a tensor with them.,tokenizer က သူတို့နဲ့ tensor တစ်ခု ဖန်တီးနိုင်စွမ်း မရှိတာ အံ့ဩစရာ မရှိပါဘူး။,难怪神器不能和它们一起制造出压力
2253,"This is because the pad method only takes care of the tokenizer outputs, the input IDs, the attention mask and the token type IDs.",ဒါက pad method က tokenizer ရဲ့ အထွက်တွေ၊ input IDs၊ attention mask နဲ့ token type IDs တွေကိုပဲ ဂရုစိုက်လို့ ဖြစ်တယ်။,这是因为垫板方法只处理代号器输出、输入代号、关注面罩和象征性代号。
2254,So we have to pad the level ourselves before trying to create a new sensor with them.,ဒါကြောင့် သူတို့နဲ့ sensor အသစ်တစ်ခု ဖန်တီးဖို့ မကြိုးစားခင် label ကို ကိုယ်တိုင် pad လုပ်ဖို့ လိုအပ်တယ်။,所以我们在尝试用它们来创建新传感器之前 得先给自己加层。
2255,"Once you're ready to execute the Python debugger, you can press Q for quit and enter.",Python debugger ကနေ ထွက်ဖို့ အသင့်ဖြစ်ပြီဆိုရင် quit အတွက် Q လို့ ရိုက်ပြီး enter နှိပ်နိုင်တယ်။,"一旦您准备好执行 Python 调试器, 您可以按 Q 退出并输入 。"
2256,"Another way we can access the Python debugger, is to put a breaking point in our script.",Python debugger ကို ဝင်ရောက်နိုင်တဲ့ နောက်ထပ် နည်းလမ်းတစ်ခုကတော့ ကျွန်တော်တို့ရဲ့ script ထဲမှာ breaking point တစ်ခု ထည့်လိုက်တာပဲ။,"另一种方法,我们可以访问 Python 调试器, 就是在我们的脚本中插入一个断点。"
2257,We can do this using the PDB that set_trace method.,PDB ရဲ့ set_trace method ကို သုံးပြီး ဒါကို လုပ်နိုင်တယ်။,我们可以使用设置追踪方法的 PDB 来做到这一点 。
2258,As long as we import the PDB module at the beginning of our script.,ကျွန်တော်တို့ရဲ့ script အစမှာ PDB module ကို import လုပ်ထားသရွေ့ပေါ့။,只要我们在脚本开头导入 PDB 模块。
2259,"Saving and then relaunching our script, with just Python.",သိမ်းဆည်းပြီးတော့ Python နဲ့ပဲ ကျွန်တော်တို့ရဲ့ script ကို ပြန် run လိုက်တယ်။,"保存,然后重新启动我们的脚本, 只有Python。"
2260,We'll stop the execution at the breaking point we set.,ကျွန်တော်တို့ သတ်မှတ်ထားတဲ့ breaking point မှာ လုပ်ဆောင်မှု ရပ်သွားပါလိမ့်မယ်။,我们会在设定的突破点停止行刑
2261,We can inspect all the variable before the next instruction is executed again.,နောက် ညွှန်ကြားချက် လုပ်ဆောင်ခြင်း မပြုခင် variable တွေအားလုံးကို စစ်ဆေးကြည့်နိုင်တယ်။,我们可以在下一个指令再次执行之前检查所有变量 。
2262,"For instance, here, the features.",ဥပမာအားဖြင့် ဒီမှာ features တွေပေါ့။,"例如,这里,这些特征。"
2263,Typing N and enter execute the next instruction which takes us back inside traceback.,N လို့ ရိုက်ပြီး enter နှိပ်ရင် နောက် ညွှန်ကြားချက်ကို လုပ်ဆောင်ပြီး traceback ထဲကို ပြန်ပို့တယ်။,"打字 N 并输入执行下一个指令, 该指令带我们回到追踪中 。"
2264,When going to fix zero manually is to pad all the labels to the longest.,error ကို လက်နဲ့ ပြင်ဖို့အတွက် label တွေအားလုံးကို အရှည်ဆုံးအထိ pad လုပ်ပေးတာပဲ။,"手动修正 0 时, 要将所有标签粘贴到最长 。"
2265,Another way is to use the data creator suitable for token classification.,နောက်ထပ်နည်းလမ်းတစ်ခုကတော့ token classification အတွက် သင့်တော်တဲ့ data creator ကို သုံးတာပဲ။,另一种方法是使用适合于象征性分类的数据创建者。
2266,"If you want to learn how to use the Python debugger in a notebook, check out the video in link below.",notebook မှာ Python debugger ကို ဘယ်လိုသုံးရမလဲ လေ့လာချင်ရင် အောက်က လင့်ခ်မှာရှိတဲ့ ဗီဒီယိုကို ကြည့်ပါ။,"如果您想要学习如何在笔记本中使用 Python 调试器, 请在下面的链接中查看视频 。"
2267,How to ask a question on the Hugging Face forums?,Hugging Face forums မှာ မေးခွန်းတစ်ခု ဘယ်လိုမေးရမလဲ။,如何问一个有关 抱抱脸论坛的问题?
2268,"If you have a general question or are looking to debug your code, the forums are the place to ask.",သင့်မှာ အထွေထွေ မေးခွန်းတွေ ရှိရင် ဒါမှမဟုတ် သင့် code ကို debug လုပ်ချင်ရင် forums တွေက မေးဖို့ နေရာကောင်းပဲ။,"如果您有一个一般性的问题或想要调试您的代码, 论坛是问的地方。"
2269,"In this video we will teach you how to write a good question, to maximize the chances you will get an answer.",ဒီဗီဒီယိုမှာ အဖြေရဖို့ အခွင့်အရေး အများဆုံးဖြစ်အောင် ကောင်းမွန်တဲ့ မေးခွန်းတစ်ခုကို ဘယ်လိုရေးရမလဲဆိုတာ သင်ပေးမယ်။,"我们将在此影片中教你们如何写好问题, 尽量增加你得到答案的机会。"
2270,"First things first, to login on the forums, you need a Hugging Face account.",ပထမဆုံးအနေနဲ့ forums မှာ ဝင်ဖို့အတွက် Hugging Face account လိုတယ်။,"首先,登入论坛, 你需要一个拥抱面孔账户。"
2271,"If you haven't created one already, go to hf.co and click sign up.",မဖန်တီးရသေးဘူးဆိုရင် hf.co ကိုသွားပြီး sign up ကို နှိပ်ပါ။,"如果你还没有创建一个, 去Hf. co 然后点击注册 。"
2272,There is also a direct link below.,တိုက်ရိုက် လင့်ခ်လည်း အောက်မှာ ရှိပါတယ်။,下面还有一条直接联系。
2273,"Fill your email and password, then continue the steps to pick your username and update a profile picture.",သင့်ရဲ့ အီးမေးလ်နဲ့ စကားဝှက်ကို ဖြည့်ပါ၊ ပြီးရင် သင့်နာမည် ရွေးဖို့နဲ့ profile ပုံ ပြောင်းဖို့ အဆင့်တွေကို ဆက်လုပ်ပါ။,"填入您的电子邮件和密码, 然后继续选择用户名并更新配置图片的步骤 。"
2274,"Once this is done, go to discuss.huggingface.co, link below, and click log in.",ဒါပြီးတာနဲ့ အောက်က လင့်ခ်ဖြစ်တဲ့ discuss.huggingface.co ကို သွားပြီး log in ကို နှိပ်ပါ။,"完成后, 继续讨论. huggingface. co, 下面的链接, 并点击登录 。"
2275,Use the same login information as for the Hugging Face website.,Hugging Face website အတွက် သုံးတဲ့ log in အချက်အလက်အတိုင်း သုံးပါ။,使用与 Hugging Face 网站相同的登录信息 。
2276,You can search the forums by clicking on the magnifying glass.,မှန်ဘီလူးပုံကို နှိပ်ပြီး forums မှာ ရှာဖွေနိုင်တယ်။,您可以点击放大镜来搜索论坛。
2277,Someone may have already asked your question in a topic.,တစ်ယောက်ယောက်က သင့်မေးခွန်းကို topic တစ်ခုထဲမှာ မေးထားပြီးသား ဖြစ်နိုင်တယ်။,可能有人已经在某个话题里问过你的问题了
2278,"If you find you can't post a new topic as a new user, it may be because of the antispam filters.",အကယ်၍ သင်က user အသစ်ဖြစ်နေလို့ topic အသစ် မတင်နိုင်ဘူးဆိုရင် အဲဒါက antispam စစ်ထုတ်မှုတွေကြောင့် ဖြစ်နိုင်တယ်။,"如果您发现您无法将新话题张贴为新用户, 可能是因为有防垃圾邮件过滤器。"
2279,Make sure you spend some time reading existing topics to deactivate it.,အဲဒါကို ပိတ်ဖို့အတွက် ရှိပြီးသား topic တွေကို အချိန်ပေး ဖတ်ကြည့်ဖို့ လိုပါတယ်။,确保你花一些时间 读读现有的话题 停止它。
2280,"When you're sure your question hasn't been asked yet, click on the new topic button.",သင့်မေးခွန်းကို မမေးရသေးဘူးဆိုတာ သေချာရင် new topic ခလုတ်ကို နှိပ်ပါ။,当你确定你的问题还没有被问到时 点击新的主题按钮
2281,"For this example, we'll use the following code, that produces an error, as we saw in the ""What to do when I get an error"" video.","ဒီဥပမာအတွက် ""error တစ်ခုရရင် ဘာလုပ်ရမလဲ"" ဗီဒီယိုမှာ မြင်ခဲ့ရတဲ့အတိုင်း error ဖြစ်စေတဲ့ ဒီ code ကို သုံးသွားမယ်။","例如,我们将使用下面的代码, 这会产生错误, 正如我们在“当我发现错误时该做什么”的视频中看到的。"
2282,The first step is to pick a category for our new topic.,ပထမအဆင့်က ကျွန်တော်တို့ရဲ့ topic အသစ်အတွက် အမျိုးအစားတစ်ခု ရွေးဖို့ပဲ။,第一步是为我们的新议题选择一个类别。
2283,"Since our error has to do with the Transformers library, we pick this category.",ကျွန်တော်တို့ရဲ့ error က Transformers library နဲ့ ပတ်သက်နေတာမို့ ဒီ category ကို ရွေးမယ်။,"由于我们的错误与变换器库有关, 我们选择这个类别。"
2284,"Next, choose a title that summarizes your error well.",နောက်တစ်ခုက သင့် error ကို ကောင်းကောင်း အကျဉ်းချုပ်ထားတဲ့ ခေါင်းစဉ်တစ်ခု ရွေးပါ။,"下一位, 请选择一个标题, 该标题可以对错误进行精密总结 。"
2285,Don't be too vague or users that get the same error you did in the future won't be able to find your topic.,အရမ်းကြီး မပီမပြင် မဖြစ်စေနဲ့၊ ဒါမှ နောင်မှာ သင်နဲ့ အတူတူ error ရတဲ့သူတွေက သင့် topic ကို ရှာမတွေ့တော့မှာ မဟုတ်ဘူး။,"不要太含糊,或者用户 得到同样的错误 你在未来做 将无法找到 你的主题。"
2286,"Once you have finished typing your topic title, make sure the question hasn't been answered in the topics Discourse suggests you.",topic ခေါင်းစဉ် ရိုက်ပြီးတာနဲ့ Discourse က အကြံပြုထားတဲ့ topic တွေထဲမှာ သင့်မေးခွန်းကို ဖြေထားပြီးပြီလားဆိုတာ သေချာအောင် လုပ်ပါ။,"一旦你打完主题标题的打字, 确保问题还没有被解答 在专题讨论建议你。"
2287,Click on the cross to remove that window when you have double-checked.,နှစ်ခါ စစ်ဆေးပြီးတဲ့အခါ အဲဒီ window ကို ဖယ်ရှားဖို့ ကြက်ခြေခတ်ကို နှိပ်ပါ။,"单击十字键以删除该窗口,当您经过双重检查时。"
2288,This is an example of what not to do when posting an error.,ဒါက error တစ်ခု တင်တဲ့အခါ မလုပ်သင့်တဲ့ ဥပမာတစ်ခု ဖြစ်တယ်။,这是在张贴错误时不要做的事情的例子 。
2289,"The message is very vague, so no one else will be able to guess what went wrong for you, and it tags too many people.",message က အရမ်းကို မပီမပြင် ဖြစ်နေတယ်၊ ဒါကြောင့် တခြားသူတွေက သင့်အတွက် ဘာမှားသွားလဲ ခန့်မှန်းနိုင်မှာ မဟုတ်ဘူး၊ ပြီးတော့ လူများလွန်းလို့ tag တွဲထားတယ်။,"信息非常模糊,所以没有人能猜出 你出了什么问题, 它标记了太多的人。"
2290,"Tagging people, especially moderators, might have the opposite effect of what you want.",လူတွေကို၊ အထူးသဖြင့် moderators တွေကို tag တွဲတာက သင်လိုချင်တဲ့အရာနဲ့ ဆန့်ကျင်ဘက် အကျိုးသက်ရောက်မှု ရှိနိုင်တယ်။,"拖拖拉拉的人,特别是主持人, 可能会产生相反的效果 你想要什么。"
2291,"As you send them a notification, and they get plenty, they will probably not bother replying to you, and users you didn't tag will probably ignore the questions, since they see tagged users.",သင် သူတို့ကို သတိပေးချက် ပို့လိုက်တာနဲ့ သူတို့က အများကြီး ရနေတာကြောင့် သင့်ကို ပြန်ဖြေဖို့ စိတ်မဝင်စားတော့ဘဲ သင် tag မတွဲထားတဲ့ user တွေက tag တွဲထားတာ မြင်တာနဲ့ မေးခွန်းကို လျစ်လျူရှုသွားနိုင်တယ်။,"当你给他们发一份通知,他们就会得到很多, 他们可能不会麻烦地回答你, 而用户你没有标签 可能会忽略问题,因为他们看到贴有标签的用户。"
2292,Only tag a user when you are completely certain they are the best place to answer your question.,သင့်မေးခွန်းကို အကောင်းဆုံး ဖြေနိုင်တဲ့သူတွေ ဖြစ်ကြောင်း လုံးဝ သေချာမှသာ user တစ်ယောက်ကို tag တွဲပါ။,"只有当您完全确定用户是回答您问题的最佳地点时, 才会给用户标记 。"
2293,"Be precise in your text, and if you have an error coming from a specific piece of code, include that code in your post.",သင့်စာသားမှာ တိကျပါစေ၊ ပြီးတော့ သီးခြား code အပိုင်းတစ်ခုကနေ error လာတာဆိုရင် အဲဒီ code ကို သင့် post မှာ ထည့်ပါ။,"文本要精确, 如果你有错误 出自特定的代码, 请在您的文章中加入该代码 。"
2294,"To make sure your post looks good, place your question between three backticks like this.",သင့် post က ကောင်းကောင်းမွန်မွန် ဖြစ်နေဖို့အတွက် သင့်မေးခွန်းကို ဒီလိုမျိုး backtick သုံးခုကြားမှာ ထည့်ပါ။,为了保证你的文章好看 把你的问题放在三个背面之间
2295,You can check on the right how your post will appear once posted.,သင့် post တင်ပြီးရင် ဘယ်လိုပေါ်လာမလဲဆိုတာ ညာဘက်မှာ စစ်ဆေးကြည့်နိုင်တယ်။,"您可查看右侧, 您的职位一旦发布后会如何出现 。"
2296,"If your question is about an error, it's even better to include the full traceback.",သင့်မေးခွန်းက error တစ်ခုအကြောင်းဆိုရင် traceback အပြည့်အစုံကို ထည့်သွင်းတာက ပိုကောင်းတယ်။,"如果你的问题是关于一个错误, 它甚至更好包含 完整追踪回溯。"
2297,"As explained in the ""What to do when I get an error"" video, expand the traceback if you're on Colab.","အဲဒီ ""error တစ်ခုရရင် ဘာလုပ်ရမလဲ"" ဗီဒီယိုမှာ ရှင်းပြထားတဲ့အတိုင်း Colab မှာဆိုရင် traceback ကို ချဲ့ကြည့်ပါ။","正如“我发现错误时该做什么”视频所解释的,如果你在Colab上,请扩展追踪。"
2298,"Like for the code, put it between two lines containing three backticks for proper formatting.",code အတွက်လိုပဲ မှန်ကန်စွာ ပုံစံချဖို့အတွက် backtick သုံးခုပါတဲ့ စာကြောင်းနှစ်ကြောင်းကြားမှာ ထည့်ပါ။,"就像代码一样,放在两条线之间, 含有三条反方向, 用于正确格式化 。"
2299,Our last advice is to remember to be nice.,ကျွန်တော်တို့ရဲ့ နောက်ဆုံးအကြံပေးချက်ကတော့ ကြင်နာတတ်ဖို့ သတိရပါ။,我们最后的忠告是 记住要友善
2300,"A ""Please, and a Thank you"" will go a long way into getting others to help you.","ကျေးဇူးပြုပြီး နဲ့ ""ကျေးဇူးတင်ပါတယ်"" က တခြားသူတွေကို သင့်ကို ကူညီဖို့အတွက် အထောက်အကူ ဖြစ်စေပါလိမ့်မယ်။","""请,谢谢"" 将有很大的帮助 得到别人帮助。"
2301,"With all that done properly, your question should get an answer pretty quickly.",ဒီအရာတွေအားလုံးကို မှန်ကန်စွာ လုပ်ဆောင်ပြီးရင် သင့်မေးခွန်းက အဖြေကို လျင်မြန်စွာ ရရှိသင့်ပါတယ်။,你的问题应该很快得到解答
2302,"In this video, we will see how to debug an error you encounter when running Trainer.train, as an example, we will use this script that finetunes a bert model on the GLUE MNLI dataset.",ဒီဗီဒီယိုမှာတော့ Trainer.train ကို run တဲ့အခါ ကြုံရတဲ့ error ကို ဘယ်လို debug လုပ်မလဲဆိုတာ ကြည့်ကြမယ်၊ ဥပမာအနေနဲ့ GLUE MNLI ဒေတာအတွဲပေါ်မှာ BERT မော်ဒယ်ကို fine-tune လုပ်တဲ့ ဒီ script ကို သုံးသွားမယ်။,"在此视频中, 我们将看到如何调试您在运行 Trager. train 时遇到的错误, 举例来说, 我们将使用这个脚本来微调 GLUE MNLI 数据集上的蜜蜂模型 。"
2303,Checkout the videos linked below to see how we came to such a script.,ဒီလို script မျိုး ဘယ်လိုရလာလဲဆိုတာ သိဖို့ အောက်မှာ လင့်ခ်ချိတ်ထားတဲ့ ဗီဒီယိုတွေကို ကြည့်ပါ။,查看下面连线的视频 看看我们是如何找到这样一部剧本的。
2304,Here we want to learn how to debug the problems in it.,ဒီထဲမှာရှိတဲ့ ပြဿနာတွေကို ဘယ်လို debug လုပ်မလဲဆိုတာ လေ့လာချင်တယ်။,"在这里,我们想学习如何调和其中的问题。"
2305,Running the script gives us an error pretty quickly.,script ကို run လိုက်တာနဲ့ ခဏလေးအတွင်းမှာ error ရတယ်။,运行脚本会很快给我们出错 。
2306,"It happens at the line where we feed the inputs to the model, according to the traceback.",traceback အရ inputs တွေကို မော်ဒယ်ဆီ ပေးပို့တဲ့ လိုင်းမှာ ဖြစ်တာပါ။,"它发生在我们向模型输入输入的线上, 根据追踪。"
2307,"That tells us there is a problem there, but the problem could come from many different causes.",အဲဒီမှာ ပြဿနာရှိတယ်လို့ ပြောပေမယ့် ပြဿနာက အကြောင်းအမျိုးမျိုးကြောင့် လာနိုင်တယ်။,"这告诉我们那里存在一个问题,但问题可能来自许多不同的原因。"
2308,"To debug an error in a training, you need to make sure each step of the training pipeline works as intended.",training တစ်ခုမှာ error ကို debug လုပ်ဖို့အတွက် training pipeline ရဲ့ အဆင့်တိုင်းဟာ ရည်ရွယ်ထားတဲ့အတိုင်း အလုပ်လုပ်ကြောင်း သေချာအောင် လုပ်ဖို့ လိုတယ်။,"要调试培训中的错误,您需要确保培训管道的每一步都按计划进行。"
2309,"This means checking that the inputs of your dataset are correct, you can batch them together, feed them through the model to get a loss, then compute the gradients of that loss before performing an optimizer step.",ဆိုလိုတာက သင့်ဒေတာအတွဲရဲ့ inputs တွေ မှန်ကန်ကြောင်း စစ်ဆေးတာ၊ သူတို့ကို batch အတူတူ ပေါင်းနိုင်တာ၊ loss ရဖို့ မော်ဒယ်ထဲ ဖြတ်သန်းပို့တာ၊ ပြီးတော့ optimizer အဆင့်ကို မလုပ်ဆောင်ခင် အဲဒီ loss ရဲ့ gradient တွေကို တွက်ချက်တာတွေ လုပ်ရမယ်။,"这意味着检查您的数据集输入的正确性, 您可以将它们一起分批, 通过模型喂养它们以获得损失, 然后计算损失的梯度, 然后进行优化步骤 。"
2310,So let's start by looking at the training dataset this Trainer is using.,ဒါဆို ဒီ Trainer က သုံးနေတဲ့ training dataset ကို ကြည့်ခြင်းဖြင့် စလိုက်ရအောင်။,"因此,让我们先看看这个训练员使用的培训数据集。"
2311,There is definitely a problem here.,ဒီမှာတော့ ပြဿနာတစ်ခု ရှိနေတာ သေချာတယ်။,这里肯定有问题
2312,We see texts and not number.,ကျွန်တော်တို့ စာသားတွေပဲ တွေ့နေရတယ်၊ ဂဏန်းတွေ မဟုတ်ဘူး။,"我们看到的是文本,而不是数字。"
2313,The error message was telling us the model did not get input IDs and we do not have those in the dataset indeed.,error message က မော်ဒယ်က input IDs တွေ မရဘူးလို့ ပြောနေတာဖြစ်ပြီး တကယ်ပဲ ဒေတာအတွဲထဲမှာ အဲဒါတွေ မရှိဘူး။,"错误信息告诉我们,模型没有获得输入代号,而且数据集中也没有输入代号。"
2314,"Looking back at our code, we can see we made a mistake and passed the wrong datasets to the Trainer.",ကျွန်တော်တို့ရဲ့ code ကို ပြန်ကြည့်လိုက်တော့ မှားယွင်းတဲ့ dataset ကို Trainer ဆီ ပို့လိုက်မိတာကို တွေ့ရတယ်။,"回顾我们的代码,我们可以看到我们犯了一个错误, 把错误的数据集传给了训练员。"
2315,So let's fix that and run again.,ဒါကြောင့် ပြင်ပြီး ပြန် run ကြည့်ရအောင်။,"所以,让我们解决这个问题 并再次运行。"
2316,Now we have a new error.,အခု error အသစ်တစ်ခု ရတယ်။,现在我们有一个新的错误。
2317,"Inspecting the traceback tells us it happens when we try to create a batch, specifically to group the features in a tensor.",traceback ကို စစ်ဆေးကြည့်ရင် batch တစ်ခု ဖန်တီးဖို့ ကြိုးစားတဲ့အခါ၊ အထူးသဖြင့် feature တွေကို tensor ထဲ စုစည်းတဲ့အခါ ဖြစ်တာလို့ ပြောတယ်။,"检查追踪显示 当我们试图创建批量, 具体地说, 将特征组合成抗拉时, 它就会发生。"
2318,"We can confirm this by asking the Trainer to get us a batch of the training data loader, which reproduces the same error.",training data loader ရဲ့ batch တစ်ခုကို ပေးဖို့ Trainer ကို တောင်းဆိုခြင်းဖြင့် ဒါကို အတည်ပြုနိုင်တယ်၊ အဲဒါက အတူတူပဲ error ဖြစ်စေတယ်။,"我们可以确认这一点,请训练员给我们找一批训练数据装载器,再重复同样的错误。"
2319,"Either by inspecting the inputs or debugging, we can then see they are not all of the same size.",inputs တွေကို စစ်ဆေးခြင်း ဒါမှမဟုတ် debugging လုပ်ခြင်းဖြင့် သူတို့အားလုံး အရွယ်အစား တူညီတာ မဟုတ်ဘူးဆိုတာကို တွေ့နိုင်တယ်။,"通过检查输入或调试,我们可以看到它们不是全部相同大小。"
2320,This is because we have not passed a data collator to do the padding to the Trainer and didn't pad when preprocessing the data either.,ဒါက Trainer ဆီ padding လုပ်ဖို့ data collator ကို မပေးပို့ခဲ့တာကြောင့်ဖြစ်ပြီး ဒေတာကို preprocessing လုပ်တဲ့အခါမှာလည်း pad မလုပ်ခဲ့လို့ ဖြစ်တယ်။,"这是因为我们没有通过一个数据编码器 来给训练员做划线, 也没有在预处理数据时做划线。"
2321,"Padding inside the Trainer is normally the default, but only if you provide your tokenizer to the Trainer, and we forgot to do that.",Trainer ထဲမှာ padding လုပ်တာက ပုံမှန်အားဖြင့် default ပါပဲ၊ ဒါပေမယ့် သင့် tokenizer ကို Trainer ကို ပေးမှသာ ဖြစ်ပြီး ကျွန်တော်တို့ အဲဒါကို မေ့နေခဲ့တယ်။,"通常情况下,在导师内部涂层是默认的,但前提是您向导师提供您的代用品,而我们忘了这样做。"
2322,So let's fix the issue and run again.,ဒါကြောင့် ပြဿနာကို ပြင်ပြီး ပြန် run ကြည့်ရအောင်။,"所以,让我们解决这个问题 并再次运行。"
2323,This time we get a nasty CUDA error.,ဒီတစ်ခါတော့ ဆိုးရွားတဲ့ CUDA error ရတယ်။,这次我们犯了CUDA的错误
2324,"They are very difficult to debug because for one, they put your kernel in a state that is not recoverable so you have to restart your notebook from the beginning and two, the traceback is completely useless for those.",ဒီ error တွေကို debug လုပ်ဖို့ အရမ်းခက်တယ်၊ ဘာလို့လဲဆိုတော့ တစ်ခုက သူတို့က သင့် kernel ကို ပြန်လည်မရနိုင်တဲ့ အခြေအနေတစ်ခုမှာ ထားလိုက်တဲ့အတွက် notebook ကို အစကနေ ပြန်စရမယ်၊ နှစ်ခုကတော့ traceback က လုံးဝ အသုံးမဝင်ဘူး။,"他们很难调试,因为其中之一, 他们把你的内核放在一个无法恢复的状态, 所以你必须从一开始重新启动你的笔记本, 第二, 追踪对这些人是完全没用的。"
2325,"Here the traceback tells us the error happens when we do the gradient computation with loss.backward, but as we will see later on that is not the case.",ဒီမှာ traceback က loss.backward နဲ့ gradient တွက်ချက်မှု လုပ်တဲ့အခါ error ဖြစ်တယ်လို့ ပြောနေတယ်၊ ဒါပေမယ့် နောက်မှ မြင်ရမှာက အဲဒါ မဟုတ်ဘူး။,"这里的追踪告诉我们 当我们用损失来计算梯度时会发生错误。 后退, 但是我们稍后会看到情况并非如此。"
2326,This is because everything that happens on the GPU is done asynchronously.,GPU ပေါ်မှာ ဖြစ်ပျက်နေတဲ့ အရာအားလုံးဟာ တစ်ပြိုင်တည်း မဟုတ်ဘဲ လုပ်ဆောင်တာကြောင့်ပါ။,这是因为在GPU上发生的一切 都无懈可击
2327,"When you execute the model call, what the program does is just stacking that in the queue of GPU, then if the GPU didn't have any current job to do, the work will start on the GPU at the same time as the CPU moves to the next instruction.",မော်ဒယ်ခေါ်ဆိုမှုကို လုပ်ဆောင်တဲ့အခါ ပရိုဂရမ်က GPU ရဲ့ queue ထဲမှာ အဲဒါကို စုပုံလိုက်ရုံပါပဲ၊ ပြီးတော့ GPU မှာ လက်ရှိလုပ်စရာ မရှိဘူးဆိုရင် CPU က နောက်ညွှန်ကြားချက်ဆီ ရွေ့သွားချိန်မှာပဲ GPU မှာ အလုပ်စတင်ပါလိမ့်မယ်။,"当您执行模式调用时,程序所做的只是堆叠在 GPU 队列中, 如果 GPU 没有任何当前的任务要做, 工程将在 CPU 移动到下一个指令的同时开始 。"
2328,"Continuing with the extraction of the loss, this is stacked into the GPU queue while the CPU moves to the instruction loss.backward.",loss ကို ထုတ်ယူတာ ဆက်လုပ်တဲ့အခါ ဒါက GPU queue ထဲမှာ စုပုံသွားပြီး CPU က loss.backward ညွှန်ကြားချက်ဆီ ရွေ့သွားတယ်။,"继续提取丢失时, 它被堆积到 GPU 队列中, 而 CPU 移动到教学丢失。 后退 。"
2329,But the GPU still hasn't finished the forward pass of the model since all that took no time at all.,ဒါပေမယ့် GPU က မော်ဒယ်ရဲ့ forward pass ကို မပြီးသေးဘူး၊ ဘာလို့လဲဆိုတော့ အဲဒါတွေအားလုံးက အချိန်မယူခဲ့လို့လေ။,"但GPU还没有完成模型的前进传承, 因为所有这一切没有花时间。"
2330,"The CPU stops moving forward, because loss.backward as an instruction telling it to wait for the GPUs to be finished, to make sure the gradients are correct.",CPU က ရှေ့ဆက်မသွားတော့ဘူး၊ ဘာလို့လဲဆိုတော့ loss.backward က gradient တွေ မှန်ကန်ကြောင်း သေချာစေဖို့ GPU တွေ ပြီးဆုံးဖို့ စောင့်ဆိုင်းဖို့ ပြောနေတဲ့ ညွှန်ကြားချက် ဖြစ်နေလို့ပါ။,"CPU 停止向前移动, 因为丢失。 后退为指示, 要求它等待 GPU 完成, 以确保梯度正确 。"
2331,"When the GPU encounters an error, it gives it back to the CPU with a cryptic message who raises the error at the wrong place.",GPU က error တစ်ခု ကြုံလာတဲ့အခါ နားမလည်နိုင်တဲ့ message တစ်ခုနဲ့ CPU ဆီ ပြန်ပေးလိုက်ပြီး CPU က မှားယွင်းတဲ့နေရာမှာ error ကို ထုတ်ပေးတယ်။,"当 GPU 遇到错误时, 它会用一个在错误的地方引起错误的加密信息将其带回 CPU 。"
2332,"So to debug this, we will need to execute the next steps of the training pipeline on the CPU.",ဒါကြောင့် ဒါကို debug လုပ်ဖို့အတွက် training pipeline ရဲ့ နောက်ထပ်အဆင့်တွေကို CPU ပေါ်မှာ လုပ်ဆောင်ဖို့ လိုအပ်ပါလိမ့်မယ်။,"因此,为了调试这一点,我们需要在CPU上执行培训管道的下一步。"
2333,"It is very easy to do, and we get a traceback we can trust this time.",ဒါက အရမ်းလွယ်ကူပါတယ်၊ ပြီးတော့ ဒီတစ်ခါ ယုံကြည်နိုင်တဲ့ traceback တစ်ခု ရလာတယ်။,"这很容易做到,我们这次能得到一个可以信任的回溯。"
2334,"As we said before, the error actually happens during the forward pass of the model, and not loss.backward.",အရင်က ပြောခဲ့သလိုပဲ error က မော်ဒယ်ရဲ့ forward pass မှာ တကယ်ဖြစ်တာပါ၊ loss.backward မှာ မဟုတ်ဘူး။,"正如我们以前说过的,错误实际上发生在模型的前传过程中,而不是亏损,退后。"
2335,It's an index error.,ဒါက index error ဖြစ်တယ်။,这是一个指数错误。
2336,"With a bit of debugging, we see we have labels ranging from 0 to 2, so three different values, but our outputs have a shape of batch size per 2.",နည်းနည်း debug လုပ်ကြည့်တော့ ကျွန်တော်တို့မှာ label တွေက 0 ကနေ 2 အထိ ရှိနေတာကို တွေ့ရတယ်၊ ဆိုလိုတာက တန်ဖိုးသုံးမျိုးပေါ့၊ ဒါပေမယ့် ကျွန်တော်တို့ရဲ့ outputs က batch size per 2 ပုံစံရှိနေတယ်။,"稍微调试一下,我们看到标签在0到2之间, 所以有三个不同的值, 但是我们的输出的形状是每2个批量大小。"
2337,It looks like our model has the wrong number of labels.,ကျွန်တော်တို့ရဲ့ မော်ဒယ်မှာ label အရေအတွက် မှားနေပုံရတယ်။,看来我们的模型的标签数量不对
2338,"We can indeed confirm that, and now that we know it's easy to fix it in the code by adding num_labels=3 when we create the model.",တကယ်ပဲ အတည်ပြုနိုင်တယ်၊ အခု သိပြီဆိုတော့ မော်ဒယ် ဖန်တီးတဲ့အခါ num_labels=3 ထည့်ပေးခြင်းဖြင့် code မှာ ပြင်ဖို့ လွယ်ကူသွားပြီ။,"我们确实可以确认这一点, 现在我们知道很容易在代码中修正它, 当我们创建模型时添加 num_ labels=3 。"
2339,Now the training script will run to completion.,အခု training script က ပြီးဆုံးတဲ့အထိ run ပါလိမ့်မယ်။,现在训练的剧本将完成
2340,"We did not need it yet, but here is how we would debug the next step of the pipeline, gradient computation, as well as the optimizer step.",ကျွန်တော်တို့ မလိုအပ်သေးဘူး၊ ဒါပေမယ့် ဒါက pipeline ရဲ့ နောက်အဆင့်၊ gradient တွက်ချက်မှု၊ ပြီးတော့ optimizer အဆင့်ကို ဘယ်လို debug လုပ်မလဲဆိုတာ ပြသထားတာပါ။,"我们还不需要它,但这就是我们如何调试管道的下一步、梯度计算以及优化步骤。"
2341,"With all of this, good luck debugging your own trainings!",ဒီအရာတွေအားလုံးနဲ့အတူ သင့်ကိုယ်ပိုင် training တွေကို debug လုပ်ရာမှာ ကံကောင်းပါစေဗျာ။,祝你在训练上好运!
2342,Some bugs in your code are very straightforward.,သင့် code ထဲက bug အချို့က အရမ်းရိုးရှင်းတယ်။,您代码中的一些错误非常直截了当。
2343,"You try running it, you get a syntax error somewhere, Python tells you exactly where, and you fix it.",run ကြည့်လိုက်တယ်၊ တစ်နေရာရာမှာ syntax error တစ်ခု တွေ့တယ်၊ Python က အဲဒီနေရာကို အတိအကျ ပြောပြပေးတယ်၊ ပြီးတော့ သင်ပြင်လိုက်တယ်။,"你尝试运行它, 你会得到一个语法错误 某处, Python 告诉你确切的位置, 并修复它。"
2344,"This is great, it's simple and it's satisfying.",ဒါက အရမ်းကောင်းတယ်၊ ရိုးရှင်းပြီး စိတ်ကျေနပ်စရာ ကောင်းတယ်။,"这是伟大的, 它简单,它满足。"
2345,"Sometimes, though, things crash and the error is impossible to understand.",တစ်ခါတလေတော့ အရာတွေက ရပ်တန့်သွားပြီး error က နားမလည်နိုင်အောင် ဖြစ်နေတတ်တယ်။,但有时事情会崩溃 错误是无法理解的
2346,"This happens a lot in machine learning for a few reasons, you're working with big data structures, you're using these big, complex libraries with a lot of moving parts, and also you're doing a lot of GPU computing, and that in general is much more difficult to debug.",ဒါက machine learning မှာ အကြောင်းအချို့ကြောင့် အများကြီး ဖြစ်တတ်တယ်၊ ကြီးမားတဲ့ ဒေတာဖွဲ့စည်းပုံတွေနဲ့ အလုပ်လုပ်နေတယ်၊ ရွေ့လျားနေတဲ့ အစိတ်အပိုင်းများစွာပါတဲ့ ဒီကြီးမားပြီး ရှုပ်ထွေးတဲ့ library တွေကို သုံးနေတယ်၊ ပြီးတော့ GPU တွက်ချက်မှုတွေ အများကြီး လုပ်နေတယ်၊ အဲဒါက ယေဘုယျအားဖြင့် debug လုပ်ဖို့ ပိုခက်ခဲတယ်။,"这在机器学习中经常发生,原因有几个, 你与大数据结构合作, 你使用这些大型复杂的图书馆, 有很多移动部件, 而且你正在做很多 GPU 计算, 一般来说,这更难调试。"
2347,"In Keras there's the additional problem that your models are often compiled before execution, which is great for performance but it makes debugging them very difficult as well.",Keras မှာ နောက်ထပ် ပြဿနာတစ်ခုရှိတာက သင့်မော်ဒယ်တွေကို လုပ်ဆောင်ခြင်းမပြုမီ compile လုပ်လေ့ရှိတယ်၊ ဒါက စွမ်းဆောင်ရည်အတွက် ကောင်းပေမယ့် သူတို့ကို debug လုပ်ဖို့ အရမ်းခက်ခဲစေတယ်။,"在喀拉斯州,还有另一个问题, 你的模型经常在行刑前被编集, 这对性能很有帮助, 但是也很难调试它们。"
2348,"So, this is going to be a video about what to do when you run into one of those nightmare bugs and you just have no idea where to begin with fixing it.",ဒါကြောင့် ဒီဗီဒီယိုကတော့ ဒီလို ဆိုးရွားတဲ့ bug တွေနဲ့ ကြုံလာတဲ့အခါ ပြင်ဆင်ဖို့ ဘယ်ကစရမှန်း မသိတော့တဲ့အခါ ဘာလုပ်ရမလဲဆိုတာ အကြောင်းပါပဲ။,"所以,这将会是一段视频 当你碰到那些恶梦虫的时候, 有关该做什么的视频, 你只是不知道从哪开始修它。"
2349,"So, to give you some intuitions for the most common things that go wrong and cause these weird issues, and show you where to look for the sources of bugs that you encounter, let's use this example script.",အဖြစ်များဆုံး မှားယွင်းတတ်တဲ့ အရာတွေနဲ့ ဒီထူးဆန်းတဲ့ ပြဿနာတွေကို ဖြစ်စေတဲ့အရာတွေအတွက် အလိုလိုသိစိတ်အချို့ ပေးဖို့နဲ့ သင်ကြုံတွေ့ရတဲ့ bug ရဲ့ အရင်းအမြစ်ကို ဘယ်မှာ ရှာရမလဲဆိုတာ ပြသဖို့ ဒီဥပမာ script ကို သုံးကြည့်ရအောင်။,"所以,为了给大家一些直觉 来判断最常见的 出错和导致这些奇怪问题的事情, 并告诉你在哪里可以寻找 遇到的虫子的来源, 让我们使用这个例子的脚本。"
2350,"So, I'll show it to you here in two parts.",ဒီမှာ အပိုင်းနှစ်ပိုင်းနဲ့ ပြသပါမယ်။,"所以,我给你们看这里的两部分。"
2351,"First, we do all our imports, we load a dataset, we create our tokenizer and we tokenize the dataset.",ပထမဆုံးအနေနဲ့ import တွေအားလုံး လုပ်တယ်၊ dataset တစ်ခု load လုပ်တယ်၊ tokenizer ဖန်တီးပြီး dataset ကို tokenize လုပ်တယ်။,"首先,我们做我们所有的进口, 我们装上数据集, 我们创建我们的代号器, 我们象征数据集。"
2352,"Next, we convert our datasets to TensorFlow datasets, so that's tf.data.Dataset, and that's so that we can run fit on them, and then we load our model from a pretrained checkpoint, we compile it and we fit it with those datasets.",နောက်တစ်ခုက ကျွန်တော်တို့ရဲ့ datasets တွေကို TensorFlow datasets တွေအဖြစ် ပြောင်းလဲတယ်၊ အဲဒါက tf.data.Dataset ပေါ့၊ ဒါမှ သူတို့ပေါ်မှာ fit ကို run နိုင်မှာပေါ့၊ ပြီးရင် pretrained checkpoint ကနေ မော်ဒယ်ကို load လုပ်တယ်၊ compile လုပ်ပြီး အဲဒီ datasets တွေနဲ့ fit လုပ်တယ်။,"接下来,我们将我们的数据集转换成 TensorFlow 数据集, 所以这是 tf. data. Dataset , 这样我们就可以运行在它们上, 然后我们从一个预先训练的检查站上载我们的模型, 我们编译它, 我们把它与这些数据集相匹配。"
2353,"So, this seems straightforward enough, it's similar to what we've done in the course before.",ဒါက ရိုးရှင်းပုံရတယ်၊ သင်တန်းမှာ အရင်က လုပ်ခဲ့ဖူးတာတွေနဲ့ ဆင်တူပါတယ်။,"所以,这似乎足够直截了当了, 和我们以前的做法相似。"
2354,"But beware, this is spooky code and hides many dark and mysterious secrets.",ဒါပေမယ့် သတိထား၊ ဒါက ထူးဆန်းတဲ့ code ဖြစ်ပြီး လျှို့ဝှက်ချက်တွေ အများကြီး ဖုံးကွယ်ထားတယ်။,"但当心,这是诡异的密码 隐藏着许多黑暗神秘的秘密"
2355,"So, what happens when we run it?",ဒါကို run လိုက်ရင် ဘာဖြစ်မလဲ။,"那么,当我们运行它时会发生什么?"
2356,"Well, it's not great.",အင်း၊ မကောင်းဘူး။,"嗯,这不是伟大的。"
2357,"So, we get this error message, but what does it mean?",ဒီ error message ကို ရတယ်၊ ဒါပေမယ့် ဒါက ဘာကိုဆိုလိုတာလဲ။,"所以,我们得到了这个错误信息, 但它意味着什么?"
2358,"We tried to train on our data, but we got no gradient?",ကျွန်တော်တို့ ဒေတာပေါ်မှာ လေ့ကျင့်ဖို့ ကြိုးစားခဲ့ပေမယ့် gradient မရဘူးလား။,我们试图用我们的数据来训练 但我们没有梯度?
2359,"It's pretty perplexing, I mean, how do we even begin to debug not getting a gradient?",ဒါက တော်တော်ရှုပ်ထွေးတယ်၊ gradient မရတာကို ဘယ်လို debug လုပ်ရမလဲ။,"这很令人困惑,我的意思是, 我们如何开始调试 没有梯度的调试?"
2360,"So, when the error you get doesn't immediately suggest where the problem is, the best solution is often to walk through things in sequence, making sure at each stage that the outputs look right, that everything looks okay at that point.",ဒါကြောင့် သင်ရတဲ့ error က ပြဿနာကို ချက်ချင်း မညွှန်ပြတဲ့အခါ အကောင်းဆုံးဖြေရှင်းနည်းကတော့ အဆင့်ဆင့် လျှောက်ကြည့်ပြီး အဆင့်တိုင်းမှာ outputs တွေ မှန်ကန်ကြောင်း၊ အဲဒီအချိန်မှာ အရာအားလုံး အဆင်ပြေကြောင်း သေချာအောင် လုပ်ဖို့ပါပဲ။,"所以,当错误发生时, 当错误并不立即表明问题在哪里时, 最好的解决办法往往是按部就班地走过去, 保证每个阶段的输出都看对了, 那时一切都看好。"
2361,"And, of course, that means the place to start is always to check your data.",ဟုတ်ပါတယ်၊ စတင်ရမယ့်နေရာက သင့်ဒေတာကို အမြဲစစ်ဆေးဖို့ပဲ ဖြစ်တယ်။,"当然,这意味着开始的地方 总是检查你的数据。"
2362,"So, the best way to make sure that the data you're giving the model is good, is to grab a batch from the tf.data.Dataset that your model is training on, and that's because it's right at the end of the data pipeline.",မော်ဒယ်ကို ပေးမယ့် ဒေတာက ကောင်းတယ်ဆိုတာ သေချာအောင် လုပ်ဖို့ အကောင်းဆုံးနည်းကတော့ သင့်မော်ဒယ် လေ့ကျင့်နေတဲ့ tf.data.Dataset ကနေ batch တစ်ခုကို ယူလိုက်တာပါပဲ၊ ဘာလို့လဲဆိုတော့ ဒါက data pipeline ရဲ့ အဆုံးမှာ ရှိနေလို့ပါ။,"所以,确保你给模型提供的数据是好的 最好的方法就是从tf. data中收集一批数据。你的模型正在训练的数据, 这是因为它就在数据管道的尽头。"
2363,"And so that means that if those outputs are good, you're guaranteed that your data pipeline is working well.",အဲဒီ outputs တွေ ကောင်းရင် သင့် data pipeline က ကောင်းကောင်း အလုပ်လုပ်နေတယ်လို့ အာမခံနိုင်တယ်။,"这意味着,如果这些产出是好的, 你会得到保证,你的 数据管道运行良好。"
2364,"So, we can do that by looping over the dataset for one iteration and then breaking, and that gives us a single batch.",ဒါကို dataset ကို တစ်ကြိမ် loop လုပ်ပြီး ရပ်တန့်လိုက်ခြင်းဖြင့် လုပ်နိုင်တယ်၊ အဲဒါက ကျွန်တော်တို့ကို batch တစ်ခုတည်း ပေးလိမ့်မယ်။,"因此,我们可以通过绕过数据集进行一次迭代,然后断开, 来做到这一点,这给了我们一整批数据。"
2365,"So, what do we get when we inspect that batch?",အဲဒီ batch ကို စစ်ဆေးကြည့်ရင် ဘာရမလဲ။,"那么,当我们检查那批货时,我们能得到什么?"
2366,We'll see that we're not getting any gradient because we're not passing labels to Keras.,Keras ကို label တွေ မပို့ပေးတဲ့အတွက် gradient မရဘူးဆိုတာကို တွေ့ရပါလိမ့်မယ်။,我们会看到我们不会得到任何梯度 因为我们没有传递标签给Keras。
2367,"So, our labels are in the batch, but they're a key in the input dictionary and they're not a separate label as Keras expects, so this is one of the most common issues you'll encounter when training Transformers models with TensorFlow.",ကျွန်တော်တို့ရဲ့ label တွေက batch ထဲမှာ ပါပေမယ့် သူတို့က input dictionary ထဲက key တစ်ခုဖြစ်နေပြီး Keras က မျှော်လင့်ထားတဲ့ သီးခြား label မဟုတ်ဘူး၊ ဒါကြောင့် TensorFlow နဲ့ Transformer မော်ဒယ်တွေကို လေ့ကျင့်တဲ့အခါ အတွေ့ရအများဆုံး ပြဿနာတွေထဲက တစ်ခုပါပဲ။,"所以,我们的标签在批量中, 但它们是输入字典中的关键, 它们不是Keras所期望的单独标签, 所以这是你训练TensorFlow 变形模型时遇到的最常见问题之一。"
2368,"Our models can all compute loss internally, but to use that loss for training the labels need to be passed in the input dictionary, where the model can see them.",ကျွန်တော်တို့ရဲ့ မော်ဒယ်တွေအားလုံးက loss ကို အတွင်းပိုင်းမှာ တွက်ချက်နိုင်ပါတယ်၊ ဒါပေမယ့် အဲဒီ loss ကို training အတွက် သုံးဖို့ဆိုရင် model က မြင်နိုင်တဲ့ input dictionary ထဲမှာ label တွေကို ထည့်ပေးဖို့ လိုတယ်။,"我们的模型都可以在内部计算损失, 但是要使用这种损失来训练标签需要通过输入字典, 模型可以在字典中看到它们。"
2369,"This internal loss is the loss that we use when we don't specify a loss when we call compile, when we don't specify a loss argument.",ဒီ internal loss က compile ကို ခေါ်တဲ့အခါ loss ကို မသတ်မှတ်ရင်၊ loss argument ကို မသတ်မှတ်ရင် သုံးတဲ့ loss ပဲ ဖြစ်တယ်။,"这种内部损失是当我们调用汇编时,当我们不说明损失时,当我们不说明损失时,当我们不说明损失理由时,我们使用的损失。"
2370,"So, Keras, on the other hand, usually expects labels to be passed separately from the input dictionary, and not to be visible to the model, and loss computations will usually fail if you don't do that.",တခြားတစ်ဖက်မှာ Keras ကတော့ label တွေကို input dictionary ကနေ သီးခြား ပို့ပေးဖို့ မျှော်လင့်လေ့ရှိတယ်၊ မော်ဒယ်ကို မမြင်စေရဘူး၊ အဲဒီလို မလုပ်ရင် loss တွက်ချက်မှုတွေက ပျက်ကွက်လေ့ရှိတယ်။,"所以, Keras, 另一方面, 通常期望标签会与输入字典分开传递, 而不是在模型中可见, 如果你不这样做, 损失计算通常会失败 。"
2371,"So we need to choose one or the other, either we use the model's internal loss and keep the labels where they are, or we keep using Keras losses but we move the labels to the place Keras expects them.",ဒါကြောင့် ကျွန်တော်တို့ တစ်ခုခု ရွေးချယ်ရမယ်၊ မော်ဒယ်ရဲ့ internal loss ကို သုံးပြီး label တွေကို အခု ရှိနေတဲ့နေရာမှာပဲ ထားမလား၊ ဒါမှမဟုတ် Keras losses တွေကို ဆက်သုံးပြီး Keras မျှော်လင့်ထားတဲ့နေရာဆီ label တွေကို ရွှေ့မလား။,"所以我们需要选择一种或另一种, 要么我们使用模型的内部损失 并保持标签的位置, 或者我们继续使用Keras损失, 但是我们把标签移到 Keras 期望的地方。"
2372,"So, or simplicity here, let's fix this issue by using the model's internal losses, and we do that by removing the loss argument from the call to compile.",ရိုးရှင်းအောင် ဒီပြဿနာကို မော်ဒယ်ရဲ့ internal losses ကို သုံးပြီး ဖြေရှင်းလိုက်ရအောင်၊ ဒါကို compile ကို ခေါ်တဲ့အခါ loss argument ကို ဖယ်ရှားခြင်းဖြင့် လုပ်နိုင်တယ်။,"所以,或者说简单一点, 让我们用模型的内部损失来解决这个问题, 我们这样做的方法就是从汇编的号召中去掉损失论点。"
2373,"So, what happens if we try training now?",ဒါဆို အခု training လုပ်ကြည့်ရင် ဘာဖြစ်မလဲ။,"那么,如果我们现在尝试训练会怎么样?"
2374,"So we recompile with that, we call model.fit, what happens?",အဲဒါနဲ့ ပြန် compile လုပ်တယ်၊ model.fit ကို ခေါ်တယ်၊ ဘာဖြစ်လဲ။,"所以,我们重新整合,我们称之为模型。 适合,会发生什么?"
2375,"Well, it runs this time but now we get a loss of NaN.",အင်း၊ ဒီတစ်ခါတော့ run သွားတယ်၊ ဒါပေမယ့် loss က NaN ဖြစ်နေတယ်။,"好吧,这次会发生,但现在我们失去了NAN。"
2376,"So, that's not good, NaN means not a number and it's not a good loss to have in general.",ဒါက မကောင်းဘူး၊ NaN ဆိုတာ not a number လို့ အဓိပ္ပာယ်ရပြီး ယေဘုယျအားဖြင့် မကောင်းတဲ့ loss တစ်ခုပါ။,"所以,这是不好的, NaN 的意思不是一个数字, 它不是一个好损失 总的说来。"
2377,"In fact, if we inspect our model now, we'll see that not only are all the outputs NaN, all the weights are NaN as well, as well as the loss.",တကယ်တော့ ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို စစ်ဆေးကြည့်ရင် outputs တွေအားလုံး NaN ဖြစ်နေရုံမက အလေးချိန်တွေအားလုံးနဲ့ loss ပါ NaN ဖြစ်နေတာ တွေ့ရမယ်။,"事实上,如果我们现在检查我们的模型, 我们就会发现, 不仅所有输出的NaNN, 所有的重量也是NNN, 以及损失。"
2378,"So once a single NaN creeps into your computations, it tends to spread, because it propagates from the loss, and once it's at the loss it's at the gradient, it gets to the gradient, and then once it's in the gradient it enters the weight updates, and then all your weight updates end up as NaN as well.",တွက်ချက်မှုတွေထဲကို NaN တစ်ခုတည်း ဝင်လာတာနဲ့ သူက ပျံ့နှံ့သွားလေ့ရှိတယ်၊ ဘာလို့လဲဆိုတော့ သူက loss ကနေတစ်ဆင့် ပျံ့နှံ့ပြီး loss မှာ ရှိနေပြီဆိုရင် gradient မှာ ရောက်တယ်၊ gradient ရောက်ရင် weight updates ထဲကို ဝင်ပြီး သင့်ရဲ့ weight updates တွေအားလုံးလည်း NaN ဖြစ်သွားတယ်။,"所以一旦一个NN进入你的计算, 它就会扩散, 因为它从损失中传播, 一旦损失在梯度上, 它就会到达梯度, 一旦在梯度上, 它就会进入重量更新, 然后所有的重量更新也会像 NAN一样结束。"
2379,"So NaN just completely destroyed our model here, but where did it creep in first?",ဒီမှာ NaN က ကျွန်တော်တို့ရဲ့ မော်ဒယ်ကို လုံးဝ ဖျက်ဆီးလိုက်တယ်၊ ဒါပေမယ့် ဘယ်ကနေ အရင်ဆုံး ဝင်လာတာလဲ။,"所以NaNN刚刚彻底摧毁了我们的模特, 但是它在哪里先爬到哪里去呢?"
2380,"So to find out, we need to back to a point before the model was destroyed, we need to re-initialize the model and look at the outputs for just the first batch.",ဒါကို သိဖို့ မော်ဒယ် မပျက်စီးခင် အချိန်ဆီ ပြန်သွားဖို့ လိုတယ်၊ မော်ဒယ်ကို ပြန်အစပြုပြီး ပထမ batch အတွက်ပဲ outputs တွေကို ကြည့်ဖို့ လိုတယ်။,"因此,为了发现,我们需要回到一个点 模型被摧毁之前, 我们需要重新激活模型, 并且只看第一批的输出。"
2381,"And when we do that, we see that NaN first appears in the loss, but only in some samples.",အဲဒီလို လုပ်လိုက်တဲ့အခါ NaN က loss မှာ အရင်ဆုံး ပေါ်လာတာကို တွေ့ရတယ်၊ ဒါပေမယ့် sample အချို့မှာပဲ ဖြစ်တယ်။,"当我们这样做时,我们看到纳纳首先出现在损失中,但只出现在一些样本中。"
2382,"So you can see this in more detail in the accompanying section of the course notes, I am moving fairly quickly here, but we find that if we look at the labels, the samples with a loss of NaN all have a label of two.",ဒီအရာကို သင်တန်းမှတ်စုတွေရဲ့ အပိုင်းမှာ ပိုပြီး အသေးစိတ် ကြည့်နိုင်ပါတယ်၊ ကျွန်တော် ဒီမှာ အတော်လေး မြန်မြန်သွားနေတာပါ၊ ဒါပေမယ့် label တွေကို ကြည့်လိုက်ရင် NaN loss ရှိတဲ့ sample တွေအားလုံးမှာ label နှစ်ခု ပါဝင်နေတာကို တွေ့ရတယ်။,"所以,你可以在课程说明的附带章节中更详细地看到这一点, 我在这里移动得相当快, 但我们发现,如果我们看一下标签, 那些失去NN的样本 都有一个两个标签。"
2383,"So this gives us a very strong clue, if we check the model with model.config.num_labels, we see that the model thinks there's only two labels, but if we see a value of two, that means there's at least three labels because 0 is a label as well.",ဒါက ကျွန်တော်တို့ကို ခိုင်မာတဲ့ သဲလွန်စတစ်ခု ပေးတယ်၊ model.config.num_labels နဲ့ မော်ဒယ်ကို စစ်ဆေးကြည့်ရင် မော်ဒယ်က label နှစ်ခုပဲ ရှိတယ်လို့ ထင်နေတာ တွေ့ရတယ်၊ ဒါပေမယ့် တန်ဖိုး နှစ်ခုကို မြင်ရင် label သုံးခု အနည်းဆုံး ရှိတယ်လို့ ဆိုလိုတယ်၊ ဘာလို့လဲဆိုတော့ 0 ကလည်း label တစ်ခု ဖြစ်နေလို့လေ။,"这给了我们一个非常强烈的线索, 如果我们用模型. config. num_ lables来检查模型, 我们可以看到模型认为只有两个标签, 但是如果我们看到两个值, 这意味着至少有三个标签, 因为 0 也是个标签 。"
2384,"So we got a loss of NaN because we got an ""impossible"" label in our label set, and to fix that we need to go back and set the model to expect the right number of labels, so we can set num_labels=3 when we initialize the model but from_pretrained, and now hopefully we can avoid this issue.","ကျွန်တော်တို့ရဲ့ label အစုထဲမှာ ""မဖြစ်နိုင်တဲ့"" label တစ်ခု ရခဲ့တဲ့အတွက် NaN loss ရခဲ့တာပါ၊ ဒါကို ပြင်ဖို့အတွက် မော်ဒယ်ကို မှန်ကန်တဲ့ label အရေအတွက် မျှော်လင့်ထားဖို့ ပြန်သတ်မှတ်ဖို့ လိုတယ်၊ ဒါကြောင့် from_pretrained နဲ့ မော်ဒယ်ကို အစပြုတဲ့အခါ num_labels=3 လို့ သတ်မှတ်နိုင်တယ်၊ အခုတော့ ဒီပြဿနာကို ရှောင်ရှားနိုင်လိမ့်မယ်လို့ မျှော်လင့်ပါတယ်။","所以,我们失去了NaN, 因为我们的标签组里有一个“不可能”的标签, 并且要修正我们需要回去的标签, 并设置模型来期望正确的标签数量, 这样我们就可以在初始化模型时设置 num_ labels=3, 但是从_ preked开始, 现在希望我们能避免这个问题。"
2385,"So, now we think our data is good and our model is good and so training should work but if we try running model.fit, we, well...",အခု ကျွန်တော်တို့ရဲ့ ဒေတာက ကောင်းပြီ၊ မော်ဒယ်က ကောင်းပြီလို့ ထင်ပါတယ်၊ ဒါကြောင့် training အလုပ်လုပ်သင့်တယ်၊ ဒါပေမယ့် model.fit ကို run ကြည့်ရင်၊ အင်း...,"所以,现在,我们认为我们的数据是好的,我们的模型是好的, 所以训练应该有效,但如果我们尝试运行模型,我们,嗯..."
2386,"I mean, we do get a loss, it is a number and it is going down but it's not going down very quickly and if we keep running this out, we'll find that it stalls at a fairly high loss value.",loss တော့ ရတယ်၊ ဒါက ဂဏန်းဖြစ်ပြီး ကျဆင်းနေတယ်၊ ဒါပေမယ့် အရမ်း မြန်မြန် မကျဆင်းဘူး၊ ဒါကို ဆက် run နေရင် မြင့်မားတဲ့ loss တန်ဖိုးမှာ ရပ်တန့်နေတာကို တွေ့ရမယ်။,"我的意思是,我们确实得到一个损失, 这是一个数字,它正在下降 但是它并没有很快下降 如果我们继续运行这个了,我们会发现 它的跌价相当高。"
2387,"So, what's going on?",ဘာတွေ ဖြစ်နေတာလဲ။,发生什么事了?
2388,"Well, when things are mostly working, but training is just slow or a bit odd, that can often be a good time to look at your optimizer and your training hyperparameters.",အရာတွေက အများစု အလုပ်လုပ်နေပေမယ့် training က နှေးနေတာ ဒါမှမဟုတ် နည်းနည်း ထူးဆန်းနေတာမျိုးဆိုရင် သင့် optimizer နဲ့ training hyperparameters တွေကို ကြည့်ဖို့ အချိန်ကောင်း ဖြစ်နိုင်တယ်။,"当事情基本正常时, 但训练只是缓慢或有点奇怪, 这往往是一个好时机, 来看看你的优化器和训练超参数。"
2389,"And this is where I want to mention one of the most common sources of issues when you're working with Keras, you can name things like optimizers with strings, so Keras supports that and it's very convenient, but if you do that all of the options get silently set to their default values.",ဒီနေရာမှာ Keras နဲ့ အလုပ်လုပ်တဲ့အခါ အဖြစ်အများဆုံး ပြဿနာရင်းမြစ်တွေထဲက တစ်ခုကို ပြောချင်ပါတယ်၊ optimizers တွေကို string တွေနဲ့ နာမည်ပေးနိုင်တယ်၊ Keras က ဒါကို ထောက်ပံ့ပြီး အဆင်ပြေတယ်၊ ဒါပေမယ့် အဲဒီလိုလုပ်ရင် ရွေးချယ်စရာတွေအားလုံးဟာ သူတို့ရဲ့ default တန်ဖိုးတွေဆီ တိတ်တဆိတ် သတ်မှတ်သွားတယ်။,"这就是我想在这里提到的一个最常见的问题源 当你和喀拉斯一起工作时, 你可以用字符串命名优化器, 所以喀拉斯支持这一点,而且非常方便, 但如果你这样做, 所有选项都会静静地设定到默认值上。"
2390,"So we specified our optimizer as Adam, but in the process we invisibly got the default learning rate, which is 1e-3, or 10 to the power of -3.",ဒါကြောင့် ကျွန်တော်တို့ရဲ့ optimizer ကို Adam လို့ သတ်မှတ်ခဲ့ပေမယ့် ဒီလုပ်ငန်းစဉ်မှာ မမြင်နိုင်ဘဲ default learning rate ဖြစ်တဲ့ 1e-3 သို့မဟုတ် 10^-3 ကို ရရှိခဲ့တယ်။,"所以我们把优化器指定为亚当, 但是在这个过程中,我们隐形地得到了默认的学习率, 即1e-3, 或10到 -3的功率。"
2391,"So this learning rate is way too high for training transformer models, we should go back and specify the learning rate directly, not using a string.",ဒီ learning rate က transformer မော်ဒယ်တွေကို လေ့ကျင့်ဖို့အတွက် အရမ်းမြင့်လွန်းတယ်၊ ကျွန်တော်တို့ string မသုံးဘဲ learning rate ကို တိုက်ရိုက် သတ်မှတ်ဖို့ ပြန်လုပ်သင့်တယ်။,"因此,对于培训变压器模型来说,这个学习率太高了, 我们应该回去直接说明学习率, 而不是使用字符串。"
2392,"So, good values here are between 1e-5 and 1e-4 so let's split the difference and pick 5e-5.",ဒီနေရာမှာ ကောင်းတဲ့ တန်ဖိုးတွေက 1e-5 နဲ့ 1e-4 ကြားမှာ ရှိပါတယ်၊ ဒါကြောင့် အလယ်တည့်တည့်က 5e-5 ကို ရွေးလိုက်ရအောင်။,"所以,好的数值在1 -5和1 -4之间 所以,让我们分开差数,选择5 -5。"
2393,"So if you recompile with that, you'll find that training actually works, at last.",အဲဒါနဲ့ ပြန် compile လုပ်ရင် training က တကယ်ပဲ အလုပ်လုပ်တာကို တွေ့ရပါလိမ့်မယ်။,"所以,如果你重新与它打交道, 你会发现 训练真的有效, 终于。"
2394,The loss goes down efficiently and it converges to a lower value.,loss က ထိထိရောက်ရောက် ကျဆင်းပြီး တန်ဖိုးနိမ့်တစ်ခုဆီ စုစည်းသွားတယ်။,"损失效率下降,价值趋同,价值降低。"
2395,"So, again, I did go through this quite quickly and I strongly recommend checking out the course notes to see this in more detail, and to experiment with the code yourself and see what the errors look like and how you can approach them.",ထပ်ပြောရရင် ကျွန်တော် ဒါကို အရမ်း မြန်မြန်သွားခဲ့တယ်၊ ဒါကြောင့် သင်တန်းမှတ်စုတွေကို ပိုပြီး အသေးစိတ်ကြည့်ဖို့နဲ့ code ကို ကိုယ်တိုင် စမ်းသပ်ပြီး error တွေ ဘယ်လိုပုံလဲ၊ ဘယ်လိုချဉ်းကပ်ရမလဲဆိုတာ ကြည့်ဖို့ အပြင်းအထန် အကြံပြုပါတယ်။,"因此,我再次非常迅速地经历了这个过程, 我强烈建议检查课程说明, 以便更详细地看到这一点, 并且自己试验代码, 看看错误是什么样子的, 以及你如何去处理错误。"
2396,but I hope I've given you here a quick summary of the most common bugs and maybe the most common debugging approaches to dealing with them.,ဒါပေမယ့် အဖြစ်အများဆုံး bug တွေရဲ့ အကျဉ်းချုပ်ကိုနဲ့ သူတို့ကို ဖြေရှင်းဖို့အတွက် အဖြစ်အများဆုံး debugging နည်းလမ်းတွေကို ဒီမှာ ပေးနိုင်ခဲ့ပြီလို့ မျှော်လင့်ပါတယ်။,但我希望我在这里给你们一个 最常见的虫子的简要总结 和也许最常见的调试方法 来对付它们
2397,"So, good luck, and remember to take plenty of breaks if your code is giving you a hard time.",ကံကောင်းပါစေ၊ သင့် code က သင့်ကို ခေါင်းစားစေတယ်ဆိုရင် အနားယူဖို့ မမေ့ပါနဲ့။,"所以,祝你好运,记住,如果你们的代码让你很难过的话, 可以休息很多时间。"
2398,How to write a good issue on GitHub?,GitHub မှာ ကောင်းမွန်တဲ့ issue တစ်ခု ဘယ်လိုရေးရမလဲ။,如何写一篇关于吉特Hub的好文章?
2399,"GitHub is the main place for the Hugging Face open source libraries, and you should always go there to report a bug or ask for a new feature.",GitHub က Hugging Face ရဲ့ open source library တွေအတွက် အဓိက နေရာဖြစ်ပြီး bug တစ်ခု တင်ပြဖို့ ဒါမှမဟုတ် feature အသစ်တစ်ခု တောင်းဆိုဖို့ဆိုရင် အမြဲတမ်း အဲဒီကို သွားသင့်တယ်။,"GitHub是 Hugging Face 开放源码库的主机, 您应该总是去报告错误或询问新功能 。"
2400,"For more general questions or to debug your own code use the forums, see the video linked below.",အထွေထွေ မေးခွန်းတွေ ပိုမိုမေးဖို့ ဒါမှမဟုတ် သင့်ကိုယ်ပိုင် code ကို debug လုပ်ဖို့ဆိုရင်တော့ forums တွေကို သုံးပါ၊ အောက်က လင့်ခ်ချိတ်ထားတဲ့ ဗီဒီယိုကို ကြည့်ပါ။,"更一般性的问题或调试您自己的代码使用论坛,请见以下链接的视频。"
2401,It's very important to write good issues as it will help the bug you uncovered be fixed in no time.,ကောင်းမွန်တဲ့ issue တွေ ရေးဖို့က အရမ်းအရေးကြီးပါတယ်၊ ဘာလို့လဲဆိုတော့ သင်တွေ့ရှိခဲ့တဲ့ bug ကို အချိန်တိုအတွင်း ပြင်ဆင်နိုင်ဖို့ ကူညီပေးနိုင်လို့ပါ။,写好问题非常重要 因为它会帮助你发现的虫子 很快被固定起来
2402,"For this video, we have created a version of Transformers with a bug.",ဒီဗီဒီယိုအတွက် bug ပါတဲ့ Transformers ရဲ့ version တစ်ခုကို ဖန်တီးထားပါတယ်။,"对于这段视频,我们已经创造了一个版本 变形器和虫子。"
2403,"You can install it by executing this command in a notebook, remove the exclamation mark to execute it in a terminal.",notebook မှာ ဒီ command ကို လုပ်ဆောင်ခြင်းဖြင့် ဒါကို install လုပ်နိုင်ပါတယ်၊ terminal မှာ လုပ်ဆောင်ဖို့အတွက် အာမေဋိတ် အမှတ်အသားကို ဖယ်ရှားပါ။,"您可以在笔记本中执行此命令, 将其安装到终端中执行 。"
2404,"In this version, the following example fails.",ဒီ version မှာတော့ ဒီဥပမာက အလုပ်မလုပ်ဘူး။,"在本版本中,以下例子失败。"
2405,"The error is rather cryptic and does not seem to come from anything in our code, so it seems we have a bug to report.",error က နည်းနည်း နားမလည်နိုင်အောင် ဖြစ်နေပြီး ကျွန်တော်တို့ရဲ့ code ထဲက ဘာမှ လာတာ မဟုတ်ဘူးလို့ ထင်ရတယ်၊ ဒါကြောင့် တင်ပြဖို့ bug တစ်ခု ရှိနေပုံရတယ်။,"这个错误是相当隐秘的, 似乎没有来自我们的代码, 所以我们似乎有一个错误要报告。"
2406,The first thing to do in this case is to try to find the smallest amount of code possible that reproduces the bug.,ဒီလိုအခြေအနေမှာ ပထမဆုံး လုပ်သင့်တာက bug ကို ပြန်ဖြစ်စေနိုင်တဲ့ အနည်းဆုံး code ပမာဏကို ရှာဖို့ ကြိုးစားတာပဲ။,"在此情况下,首先要做的是 试着找到最小数量的代码 来复制错误。"
2407,"In our case, inspecting the traceback, we see the failure happens inside the pipeline function when it calls AutoTokenizer.from_pretrained.",ကျွန်တော်တို့ရဲ့ အခြေအနေမှာ traceback ကို စစ်ဆေးကြည့်ရင် AutoTokenizer.from_pretrained ကို ခေါ်တဲ့အခါ pipeline function ထဲမှာ ပျက်ကွက်တာကို တွေ့ရတယ်။,"以我们为例,检查追踪,我们看到输油管功能中的故障发生 当它叫AutoTokenizer。"
2408,"Using the debugger, we find the values passed to that method and can thus create a small sample of code that hopefully generates the same error.",debugger ကို သုံးပြီး အဲဒီ method ကို ပေးပို့ထားတဲ့ တန်ဖိုးတွေကို ရှာနိုင်တယ်၊ ဒါကြောင့် အဲဒီ error အတူတူ ထုတ်ပေးနိုင်မယ့် code sample သေးသေးလေးတစ်ခုကို ဖန်တီးနိုင်တယ်။,"使用调试器,我们发现数值传递到该方法,因此可以生成少量代码样本,希望产生同样的错误。"
2409,"It's very important to go though this step as you may realize the error was on your side and not a bug in the library, but it also will make it easier for the maintainers to fix your problem.",ဒီအဆင့်ကို ဖြတ်သန်းဖို့က အရမ်းအရေးကြီးတယ်၊ ဘာလို့လဲဆိုတော့ error က သင့်ဘက်က ဖြစ်နေပြီး library ရဲ့ bug မဟုတ်ဘူးဆိုတာ သင်သိသွားနိုင်သလို maintainer တွေအတွက်လည်း သင့်ပြဿနာကို ပြင်ဖို့ ပိုလွယ်ကူစေမှာပါ။,尽管你可能意识到错误是站在你这边的 而不是图书馆里的错误 这是非常重要的 但也会让维护者更容易解决你的问题
2410,"Here we can play around a bit more with this code and notice the error happens for different checkpoints and not just this one, and that it disappears when we use use_fast=False inside our tokenizer call.",ဒီ code နဲ့ နည်းနည်း ပိုဆော့ကြည့်နိုင်ပြီး ဒီ checkpoint တစ်ခုတည်းမှာ မဟုတ်ဘဲ တခြား checkpoint တွေအတွက်ပါ error ဖြစ်တယ်ဆိုတာ သတိထားမိနိုင်တယ်၊ ပြီးတော့ ကျွန်တော်တို့ရဲ့ tokenizer call ထဲမှာ use_fast=False ကို သုံးရင် error ပျောက်သွားတာကို တွေ့ရတယ်။,"我们可以在这里玩更多一些这个代码, 并注意错误发生在不同的检查站, 而不仅仅是这个检查站, 当我们使用#fast=False时, 它会消失。"
2411,The important part is to have something that does not depend on any external files or data.,အရေးကြီးတာက ပြင်ပဖိုင်တွေ ဒါမှမဟုတ် ဒေတာတွေပေါ် မူတည်တာ မရှိတဲ့ အရာတစ်ခု ရှိဖို့ပါပဲ။,重要部分是拥有不依赖任何外部文件或数据的东西。
2412,Try to replace your data by fake values if you can't share it.,သင့်ဒေတာကို မျှဝေလို့ မရဘူးဆိုရင် fake တန်ဖိုးတွေနဲ့ အစားထိုးဖို့ ကြိုးစားပါ။,"如果您不能共享数据, 请尝试用假数值替换数据 。"
2413,"With all of this done, we are ready to start writing our issue.",ဒီအရာတွေအားလုံး ပြီးပြီဆိုရင် ကျွန်တော်တို့ issue ရေးဖို့ အသင့်ဖြစ်ပါပြီ။,"完成所有这些工作后,我们准备开始撰写我们的问题。"
2414,Click on the button next to Bug Report and you will discover that there is a template to fill.,Bug Report ဘေးက ခလုတ်ကို နှိပ်လိုက်ရင် ဖြည့်စရာ template တစ်ခု ရှိတယ်ဆိုတာ တွေ့ရပါလိမ့်မယ်။,"点击臭虫报告旁边的按钮, 你会发现有一个要填充的模板 。"
2415,It will only take you a couple of minutes.,မိနစ်အနည်းငယ်ပဲ ကြာပါလိမ့်မယ်။,你只需要几分钟时间
2416,The first thing is to properly name your issue.,ပထမဆုံးအနေနဲ့ သင့် issue ကို သင့်တော်တဲ့ နာမည် ပေးဖို့ပဲ။,第一件事就是正确说出你的问题。
2417,Don't pick a title that is too vague.,အရမ်း မပီမပြင်တဲ့ ခေါင်းစဉ်ကို မရွေးပါနဲ့။,不要挑一个太模糊的标题
2418,Then you have to fill your environment information.,ပြီးရင် သင့် environment အချက်အလက်တွေကို ဖြည့်ရပါမယ်။,然后您必须填充您的环境信息 。
2419,There is a command provided by the Transformers library to do this.,ဒါကို လုပ်ဖို့အတွက် Transformers library က ပေးထားတဲ့ command တစ်ခု ရှိတယ်။,由变换器库提供命令来做到这一点 。
2420,Just execute it in your notebook or in a terminal and copy paste the results.,သင့် notebook ဒါမှမဟုတ် terminal မှာ လုပ်ဆောင်ပြီး ရလဒ်တွေကို ကော်ပီကူးပြီး ကပ်လိုက်ပါ။,只需在笔记本或终端中执行并复制结果。
2421,"There are two last questions to fill manually, to which the answers are no and no in our case.",နောက်ဆုံး မေးခွန်းနှစ်ခုကို လက်နဲ့ ဖြည့်ရပါမယ်၊ ကျွန်တော်တို့ရဲ့ အခြေအနေမှာတော့ အဖြေတွေက no နဲ့ no ပါပဲ။,"最后还有两个问题需要人工填写,答案是否定的,在我们的案件中是否定的。"
2422,"Next, we need to determine who to tag.",နောက်တစ်ခုက ဘယ်သူ့ကို tag လုပ်ရမလဲဆိုတာ ဆုံးဖြတ်ဖို့ပဲ။,"接下来,我们需要确定谁来标记。"
2423,There is a full list of usernames in the template.,template ထဲမှာ username တွေရဲ့ စာရင်းအပြည့်အစုံ ရှိတယ်။,模板中有完整的用户名列表 。
2424,"Since our issue has to do with tokenizers, we pick the maintainer associated with them.",ကျွန်တော်တို့ရဲ့ issue က tokenizers တွေနဲ့ ပတ်သက်နေတာမို့ သူတို့နဲ့ ဆက်စပ်နေတဲ့ maintainer ကို ရွေးမယ်။,既然我们的问题和粉末机有关 我们选一个和它们有关的维护者
2425,"There is no point tagging more than 3 people, they will redirect you to the right person if you made a mistake.",လူ ၃ ယောက်ထက် ပိုပြီး tag လုပ်စရာ မလိုပါဘူး၊ သင်မှားခဲ့ရင် မှန်ကန်တဲ့သူဆီ လမ်းညွှန်ပေးပါလိမ့်မယ်။,"没有比三个人多的标记, 如果你犯了错, 他们会把你转到合适的人那里。"
2426,"Next, we have to give the information necessary to reproduce the bug.",နောက်တစ်ခုက bug ကို ပြန်ဖြစ်စေဖို့ လိုအပ်တဲ့ အချက်အလက်တွေကို ပေးရပါမယ်။,"接下来,我们必须提供必要的信息 来复制虫子"
2427,"We paste our sample, and put it between two lines with three backticks so that it's formatted properly.",ကျွန်တော်တို့ရဲ့ sample ကို ကူးထည့်ပြီး ပုံစံ မှန်ကန်ဖို့အတွက် backtick သုံးခုပါတဲ့ စာကြောင်းနှစ်ကြောင်းကြားမှာ ထားပါ။,"我们粘贴样本,放在两条线和三条背心之间, 以便适当格式化。"
2428,"We also paste the full traceback, still between two lines of three backticks.",full traceback ကိုလည်း backtick သုံးခုပါတဲ့ စာကြောင်းနှစ်ကြောင်းကြားမှာ ကူးထည့်ပါ။,"我们还粘贴了全部的回溯, 仍然在三条背心的两条线之间。"
2429,"Lastly, we can add any additional information about what we tried to debug the issue at hand.",နောက်ဆုံးအနေနဲ့ လက်ရှိ issue ကို debug လုပ်ဖို့ ကျွန်တော်တို့ ဘာတွေ ကြိုးစားခဲ့လဲဆိုတဲ့ အချက်အလက်အပိုတွေကို ထည့်သွင်းနိုင်တယ်။,"最后,我们可以补充任何补充资料,说明我们试图调和当前问题的情况。"
2430,"With all of this, you should expect an answer to your issue pretty fast and hopefully a quick fix.",ဒီအရာတွေအားလုံးနဲ့အတူ သင့် issue အတွက် အဖြေကို မြန်မြန်ဆန်ဆန် မျှော်လင့်နိုင်ပြီး လျင်မြန်တဲ့ ပြင်ဆင်မှုတစ်ခုလည်း ဖြစ်နိုင်ပါတယ်။,"有了这一切,你应该期待 很快的回答你的问题 希望能很快的解决"
2431,Note that all the advise in this video applies for almost every open-source project.,ဒီဗီဒီယိုထဲက အကြံဉာဏ်တွေအားလုံးဟာ open source project တိုင်းနီးပါးအတွက် အကျုံးဝင်တယ်ဆိုတာ သတိပြုပါ။,"请注意,这段视频中的所有建议几乎适用于每一个开放源码项目。"
2432,Welcome to the Hugging Face tasks series!,Hugging Face လုပ်ငန်းများ ဗီဒီယိုတွဲမှ ကြိုဆိုပါတယ်။,"欢迎收看""拥抱脸""系列任务!"
2433,In this video we’ll take a look at the token classification task.,ဒီဗီဒီယိုမှာတော့ token classification လုပ်ငန်းကို ကြည့်ကြမယ်။,我们将会在影片中看一看象征性分类任务。
2434,Token classification is the task of assigning a label to each token in a sentence.,Token classification ဆိုတာ ဝါကျတစ်ကြောင်းရှိ token တစ်ခုစီကို label တစ်ခု သတ်မှတ်ပေးတဲ့ လုပ်ငန်းပဲ။,名词分类是给句子中的每个符号指定标签的任务。
2435,There are various token classification tasks and the most common are Named Entity Recognition and Part-of-Speech Tagging.,token classification လုပ်ငန်းတွေက အမျိုးမျိုးရှိပြီး အဖြစ်အများဆုံးတွေက Named Entity Recognition နဲ့ Part-of-Speech Tagging တွေ ဖြစ်ပါတယ်။,"有各种象征性分类任务,最常见的是名称为实体确认和部分语音标签。"
2436,Let’s take a quick look at the Named Entity Recognition task.,Named Entity Recognition လုပ်ငန်းကို အမြန်ကြည့်ကြရအောင်။,让我们快速审视一下名称实体识别任务。
2437,"The goal of this task is to find the entities in a piece of text, such as person, location, or organization.",ဒီလုပ်ငန်းရဲ့ ရည်ရွယ်ချက်ကတော့ စာသားအပိုင်းအစတစ်ခုထဲက ပုဂ္ဂိုလ်၊ တည်နေရာ ဒါမှမဟုတ် အဖွဲ့အစည်း စတဲ့ entity တွေကို ရှာဖွေဖို့ပဲ ဖြစ်ပါတယ်။,"这项任务的目标是在案文中找到实体,如个人、地点或组织。"
2438,"This task is formulated as labelling each token with one class for each entity, and another class for tokens that have no entity.",ဒီလုပ်ငန်းကို entity တစ်ခုစီအတွက် class တစ်ခုစီနဲ့ token တစ်ခုစီကို label တပ်ပြီး၊ entity မရှိတဲ့ token တွေအတွက် နောက်ထပ် class တစ်ခုနဲ့ ပုံဖော်ထားတယ်။,"这项任务是为每个实体贴上一个等级的标记,为每个实体贴上一个等级的标记,为没有实体的标志贴上另一个等级的标记。"
2439,Another token classification task is part-of-speech tagging.,နောက်ထပ် token classification လုပ်ငန်းတစ်ခုကတော့ part-of-speech tagging ဖြစ်ပါတယ်။,另一个象征性的分类任务是部分语音标记。
2440,"The goal of this task is to label the words for a particular part of a speech, such as noun, pronoun, adjective, verb and so on.",ဒီလုပ်ငန်းရဲ့ ရည်ရွယ်ချက်ကတော့ နာမ်၊ နာမ်စား၊ နာမဝိသေသန၊ ကြိယာ စသည်ဖြင့် သဒ္ဒါအစိတ်အပိုင်း တစ်ခုချင်းစီအတွက် စကားလုံးတွေကို label တပ်ဖို့ပဲ ဖြစ်ပါတယ်။,"这项任务的目标是在演讲的某个特定部分,例如名词、代名词、形容词、动词等等上标出词。"
2441,This task is formulated as labelling each token with parts of speech.,ဒီလုပ်ငန်းကို token တစ်ခုစီကို သဒ္ဒါအစိတ်အပိုင်းတွေနဲ့ label တပ်ခြင်းဖြင့် ပုံဖော်ထားတယ်။,这项任务是作为每个象征贴上部分言词的标签。
2442,"Token classification models are evaluated on Accuracy, Recall, Precision and F1-Score.",Token classification မော်ဒယ်တွေကို တိကျမှု၊ Recall၊ Precision နဲ့ F1-Score တို့ပေါ် မူတည်ပြီး အကဲဖြတ်တယ်။,在精确度、回溯、精确度和F1-Score方面评价了火柴分类模型。
2443,The metrics are calculated for each of the classes.,Metric တွေကို class တစ်ခုစီအတွက် တွက်ချက်တယ်။,每个等级的衡量标准都计算出来。
2444,"We calculate true positive, true negative and false positives to calculate precision and recall, and take their harmonic mean to get F1-Score.",Precision နဲ့ Recall ကို တွက်ချက်ဖို့ true positive၊ true negative နဲ့ false positive တွေကို တွက်ချက်ပြီး F1-Score ရဖို့ သူတို့ရဲ့ harmonic mean ကို ယူတယ်။,"我们计算出真实的正数、正数、正数、负数和假数, 来计算精确度和回想, 并用他们的调和力来获得F1 -Score。"
2445,Then we calculate it for every class and take the overall average to evaluate our model.,ပြီးရင် class တိုင်းအတွက် တွက်ချက်ပြီး မော်ဒယ်ကို အကဲဖြတ်ဖို့အတွက် ပျမ်းမျှကို ယူတယ်။,然后我们计算每个班级 并用整体平均值来评估我们的模型。
2446,An example dataset used for this task is ConLL2003.,ဒီလုပ်ငန်းအတွက် အသုံးပြုတဲ့ ဥပမာ ဒေတာအတွဲတစ်ခုက ConLL2003 ဖြစ်ပါတယ်။,用于此项任务的示例数据集是 ConLL2003 。
2447,"Here, each token belongs to a certain named entity class, denoted as the indices of the list containing the labels.",ဒီမှာ token တစ်ခုစီဟာ label တွေပါဝင်တဲ့ စာရင်းရဲ့ အညွှန်းတွေအဖြစ် သတ်မှတ်ထားတဲ့ သတ်မှတ်ထားတဲ့ named entity class တစ်ခုခုနဲ့ သက်ဆိုင်တယ်။,"这里,每个象征都属于某个名称的实体类别,称为标签清单的索引。"
2448,"You can extract important information from invoices using named entity recognition models, such as date, organization name or address.",Named entity recognition မော်ဒယ်တွေကို သုံးပြီး စာရွက်စာတမ်းတွေကနေ ရက်စွဲ၊ အဖွဲ့အစည်းအမည် ဒါမှမဟုတ် လိပ်စာ စတဲ့ အရေးကြီးတဲ့ အချက်အလက်တွေကို ထုတ်ယူနိုင်တယ်။,"您可以使用名称实体识别模型,如日期、组织名称或地址,从发票中提取重要信息。"
2449,"For more information about the Token classification task, check out the Hugging Face course.",Token classification လုပ်ငန်းအကြောင်း ပိုမိုသိရှိလိုပါက Hugging Face သင်တန်းကို ကြည့်ပါ။,"欲了解更多有关 Token 分类任务的信息,请查看 Hugging Face 课程。"
2450,Welcome to the Hugging Face tasks series.,Hugging Face လုပ်ငန်းများ ဗီဒီယိုတွဲမှ ကြိုဆိုပါတယ်။,"欢迎收看""拥抱脸""系列任务"
2451,"In this video, we will take a look at the Question Answering task.",ဒီဗီဒီယိုမှာတော့ Question Answering လုပ်ငန်းကို ကြည့်ကြမယ်။,"在影片中,我们将审视“回答问题”的任务。"
2452,Question answering is the task of extracting an answer in a given document.,Question answering ဆိုတာ ပေးထားတဲ့ စာရွက်စာတမ်းတစ်ခုထဲက အဖြေကို ထုတ်ယူတဲ့ လုပ်ငန်းပဲ ဖြစ်ပါတယ်။,回答问题的任务是在给定的文件中提取答案。
2453,"Question answering models take a context, which is the document you want to search in, and a question and return an answer.",Question answering မော်ဒယ်တွေက သင်ရှာဖွေချင်တဲ့ စာရွက်စာတမ်းဖြစ်တဲ့ context တစ်ခုနဲ့ မေးခွန်းတစ်ခုကို ယူပြီး အဖြေကို ပြန်ပေးတယ်။,"答题模式使用上下文,即您想要搜索的文件,并使用问答回答。"
2454,"Note that the answer is not generated, but extracted from the context. This type of question answering is called extractive.",အဖြေက ထုတ်လုပ်တာ မဟုတ်ဘဲ context ကနေ ထုတ်ယူတာဆိုတာ သတိပြုပါ။ ဒီလိုမျိုး question answering ကို extractive လို့ ခေါ်တယ်။,"请注意, 答案不是生成的, 而是从上下文中提取的 。 这种答题叫“ 采掘 ” 。"
2455,"The task is evaluated on two metrics, exact match and F1-Score.",ဒီလုပ်ငန်းကို metric နှစ်ခုဖြစ်တဲ့ exact match နဲ့ F1-Score တို့ပေါ် မူတည်ပြီး အကဲဖြတ်တယ်။,"这项任务按照两种衡量标准进行评估,即精确匹配和F1-Score。"
2456,"As the name implies, exact match looks for an exact match between the predicted answer and the correct answer.",နာမည်အရဆိုရင် exact match က ခန့်မှန်းထားတဲ့ အဖြေနဲ့ မှန်ကန်တဲ့ အဖြေကြားက အတိအကျ ကိုက်ညီမှုကို ရှာဖွေတယ်။,"正如这个名字所暗示的那样,精确匹配在预测的答案和正确的答案之间寻找准确匹配。"
2457,"A common metric used is the F1-Score, which is calculated over tokens that are predicted correctly and incorrectly. It is calculated over the average of two metrics called precision and recall which are metrics that are used widely in classification problems.",အများအားဖြင့် အသုံးပြုတဲ့ metric တစ်ခုကတော့ F1-Score ဖြစ်ပြီး မှန်ကန်စွာနဲ့ မှားယွင်းစွာ ခန့်မှန်းထားတဲ့ token တွေပေါ်မှာ တွက်ချက်ပါတယ်။ ဒါက classification ပြဿနာတွေမှာ ကျယ်ကျယ်ပြန့်ပြန့် အသုံးပြုတဲ့ precision နဲ့ recall လို့ခေါ်တဲ့ metric နှစ်ခုရဲ့ ပျမ်းမျှကို တွက်ချက်ထားတာ ဖြစ်တယ်။,"使用的通用指标是F1-Score,该指标是用正确和不正确预测的符号计算的,是用两个称为精确和召回的尺度的平均值计算的,它们是在分类问题中广泛使用的指标。"
2458,"An example dataset used for this task is called SQuAD. This dataset contains contexts, questions and the answers that are obtained from English Wikipedia articles.",ဒီလုပ်ငန်းအတွက် အသုံးပြုတဲ့ ဥပမာ ဒေတာအတွဲတစ်ခုက SQuAD ဖြစ်ပါတယ်။ ဒီဒေတာအတွဲမှာ အင်္ဂလိပ် Wikipedia ဆောင်းပါးတွေကနေ ရရှိတဲ့ context တွေ၊ မေးခွန်းတွေနဲ့ အဖြေတွေ ပါဝင်တယ်။,用于此任务的示例数据集称为 SQUAD。 该数据集包含背景、 问题和从英文维基百科文章中获得的答案 。
2459,You can use question answering models to automatically answer the questions asked by your customers.,သင့်ဖောက်သည်တွေ မေးတဲ့ မေးခွန်းတွေကို အလိုအလျောက် ဖြေဆိုဖို့ question answering မော်ဒယ်တွေကို သုံးနိုင်တယ်။,您可以使用答题模型自动回答客户提出的问题。
2460,You simply need a document containing information about your business and query through that document with the questions asked by your customers.,သင့်လုပ်ငန်းအကြောင်း အချက်အလက်ပါတဲ့ စာရွက်စာတမ်းတစ်ခု လိုအပ်ပြီး သင့်ဖောက်သည်တွေ မေးတဲ့ မေးခွန်းတွေနဲ့ အဲဒီစာရွက်စာတမ်းထဲကနေ မေးမြန်းလိုက်ရုံပါပဲ။,"您只需要一份包含您业务信息的文件,并通过该文件询问您的客户提出的问题。"
2461,"For more information about the Question Answering task, check out the Hugging Face course.",Question Answering လုပ်ငန်းအကြောင်း ပိုမိုသိရှိလိုပါက Hugging Face သင်တန်းကို ကြည့်ပါ။,"有关答题任务的更多信息,请查看 Hugging Face 课程。"
2462,In this video we’ll take a look at Causal Language Modeling.,ဒီဗီဒီယိုမှာတော့ Causal Language Modeling ကို ကြည့်ကြမယ်။,我们将会看一看因果语言建模。
2463,"Causal language modeling is the task of predicting the next word in a sentence, given all the previous words.",Causal language modeling ဆိုတာ အရင်စကားလုံးတွေအားလုံးကို ပေးထားပြီး ဝါကျတစ်ကြောင်းရဲ့ နောက်စကားလုံးကို ခန့်မှန်းတဲ့ လုပ်ငန်းပဲ ဖြစ်ပါတယ်။,"鉴于以上所有文字,造成语言建模的任务是在句子中预测下一个词。"
2464,This task is very similar to the autocorrect function that you might have on your phone.,ဒီလုပ်ငန်းက သင့်ဖုန်းမှာ ရှိနိုင်တဲ့ autocorrect function နဲ့ အရမ်းဆင်တူတယ်။,此任务与您手机上的自动校正函数非常相似 。
2465,These models take a sequence to be completed and outputs the complete sequence.,ဒီမော်ဒယ်တွေက ဖြည့်စွက်ဖို့ sequence တစ်ခုကို ယူပြီး ပြီးပြည့်စုံတဲ့ sequence ကို ထုတ်ပေးတယ်။,"这些模型需要完成一个序列,并产生完整的序列。"
2466,Classification metrics can’t be used as there’s no single correct answer for completion.,ဖြည့်စွက်ဖို့အတွက် မှန်ကန်တဲ့ အဖြေတစ်ခုတည်း မရှိတာကြောင့် Classification metric တွေကို သုံးလို့ မရဘူး။,"分类衡量标准无法使用,因为没有完成的单一正确答案。"
2467,"Instead, we evaluate the distribution of the text completed by the model.",အစားထိုးအနေနဲ့ မော်ဒယ်က ဖြည့်စွက်ထားတဲ့ စာသားရဲ့ ဖြန့်ဝေမှုကို အကဲဖြတ်တယ်။,"相反,我们评价模式完成的案文的分发情况。"
2468,A common metric to do so is the cross-entropy loss. Perplexity is also a widely used metric and it is calculated as the exponential of the cross-entropy loss.,ဒီလိုလုပ်ဖို့ အများအားဖြင့် သုံးတဲ့ metric ကတော့ cross-entropy loss ဖြစ်ပါတယ်။ Perplexity ကလည်း ကျယ်ကျယ်ပြန့်ပြန့် အသုံးပြုတဲ့ metric တစ်ခုဖြစ်ပြီး cross-entropy loss ရဲ့ exponential အဖြစ် တွက်ချက်တယ်။,"一种通用的衡量标准是跨作物损失,重复性也是广泛使用的一种衡量标准,它作为跨作物损失的指数计算。"
2469,You can use any dataset with plain text and tokenize the text to prepare the data.,plain text ပါတဲ့ မည်သည့် dataset ကိုမဆို သုံးနိုင်ပြီး ဒေတာကို ပြင်ဆင်ဖို့အတွက် စာသားကို tokenize လုပ်နိုင်တယ်။,"您可以使用任何带有纯文本的数据集,并将文本符号化以编制数据。"
2470,Causal language models can be used to generate code.,Causal language model တွေကို code တွေ ထုတ်ပေးဖို့ သုံးနိုင်တယ်။,可使用因果语言模型生成代码。
2471,"For more information about the Causal Language Modeling task, check out the Hugging Face course.",Causal Language Modeling လုပ်ငန်းအကြောင်း ပိုမိုသိရှိလိုပါက Hugging Face သင်တန်းကို ကြည့်ပါ။,"欲了解更多有关因果语言建模任务的信息,请查看 Hugging Face 课程。"
2472,In this video we’ll take a look at Masked Language Modeling.,ဒီဗီဒီယိုမှာတော့ Masked Language Modeling ကို ကြည့်ကြမယ်။,我们将会看一看蒙面语言建模。
2473,Masked language modeling is the task of predicting which words should fill in the blanks of a sentence.,Masked language modeling ဆိုတာ ဝါကျတစ်ကြောင်းရှိ ကွက်လပ်တွေကို ဘယ်စကားလုံးတွေက ဖြည့်သင့်တယ်ဆိုတာ ခန့်မှန်းတဲ့ လုပ်ငန်းပဲ ဖြစ်ပါတယ်။,蒙面语言建模的任务是预测应在句子的空白部分填写哪些字。
2474,These models take a masked text as the input and output the possible values for that mask.,ဒီမော်ဒယ်တွေက mask လုပ်ထားတဲ့ စာသားကို input အဖြစ် ယူပြီး အဲဒီ mask အတွက် ဖြစ်နိုင်တဲ့ တန်ဖိုးတွေကို ထုတ်ပေးတယ်။,这些模型采用隐形文字作为输入和输出该掩码的可能值。
2475,Masked language modeling is handy before fine-tuning your model for your task.,Masked language modeling က သင့်လုပ်ငန်းအတွက် မော်ဒယ်ကို fine-tuning မလုပ်ခင် အသုံးဝင်တယ်။,"在为您的任务微调您的模型之前, 掩码语言模型是方便的 。"
2476,"For example, if you need to use a model in a specific domain, say, biomedical documents, models like BERT will treat your domain-specific words as rare tokens.",ဥပမာအားဖြင့် သင့်အနေနဲ့ ဆေးဘက်ဆိုင်ရာ စာရွက်စာတမ်းတွေလိုမျိုး သီးခြားနယ်ပယ်တစ်ခုမှာ မော်ဒယ်ကို သုံးဖို့လိုရင် BERT လို မော်ဒယ်တွေက သင့်နယ်ပယ်ဆိုင်ရာ စကားလုံးတွေကို ရှားပါး token တွေအဖြစ် သတ်မှတ်ပါလိမ့်မယ်။,"例如,如果在特定领域需要使用模型,例如生物医学文件,BERT等模型将把特定域名当作稀有象征。"
2477,"If you train a masked language model using your biomedical corpus and then fine tune your model on a downstream task, you will have a better performance.",သင့်ရဲ့ ဆေးဘက်ဆိုင်ရာ corpus ကို သုံးပြီး masked language model တစ်ခုကို လေ့ကျင့်ပြီးမှ သင့်မော်ဒယ်ကို downstream လုပ်ငန်းတစ်ခုပေါ် fine tune လုပ်ရင် ပိုကောင်းတဲ့ စွမ်းဆောင်ရည် ရပါလိမ့်မယ်။,"如果你用生物医学来训练一个蒙面语言模型, 然后用下游任务来微调你的模型, 你会有更好的表现。"
2478,Classification metrics can’t be used as there’s no single correct answer to mask values.,mask တန်ဖိုးတွေအတွက် မှန်ကန်တဲ့ အဖြေတစ်ခုတည်း မရှိတာကြောင့် Classification metric တွေကို သုံးလို့ မရဘူး။,"不能使用分类指标,因为对掩码值没有单一的正确答案。"
2479,"Instead, we evaluate the distribution of the mask values.",အစားထိုးအနေနဲ့ mask တန်ဖိုးတွေရဲ့ ဖြန့်ဝေမှုကို အကဲဖြတ်တယ်။,"相反,我们评估了面具价值的分布。"
2480,A common metric to do so is the cross-entropy loss.,ဒီလိုလုပ်ဖို့ အများအားဖြင့် သုံးတဲ့ metric ကတော့ cross-entropy loss ဖြစ်ပါတယ်။,交叉作物损失是衡量此种损失的一个通用标准。
2481,Perplexity is also a widely used metric and it is calculated as the exponential of the cross-entropy loss.,Perplexity ကလည်း ကျယ်ကျယ်ပြန့်ပြန့် အသုံးပြုတဲ့ metric တစ်ခုဖြစ်ပြီး cross-entropy loss ရဲ့ exponential အဖြစ် တွက်ချက်တယ်။,"重复性也是广泛使用的一种衡量标准,它作为交叉热带损失的指数计算。"
2482,You can use any dataset with plain text and tokenize the text to mask the data.,plain text ပါတဲ့ မည်သည့် dataset ကိုမဆို သုံးနိုင်ပြီး ဒေတာကို mask လုပ်ဖို့အတွက် စာသားကို tokenize လုပ်နိုင်တယ်။,"您可以使用任何带有纯文本的数据集,并将文本符号化以隐藏数据。"
2483,"For more information about the Masked Language Modeling, check out the Hugging Face course.",Masked Language Modeling အကြောင်း ပိုမိုသိရှိလိုပါက Hugging Face သင်တန်းကို ကြည့်ပါ။,"更多有关蒙面语言模型的信息,请查看 Huging Face 课程。"
2484,"In this video, we will take a look at the Text Summarization task.",ဒီဗီဒီယိုမှာတော့ Text Summarization လုပ်ငန်းကို ကြည့်ကြမယ်။,"在这部影片中,我们将审视文本总结任务。"
2485,Summarization is a task of producing a shorter version of a document while preserving the relevant and important information in the document.,Summarization ဆိုတာ စာရွက်စာတမ်းထဲက သက်ဆိုင်ရာနဲ့ အရေးကြီးတဲ့ အချက်အလက်တွေကို ထိန်းသိမ်းထားပြီး စာရွက်စာတမ်းတစ်ခုရဲ့ ပိုတိုတဲ့ ဗားရှင်းကို ထုတ်လုပ်တဲ့ လုပ်ငန်းပဲ ဖြစ်ပါတယ်။,"总结是一项任务,即制作一个较短的文件版本,同时保留文件中的相关和重要信息。"
2486,Summarization models take a document to be summarized and output the summarized text.,Summarization မော်ဒယ်တွေက အနှစ်ချုပ်ဖို့ စာရွက်စာတမ်းတစ်ခုကို ယူပြီး အနှစ်ချုပ်ထားတဲ့ စာသားကို ထုတ်ပေးတယ်။,"总结模型需要一份文件加以总结,并输出摘要文本。"
2487,This task is evaluated on the ROUGE score. It’s based on the overlap between the produced sequence and the correct sequence.,ဒီလုပ်ငန်းကို ROUGE score နဲ့ အကဲဖြတ်ပါတယ်။ ၎င်းသည် ထုတ်လုပ်ထားသော sequence နှင့် မှန်ကန်သော sequence ကြားရှိ ထပ်နေမှုအပေါ် အခြေခံသည်။,"这项工作是根据ROUGE分数来评估的,其依据是所制作的顺序与正确的顺序之间的重叠。"
2488,"You might see this as ROUGE-1, which is the overlap of single tokens and ROUGE-2, the overlap of subsequent token pairs. ROUGE-N refers to the overlap of n subsequent tokens. Here we see an example of how overlaps take place.",ဒါကို ROUGE-1 အဖြစ် မြင်နိုင်တယ်၊ ဒါက token တစ်ခုတည်း ထပ်နေတာဖြစ်ပြီး ROUGE-2 ကတော့ နောက်ဆက်တွဲ token နှစ်လုံး ထပ်နေတာပေါ့။ ROUGE-N ကတော့ နောက်ဆက်တွဲ n token တွေ ထပ်နေတာကို ဆိုလိုတယ်။ ဒီမှာ ထပ်နေတာတွေ ဘယ်လိုဖြစ်လဲဆိုတာ ဥပမာတစ်ခုကို မြင်ရတယ်။,"您可能认为这是ROUGE-1号, 即单面条的重叠和ROUGE-2号的重叠, 以及后来的配对的重叠。 ROUGE- N 是指以后的代号的重叠。 这里我们可以看到一个重叠发生方式的例子 。"
2489,"An example dataset used for this task is called Extreme Summarization, XSUM. This dataset contains texts and their summarized versions.",ဒီလုပ်ငန်းအတွက် အသုံးပြုတဲ့ ဥပမာ ဒေတာအတွဲတစ်ခုက Extreme Summarization၊ XSUM ဖြစ်ပါတယ်။ ဒီဒေတာအတွဲမှာ စာသားတွေနဲ့ သူတို့ရဲ့ အနှစ်ချုပ်ထားတဲ့ ဗားရှင်းတွေ ပါဝင်တယ်။,"用于此任务的一个示例数据集称为极端汇总, XSUM。 该数据集包含文本及其摘要版本 。"
2490,You can use summarization models to summarize research papers which would enable researchers to easily pick papers for their reading list.,Summarization မော်ဒယ်တွေကို သုတေသနစာတမ်းတွေ အနှစ်ချုပ်ဖို့ သုံးနိုင်တယ်၊ ဒါက သုတေသီတွေအတွက် ဖတ်ဖို့ စာရင်းထဲက စာတမ်းတွေကို အလွယ်တကူ ရွေးချယ်နိုင်စေတယ်။,"你可以使用总结模型来总结研究论文,使研究人员能够很容易地为阅读清单选取论文。"
2491,"For more information about the Summarization task, check out the Hugging Face course.",Summarization လုပ်ငန်းအကြောင်း ပိုမိုသိရှိလိုပါက Hugging Face သင်တန်းကို ကြည့်ပါ။,"关于总结任务的更多信息,请查看 Hugging Face 课程。"
2492,"In this video, we will take a look at the Translation task.",ဒီဗီဒီယိုမှာတော့ Translation လုပ်ငန်းကို ကြည့်ကြမယ်။,这部影片将展示翻译任务。
2493,Translation is the task of translating text from one language to another.,Translation ဆိုတာ စာသားကို ဘာသာစကားတစ်ခုကနေ နောက်တစ်ခုဆီ ဘာသာပြန်တဲ့ လုပ်ငန်းပဲ ဖြစ်ပါတယ်။,翻译的任务是将文本从一种语文翻译到另一种语文。
2494,These models take a text in the source language and output the translation of that text in the target language.,ဒီမော်ဒယ်တွေက အရင်းဘာသာစကားနဲ့ စာသားကို ယူပြီး ပစ်မှတ်ဘာသာစကားနဲ့ အဲဒီစာသားရဲ့ ဘာသာပြန်ကို ထုတ်ပေးတယ်။,"这些模型采用源语文文本,并将该文本翻译成目标语文。"
2495,The task is evaluated on the BLEU score.,ဒီလုပ်ငန်းကို BLEU score နဲ့ အကဲဖြတ်တယ်။,这项任务根据BLEU分数进行评估。
2496,"The score ranges from 0 to 1, in which 1 means the translation perfectly matched and 0 did not match at all.",score က 0 ကနေ 1 အထိ ရှိပြီး 1 ဆိုရင် ဘာသာပြန်တာ အတိအကျ ကိုက်ညီတယ်၊ 0 ဆိုရင် လုံးဝ မကိုက်ညီဘူးလို့ ဆိုလိုတယ်။,"得分从0到1不等,其中1表示翻译完全吻合,0完全不匹配。"
2497,BLEU is calculated over subsequent tokens called n-grams.,BLEU ကို n-grams လို့ခေါ်တဲ့ နောက်ဆက်တွဲ token တွေပေါ်မှာ တွက်ချက်တယ်။,BLEU是用后来的代号N克计算的。
2498,Unigram refers to a single token while bi-gram refers to token pairs and n-grams refer to n subsequent tokens.,Unigram က token တစ်ခုတည်းကို ဆိုလိုပြီး bi-gram က token စုံတွဲကို ဆိုလိုတယ်၊ n-grams ကတော့ နောက်ဆက်တွဲ n token တွေကို ဆိုလိုတယ်။,"Unigram 指一个符号,而Bigram 指一个符号配对,ngram 指n以后的符号。"
2499,Machine translation datasets contain pairs of text in a language and translation of the text in another language.,စက်ဘာသာပြန် ဒေတာအတွဲတွေမှာ ဘာသာစကားတစ်ခုနဲ့ အဲဒီစာသားရဲ့ တခြားဘာသာစကားနဲ့ ဘာသာပြန်တွေကို တွဲဖက်ထားတာ ပါဝင်တယ်။,机器翻译数据集包含一种语文的文本和另一种语文的文本翻译。
2500,These models can help you build conversational agents across different languages.,ဒီမော်ဒယ်တွေက ဘာသာစကား အမျိုးမျိုးနဲ့ စကားပြော အေးဂျင့်တွေကို တည်ဆောက်ဖို့ ကူညီနိုင်တယ်။,这些模型可以帮助您建立不同语言的对话代理。
2501,One option is to translate the training data used for the chatbot and train a separate chatbot.,နည်းလမ်းတစ်ခုကတော့ chatbot အတွက် သုံးတဲ့ training data ကို ဘာသာပြန်ပြီး သီးခြား chatbot တစ်ခုကို လေ့ကျင့်တာပဲ။,"一种选择是翻译聊天室使用的培训数据,并培训单独的聊天室。"
2502,"You can put one translation model from your user’s language to the language your chatbot is trained on, translate the user inputs and do intent classification, take the output of the chatbot and translate it from the language your chatbot was trained on to the user’s language.",သင့် user ရဲ့ ဘာသာစကားကနေ သင့် chatbot ကို လေ့ကျင့်ထားတဲ့ ဘာသာစကားဆီကို ဘာသာပြန် မော်ဒယ်တစ်ခု ထားနိုင်တယ်၊ user inputs တွေကို ဘာသာပြန်ပြီး intent classification လုပ်နိုင်တယ်၊ chatbot ရဲ့ output ကို ယူပြီး သင့် chatbot လေ့ကျင့်ထားတဲ့ ဘာသာစကားကနေ user ရဲ့ ဘာသာစကားဆီ ပြန်ဘာသာပြန်နိုင်တယ်။,"您可以将一个翻译模型从您的用户语言翻译成您所培训的聊天室语言,翻译用户投入并进行意图分类,将聊天室的输出从您所培训的语言翻译成用户语言。"
2503,"For more information about the Translation task, check out the Hugging Face course.",Translation လုပ်ငန်းအကြောင်း ပိုမိုသိရှိလိုပါက Hugging Face သင်တန်းကို ကြည့်ပါ။,"有关翻译任务的更多信息,请查看Hugging Face课程。"