Dataset Viewer
Auto-converted to Parquet Duplicate
Id
int64
1
2.5k
English
stringlengths
5
630
Burmese
stringlengths
5
585
Chinese
stringlengths
3
513
1
Welcome to the Hugging Face Course.
Hugging Face သင်တန်းမှ ကြိုဆိုပါတယ်။
欢迎来到“hugging face”课程。
2
This course has been designed to teach you all about the Hugging Face ecosystem, how to use the dataset and model hub as well as all our open-source libraries.
ဒီသင်တန်းကို Hugging Face ရဲ့ ဂေဟစနစ် အကြောင်း၊ dataset နဲ့ model hub တွေကို ဘယ်လိုအသုံးပြုရမလဲ၊ ကျွန်ုပ်တို့ရဲ့ open-source library တွေအားလုံးကို ဘယ်လိုသုံးရမလဲဆိုတာတွေကို သင်ကြားပေးဖို့ ရေးဆွဲထားတာပါ။
本课程旨在向各位传授关于“Hugging Face”、如何使用数据集和模型枢纽以及我们所有开放源码图书馆的知识。
3
Here is the Table of Contents.
ဒီမှာတော့ သင်တန်းရဲ့ အကြောင်းအရာများ အညွှန်း ဖြစ်ပါတယ်။
这是目录。
4
As you can see, it's divided in three sections which become progressively more advanced.
သင်မြင်တဲ့အတိုင်း ဒီသင်တန်းကို အပိုင်းသုံးပိုင်း ခွဲခြားထားပြီး တစ်ပိုင်းပြီးတစ်ပိုင်း ပိုမိုအဆင့်မြင့်လာမှာ ဖြစ်ပါတယ်။
如你所见,它分为三个部分, 逐渐更先进。
5
At this stage, the first two sections have been released.
ဒီအဆင့်မှာတော့ ပထမဆုံး အပိုင်းနှစ်ပိုင်းကို ထုတ်ပြန်ပြီးပါပြီ။
在现阶段,前两节已经获释。
6
So first, we'll teach you the basics of how to use a Transformer model, fine-tune it on your own data set and share the result with the community.
ပထမဦးစွာ Transformer model ကို ဘယ်လိုအသုံးပြုရမယ်၊ ကိုယ်ပိုင် data set ပေါ်မှာ ဘယ်လို fine-tune လုပ်ရမယ်၊ ပြီးတော့ ရလဒ်ကို အသိုင်းအဝိုင်းနဲ့ ဘယ်လိုမျှဝေရမယ်ဆိုတဲ့ အခြေခံတွေကို သင်ကြားပေးပါမယ်။
首先,我们将教你们如何使用变形模型的基本原理, 微调它,在你自己的数据集上进行微调, 并与社区分享结果。
7
So second, we'll dive deeper into our libraries and teach you how to tackle any NLP task.
ဒုတိယအနေနဲ့ ကျွန်ုပ်တို့ရဲ့ library တွေထဲကို ပိုမိုနက်နက်နဲနဲ လေ့လာပြီး မည်သည့် NLP (သဘာဝဘာသာစကား စီမံဆောင်ရွက်ခြင်း) လုပ်ငန်းကိုမဆို ဖြေရှင်းနိုင်မယ့် နည်းလမ်းတွေကို သင်ပေးပါမယ်။
第二,我们深入图书馆 教你们如何完成任何NLP任务。
8
We're actively working on the last one and hope to have it ready for you for the spring of 2022.
နောက်ဆုံးအပိုင်းကိုတော့ ကျွန်ုပ်တို့ တက်ကြွစွာ ဆောင်ရွက်နေပြီး ၂၀၂၂ ခုနှစ် နွေဦးရာသီမှာ အသင့်ဖြစ်အောင် လုပ်ပေးနိုင်လိမ့်မယ်လို့ မျှော်လင့်ပါတယ်။
我们正在积极研究最后一个 希望能在2022年春天为你准备好
9
The first chapter requires no technical knowledge and is a good introduction to learn what Transformers models can do and how it could be of use to you or your company.
ပထမအခန်းအတွက်တော့ နည်းပညာပိုင်းဆိုင်ရာ အသိပညာ မလိုအပ်ပါဘူး၊ Transformer မော်ဒယ်တွေ ဘာတွေလုပ်နိုင်တယ်၊ ဒါတွေက သင် ဒါမှမဟုတ် သင့်ကုမ္ပဏီအတွက် ဘယ်လိုအသုံးဝင်နိုင်တယ်ဆိုတာ လေ့လာဖို့အတွက် ကောင်းမွန်တဲ့ နိဒါန်းတစ်ခု ဖြစ်ပါတယ်။
第一章不要求技术知识,而是一个很好的介绍,以了解变形模型能够做些什么,以及如何对你或你的公司有用。
10
The next chapters require a good knowledge of Python and some basic knowledge of Machine Learning and Deep Learning.
နောက်အခန်းတွေအတွက်တော့ Python ကို ကောင်းကောင်းသိဖို့နဲ့ Machine Learning၊ Deep Learning တို့ရဲ့ အခြေခံအသိပညာအချို့ လိုအပ်ပါတယ်။
下一章需要精通皮顿,并需要掌握机器学习和深层学习的一些基本知识。
11
If you don't know what a training and validation set are or what gradient descent means, you should look at an introductory course such as the ones published by deeplearning.ai or fast.ai.
အကယ်၍ training set နဲ့ validation set ဆိုတာဘာလဲ၊ ဒါမှမဟုတ် gradient descent ဆိုတာ ဘာကိုဆိုလိုသလဲဆိုတာ မသိဘူးဆိုရင် deeplearning.ai ဒါမှမဟုတ် fast.ai တို့က ထုတ်ဝေထားတဲ့ နိဒါန်းသင်တန်းတွေလိုမျိုး သင်တန်းတွေကို ကြည့်သင့်ပါတယ်။
如果你不知道什么是培训和验证组或梯度下降意味着什么,你应该看一看入门课程,例如深层次学习所出版的课程。
12
It's also best if you have some basics in one Deep Learning Framework, PyTorch or TensorFlow.
Deep Learning Framework တစ်ခုခုဖြစ်တဲ့ PyTorch ဒါမှမဟုတ် TensorFlow မှာ အခြေခံအချို့ ရှိထားမယ်ဆိုရင် ပိုကောင်းပါတယ်။
也最好你有一个深学习框架, 即PyTorch或Tensor Flow 中的一些基本知识。
13
Each part of the material introduced in this course has a version in both those frameworks, so you will be able to pick the one you are most comfortable with.
ဒီသင်တန်းမှာ မိတ်ဆက်ပေးထားတဲ့ အကြောင်းအရာ အစိတ်အပိုင်းတိုင်းမှာ အဲဒီ framework နှစ်ခုလုံးအတွက် version တွေ ရှိပါတယ်၊ ဒါကြောင့် သင်အကျွမ်းကျင်ဆုံးဖြစ်တဲ့ တစ်ခုကို ရွေးချယ်နိုင်ပါလိမ့်မယ်။
本课程中介绍的材料的每一部分都有这两个框架中的版本,这样你就可以选择最满意的材料。
14
This is the team that developed this course.
ဒါကတော့ ဒီသင်တန်းကို ရေးဆွဲခဲ့တဲ့ အဖွဲ့ပဲ ဖြစ်ပါတယ်။
这是开发这个课程的团队。
15
I'll now let each of the speakers introduce themselves briefly.
အခုဆိုရင် စကားပြောမယ့်သူ တစ်ဦးချင်းစီကို သူတို့ကိုယ်သူတို့ အတိုချုံး မိတ်ဆက်ပေးဖို့ ခွင့်ပြုပါမယ်။
现在,我让每个发言者作简短的自我介绍。
16
Hi, my name is Matthew, and I'm a Machine Learning Engineer at Hugging Face.
မင်္ဂလာပါ၊ ကျွန်တော့်နာမည် Matthew ဖြစ်ပြီး Hugging Face မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးပါ။
嗨,我的名字是马修, 我是机械学习工程师 在Hugging Face。
17
I work on the open-source team and I'm responsible for maintaining particularly the TensorFlow code there.
ကျွန်တော်ဟာ open-source အဖွဲ့မှာ လုပ်ကိုင်ပြီး အထူးသဖြင့် TensorFlow code တွေကို ထိန်းသိမ်းစောင့်ရှောက်ဖို့ တာဝန်ယူထားပါတယ်။
我为开放源码小组工作 我负责维护这里的 特索佛罗密码
18
Previously, I was a Machine Learning Engineer at Parsley, who've recently been acquired by Automatic, and I was a postdoctoral researcher before that at Trinity College, Dublin in Ireland working on computational genetics and retinal disease.
အရင်တုန်းကတော့ Automatic က မကြာသေးခင်ကမှ ဝယ်ယူခဲ့တဲ့ Parsley မှာ Machine Learning Engineer အဖြစ် လုပ်ခဲ့ဖူးပါတယ်၊ အဲဒီ့မတိုင်ခင်က အိုင်ယာလန်နိုင်ငံ၊ Dublin ရှိ Trinity College မှာ မျက်ကြည်လွှာရောဂါနဲ့ ကွန်ပျူတာ မျိုးရိုးဗီဇဆိုင်ရာ သုတေသနတွေ လုပ်ခဲ့တဲ့ postdoctoral researcher တစ်ဦး ဖြစ်ခဲ့ပါတယ်။
以前,我是Parsley的机械学习工程师 最近被自动公司收购 在此之前,我是博士后研究员 在爱尔兰都柏林三一学院研究计算遗传学和视网膜病
19
Hi, I'm Lysandre.
မင်္ဂလာပါ၊ ကျွန်တော် Lysandre ပါ။
嗨,我是莱珊卓
20
I'm a Machine Learning Engineer at Hugging Face and I'm specifically part of the open-source team.
ကျွန်တော်က Hugging Face မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးဖြစ်ပြီး open-source အဖွဲ့မှာ အထူးပါဝင်သူပါ။
我是Hugging Face的机器学习工程师 我是开放源码团队的一员
21
I've been at Hugging Face for a few years now and alongside my team members, I've been working on most of the tools that you'll get to see in this course.
ကျွန်တော် Hugging Face မှာ အခုဆိုရင် နှစ်အနည်းငယ်ကြာပြီဖြစ်ပြီး ကျွန်တော့်ရဲ့ အဖွဲ့သားတွေနဲ့အတူ ဒီသင်တန်းမှာ သင်တို့တွေ့မြင်ရမယ့် ကိရိယာအများစုကို တီထွင်ဖန်တီးခဲ့ပါတယ်။
我和我的团队成员 一起工作了几年了 大部分工具都是你们在课程中可以见到的
22
Hi, I'm Sylvain.
မင်္ဂလာပါ၊ ကျွန်တော် Sylvain ပါ။
嗨,我是西尔万
23
I'm a Research Engineer at Hugging Face and one of the main maintainers of the Transformers Library.
ကျွန်တော်က Hugging Face မှာ သုတေသန အင်ဂျင်နီယာတစ်ဦးဖြစ်ပြီး Transformers Library ရဲ့ အဓိက ထိန်းသိမ်းသူတွေထဲက တစ်ယောက်ပါ။
我是Hugging Face的研究工程师 也是变形图书馆的主要维护者之一
24
Previously, I worked at fast.ai where I helped develop the fast.ai Library as well as the online book.
အရင်တုန်းက fast.ai မှာ အလုပ်လုပ်ခဲ့ပြီး fast.ai Library နဲ့ online စာအုပ်ကို တီထွင်ရာမှာ ကူညီခဲ့ပါတယ်။
之前我工作很快, 在那里我帮助开发快、快、快、快、快的图书馆和网上书籍。
25
Before that, I was a math and computer science teacher in France.
အဲဒီ့မတိုင်ခင်က ပြင်သစ်မှာ သင်္ချာနဲ့ ကွန်ပျူတာသိပ္ပံဆရာတစ်ဦး ဖြစ်ခဲ့ပါတယ်။
在那之前,我是法国的数学和计算机科学老师
26
Hi, my name is Sasha and I'm a Researcher at Hugging Face, working on the ethical, environmental and social impacts of machine learning models.
မင်္ဂလာပါ၊ ကျွန်တော့်နာမည် Sasha ဖြစ်ပြီး Hugging Face မှာ သုတေသီတစ်ဦးပါ၊ စက်သင်ယူမှု မော်ဒယ်တွေရဲ့ ကျင့်ဝတ်၊ သဘာဝပတ်ဝန်းကျင်နဲ့ လူမှုရေးဆိုင်ရာ သက်ရောက်မှုတွေအပေါ် လုပ်ဆောင်နေပါတယ်။
嗨,我的名字是萨沙,我是 一名研究家在Hugging Face, 研究机器学习模型的伦理、环境和社会影响。
27
Previously, I was a postdoctoral researcher at Mila, University in Montreal and I also worked as an Applied AI Researcher for the United Nations Global Pulse.
အရင်တုန်းက Montreal ရှိ Mila တက္ကသိုလ်မှာ postdoctoral researcher အဖြစ်လုပ်ခဲ့ပြီး ကုလသမဂ္ဂ Global Pulse အတွက် Applied AI Researcher အဖြစ်လည်း လုပ်ခဲ့ဖူးပါတယ်။
以前,我是蒙特利尔大学米拉的博士后研究员,我也是联合国全球脉冲应用AI研究员。
28
I've been involved in projects such as CodeCarbon and the Machine Learning Impacts Calculator to measure the carbon footprint of machine learning.
စက်သင်ယူမှုရဲ့ ကာဗွန်ခြေရာကို တိုင်းတာဖို့ CodeCarbon နဲ့ Machine Learning Impacts Calculator လိုမျိုး ပရောဂျက်တွေမှာ ပါဝင်ခဲ့ပါတယ်။
我参与过一些项目 比如代码卡本和机器学习影响计算仪 来测量机器学习的碳足迹
29
Hi, I'm Merve and I'm a Developer Advocate at Hugging Face.
မင်္ဂလာပါ၊ ကျွန်တော် Merve ပါ၊ Hugging Face မှာ Developer Advocate တစ်ဦးပါ။
嗨 我是Merve 我是"抱抱脸"的 开发商律师
30
Previously, I was working as a Machine Learning Engineer building NLP tools and chatbots.
အရင်က NLP ကိရိယာတွေနဲ့ chatbots တွေတည်ဆောက်တဲ့ စက်သင်ယူမှု အင်ဂျင်နီယာအဖြစ် လုပ်ခဲ့ပါတယ်။
以前,我是机械学习工程师 建造NLP工具和聊天室。
31
Currently, I'm working to improve the hub and democratize machine learning.
လက်ရှိမှာတော့ hub ကို တိုးတက်အောင်လုပ်ဖို့နဲ့ စက်သင်ယူမှုကို လူတိုင်းသုံးနိုင်အောင် လုပ်ဆောင်ဖို့ ကြိုးစားနေပါတယ်။
目前,我正在努力改进中心 和民主化的机器学习。
32
Hello everyone.
အားလုံးမင်္ဂလာပါ။
大家好,你们好
33
My name is Lucile and I'm a Machine Learning Engineer at Hugging Face.
ကျွန်မနာမည် Lucile ဖြစ်ပြီး Hugging Face မှာ စက်သင်ယူမှု အင်ဂျင်နီယာပါ။
我叫Lucile 我是载客脸部的机械学习工程师
34
To tell you in two sentences who I am, I work on the development and support of open-source tools and I also participate in several research project in the field of Natural Language Processing.
ကျွန်မ ဘယ်သူလဲဆိုတာကို ဝါကျနှစ်ကြောင်းနဲ့ ပြောရရင် open-source ကိရိယာတွေကို တီထွင်တာနဲ့ အထောက်အပံ့ပေးတာတွေ လုပ်ဆောင်ပြီး သဘာဝဘာသာစကား စီမံဆောင်ရွက်ခြင်း (Natural Language Processing) နယ်ပယ်က သုတေသနပရောဂျက်များစွာမှာလည်း ပါဝင်ပါတယ်။
在两句话中,我要告诉你们我是谁,我致力于开发和支持开放源码工具,我还参加了自然语言处理领域的几个研究项目。
35
Good day there.
မင်္ဂလာရှိသောနေ့ပါ။
日安,你好吗?
36
I'm Lewis and I'm a Machine Learning Engineer in the open-source team at Hugging Face.
ကျွန်တော် Lewis ပါ၊ Hugging Face ရဲ့ open-source အဖွဲ့မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးပါ။
我是刘易斯,我是机械学习工程师 在Hugging Face的开放源码团队。
37
I'm passionate about developing tools for the NLP community and you'll see me at many of Hugging Face's outreach activities.
NLP အသိုင်းအဝိုင်းအတွက် ကိရိယာတွေ တီထွင်ရတာကို ဝါသနာပါပြီး Hugging Face ရဲ့ လူထုဆက်သွယ်ရေး လှုပ်ရှားမှုများစွာမှာ ကျွန်တော့်ကို တွေ့ရပါလိမ့်မယ်။
我热衷于为NLP社区开发工具, 你会看到我参加许多Hugging Face的推广活动。
38
Before joining Hugging Face, I spent several years developing machine learning applications for startups and enterprises in the domains of NLP, topological data analysis and time series.
Hugging Face မှာ မဝင်ခင်က NLP၊ topological data analysis နဲ့ time series တို့လို နယ်ပယ်တွေမှာ start-up တွေနဲ့ လုပ်ငန်းကြီးတွေအတွက် စက်သင်ယူမှု applications တွေကို နှစ်ပေါင်းများစွာ တီထွင်ခဲ့ဖူးပါတယ်။
在加入Hugging Face之前,我花了几年时间为新创办企业和企业开发机器学习应用程序,这些应用程序包括国家实验室方案、地形数据分析和时间序列。
39
In a former life, I was a theoretical physicist, where I researched particle collisions at the Large Hadron Collider and so.
အရင်ဘဝတုန်းက ကျွန်တော်က သီအိုရီဆိုင်ရာ ရူပဗေဒပညာရှင်ဖြစ်ပြီး Large Hadron Collider မှာ အမှုန်တိုက်မှုတွေကို သုတေသနလုပ်ခဲ့ပါတယ်။
在前世,我是一个理论物理学家, 在那里我研究粒子碰撞 在大型强子对撞机等等。
40
Hey, I'm Leandro and I'm a Machine Learning Engineer in the open-source team at Hugging Face.
ဟေး၊ ကျွန်တော် Leandro ပါ၊ Hugging Face ရဲ့ open-source အဖွဲ့မှာ စက်သင်ယူမှု အင်ဂျင်နီယာတစ်ဦးပါ။
嘿,我是莱安德罗,我是机器学习工程师 在Hugging Face的开放源码团队。
41
Before joining Hugging Face, I worked as a Data Scientist in Switzerland and have taught Data Science at University.
Hugging Face ကို မဝင်ခင်က ဆွစ်ဇာလန်မှာ Data Scientist အဖြစ် လုပ်ကိုင်ခဲ့ပြီး တက္ကသိုလ်မှာ ဒေတာသိပ္ပံ ကို သင်ကြားခဲ့ဖူးပါတယ်။
我在瑞士当数据科学家, 在大学教授数据科学。
42
The pipeline function.
pipeline လုပ်ဆောင်ချက်။
管道功能。
43
The pipeline function is the most high level API of the Transformers library.
pipeline လုပ်ဆောင်ချက်သည် Transformers library ၏ အမြင့်ဆုံး အဆင့်ရှိ API တစ်ခု ဖြစ်သည်။
输油管功能是变压器图书馆中最高水平的API。
44
It regroups together all the steps to go from raw texts to usable predictions.
၎င်းသည် မူရင်းစာသားများမှ အသုံးပြုနိုင်သော ခန့်မှန်းချက်များအထိ ရောက်ရှိရန် လိုအပ်သည့် အဆင့်အားလုံးကို စုစည်းပေးထားသည်။
它集中了从原始文本到可用预测的所有步骤。
45
The model used is at the core of a pipeline, but the pipeline also include all the necessary pre-processing, since the model does not expect texts, but number, as well as some post-processing, to make the output of the model human-readable.
အသုံးပြုထားသည့် မော်ဒယ်သည် pipeline၏ အဓိကဖြစ်သော်လည်း၊ မော်ဒယ်သည် စာသားများအစား နံပါတ်များကိုသာ လက်ခံသောကြောင့် လိုအပ်သည့် ကြိုတင်စီမံဆောင်ရွက်မှုများအားလုံးနှင့် မော်ဒယ်၏ အထွက်ကို လူသားများ ဖတ်ရှုနားလည်နိုင်စေရန် နောက်ဆက်တွဲ စီမံဆောင်ရွက်မှုအချို့ကိုလည်း pipelineတွင် ပါဝင်စေသည်။
所使用的模型是管道的核心,但管道也包括所有必要的预处理,因为模型并不期望文本,而是要数字,以及一些后处理,使模型的产出可以人读。
46
Let's look at a first example with the sentiment analysis pipeline.
ခံစားချက် ခွဲခြမ်းစိတ်ဖြာခြင်း pipelineဖြင့် ပထမဆုံး ဥပမာတစ်ခုကို ကြည့်ကြရအောင်။
让我们看看第一个关于情绪分析管道的例子。
47
This pipeline performs text classification on a given input and determines if it's positive or negative.
ဤpipelineသည် ပေးထားသော ထည့်သွင်းစာသားပေါ်တွင် စာသားခွဲခြားသတ်မှတ်ခြင်းကို လုပ်ဆောင်ပြီး အပြုသဘောဆောင်ခြင်း သို့မဟုတ် အနုတ်သဘောဆောင်ခြင်း ရှိမရှိ ဆုံးဖြတ်သည်။
此管道对给定输入进行文本分类, 并确定是正是负。
48
Here, it attributed the positive label on the given text, with a confidence of 95%.
ဤတွင်၊ ၎င်းသည် ပေးထားသော စာသားပေါ်မှာ ၉၅% ယုံကြည်မှုနှင့်အတူ အပြုသဘော label ကို သတ်မှတ်ပေးခဲ့သည်။
在此,它将肯定的标签标在给定文本上,信任度达到95%。
49
You can pass multiple texts to the same pipeline, which will be processed and passed through the model together as a batch.
pipelineတစ်ခုတည်းသို့ စာသားများစွာ ပေးပို့နိုင်ပြီး ၎င်းတို့ကို အစုလိုက် စီမံဆောင်ရွက်ပြီး မော်ဒယ်မှတစ်ဆင့် ပေးပို့ပါမည်။
您可以将多个文本传送到同一管道,该管道将作为一个批量处理和通过模型。
50
The output is a list of individual results in the same order as the input texts.
အထွက်ရလဒ်သည် ထည့်သွင်းစာသားများနှင့် တူညီသော အစီအစဉ်အတိုင်း တစ်ဦးချင်းရလဒ်များ၏ စာရင်းဖြစ်သည်။
输出是个人结果的清单,顺序与输入文本相同。
51
Here we find the same label and score for the first text, and the second text is judged negative with a confidence of 99.9%.
ဤတွင် ပထမစာသားအတွက် တူညီသော label နှင့် score ကို တွေ့ရပြီး ဒုတိယစာသားကို ၉၉.၉% ယုံကြည်မှုဖြင့် အနုတ်သဘောဆောင်သည်ဟု ဆုံးဖြတ်ခဲ့သည်။
在这里,我们找到相同的标签和第一个文本的得分,第二个文本被评为否定,信任度为99.9%。
52
The zero-shot classification pipeline is a more general text-classification pipeline, it allows you to provide the labels you want.
zero-shot classification pipeline သည် ပိုမိုယေဘုယျကျသော စာသားခွဲခြားသတ်မှတ်ခြင်း pipelineတစ်ခုဖြစ်ပြီး သင်လိုချင်သော label များကို ပေးပို့နိုင်ရန် ခွင့်ပြုသည်။
零光分类管道是一种更一般的文本分类管道, 它允许您提供您想要的标签 。
53
Here we want to classify our input text along the labels, education, politics, and business.
ဤတွင် ကျွန်ုပ်တို့သည် ထည့်သွင်းစာသားကို ပညာရေး၊ နိုင်ငံရေးနှင့် စီးပွားရေး စသည့် label များအတိုင်း ခွဲခြားသတ်မှတ်လိုသည်။
在这里,我们要按照标签、教育、政治和商业分类我们的投入文本。
54
The pipeline successfully recognizes it's more about education than the other labels, with a confidence of 84%.
၈၄% ယုံကြည်မှုဖြင့် ၎င်းသည် အခြားသော label များထက် ပညာရေးနှင့် ပိုမိုပတ်သက်ကြောင်းကို pipelineက အောင်မြင်စွာ သိရှိနိုင်ခဲ့သည်။
输油管成功确认 教育比其他标签更重要 信任度是84%
55
Moving on to other tasks, the text generation pipeline will auto-complete a given prompt.
အခြားလုပ်ငန်းများဆီသို့ ဆက်သွားပါက စာသားထုတ်လုပ်မှု pipelineသည် ပေးထားသော စာသားကို အလိုအလျောက် ဖြည့်စွက်ပေးပါလိမ့်မည်။
关于其他任务,文本生成管道将自动完成给定时间。
56
The output is generated with a bit of randomness, so it changes each time you call the generator object on a given prompt.
အထွက်ရလဒ်သည် အနည်းငယ် ကျပန်းဖြစ်မှုဖြင့် ထုတ်လုပ်ထားသောကြောင့် ပေးထားသော စာသားတစ်ခုအတွက် generator ကို ခေါ်ဆိုသည့် အကြိမ်တိုင်း ပြောင်းလဲသွားသည်။
输出是随机生成的, 所以每次您按给定提示调用生成对象时都会更改 。
57
Up until now, we've used the the pipeline API with the default model associated to each task, but you can use it with any model that has been pretrained or fine-tuned on this task.
ယခုအချိန်အထိ ကျွန်ုပ်တို့သည် လုပ်ငန်းတစ်ခုစီနှင့် သက်ဆိုင်သော မူလမော်ဒယ်ဖြင့် pipeline API ကို အသုံးပြုခဲ့သော်လည်း ဤလုပ်ငန်းအတွက် ကြိုတင်လေ့ကျင့်ထားသော သို့မဟုတ် fine-tune လုပ်ထားသော မည်သည့်မော်ဒယ်နှင့်မဆို ၎င်းကို အသုံးပြုနိုင်သည်။
到目前为止,我们一直使用输油管API 与每个任务相关的默认模式, 但是您可以使用任何已经经过预先培训或微调的模型来使用它。
58
Going on the model hub, huggingface.co/models you can filter the available models by task.
huggingface.co/models ရှိ model hub သို့ ဝင်ရောက်ပြီး ရရှိနိုင်သော မော်ဒယ်များကို လုပ်ငန်းအလိုက် စစ်ထုတ်နိုင်သည်။
在模型枢纽上, 拥抱面。 co/ models 您可以按任务过滤可用模型 。
59
The default model used in our previous example was gpt2, but there are many more models available, and not just in English.
ကျွန်ုပ်တို့၏ ယခင်ဥပမာတွင် အသုံးပြုခဲ့သော မူလမော်ဒယ်မှာ gpt2 ဖြစ်သော်လည်း အင်္ဂလိပ်ဘာသာအပြင် အခြားမော်ဒယ်များစွာကိုလည်း ရရှိနိုင်သည်။
我们前一个例子中使用的默认模式是 gpt2, 但还有更多的模型, 而不仅仅是英语。
60
Let's go back to the text generation pipeline and load it with another model, distilgpt2.
စာသားထုတ်လုပ်မှု pipelineသို့ ပြန်သွားပြီး distilgpt2 ဟူသော အခြားမော်ဒယ်ဖြင့် တင်ကြည့်ရအောင်။
让我们回到文本生成管道 装上另一个模型,提款机2
61
This is a lighter version of gpt2 created by the Hugging Face team.
၎င်းသည် Hugging Face အဖွဲ့မှ ဖန်တီးထားသော gpt2 ၏ ပိုမိုပေါ့ပါးသည့် ဗားရှင်းတစ်ခု ဖြစ်သည်။
这是一个较轻版本的 gpt2 由 抱抱脸团队创建 。
62
When applying the pipeline to a given prompt, we can specify several arguments such as the maximum length of the generated texts, or the number of sentences we want to return, since there is some randomness in the generation.
pipelineကို ပေးထားသော စာသားတစ်ခုပေါ်တွင် အသုံးချသည့်အခါ ထုတ်လုပ်မည့် စာသားများ၏ အများဆုံးအရှည် သို့မဟုတ် ပြန်လိုချင်သော စာကြောင်းအရေအတွက် စသည့် ကန့်သတ်ချက်များစွာကို သတ်မှတ်နိုင်သည်။ အဘယ်ကြောင့်ဆိုသော် ထုတ်လုပ်မှုတွင် ကျပန်းဖြစ်မှုအချို့ ပါဝင်သောကြောင့် ဖြစ်သည်။
在将管道应用于给定时间时,我们可以具体说明若干论点,例如所生成文本的最长长度,或我们希望返回的句子数目,因为一代人有一些随机性。
63
Generating texts by guessing the next word in a sentence was the pretraining objective of GPT-2.
ဝါကျတစ်ကြောင်းရှိ နောက်လာမည့် စကားလုံးကို ခန့်မှန်းခြင်းဖြင့် စာသားများ ထုတ်လုပ်ခြင်းသည် GPT-2 ၏ ကြိုတင်လေ့ကျင့်မှု ရည်မှန်းချက်ဖြစ်သည်။
通过猜测一句中的下一个词来生成文本是GPT-2的训练前目标。
64
The fill mask pipeline is the pretraining objective of BERT, which is to guess the value of masked word.
fill mask pipeline သည် ဖုံးကွယ်ထားသော စကားလုံး၏ တန်ဖိုးကို ခန့်မှန်းရန်ဖြစ်သည့် BERT ၏ ကြိုတင်လေ့ကျင့်မှု ရည်မှန်းချက်ဖြစ်သည်။
填充面罩管道是BERT的训练前目标,即猜测蒙面字的价值。
65
In this case, we ask the two most likely values for the missing words, according to the model, and get mathematical or computational as possible answers.
ဤကိစ္စတွင်၊ ကျွန်ုပ်တို့သည် ပျောက်ဆုံးနေသော စကားလုံးများအတွက် မော်ဒယ်၏ အဆိုအရ ဖြစ်နိုင်ခြေအများဆုံး တန်ဖိုးနှစ်ခုကို တောင်းဆိုခဲ့ရာ အဖြေများအဖြစ် mathematical သို့မဟုတ် computational တို့ကို ရရှိခဲ့သည်။
在此情况下,我们根据模型,对缺失的单词要求两个最可能的值,并获得数学或计算法的可能答案。
66
Another task Transformers model can perform is to classify each word in the sentence instead of the sentence as a whole.
Transformer မော်ဒယ်များ လုပ်ဆောင်နိုင်သည့် အခြားလုပ်ငန်းတစ်ခုမှာ ဝါကျတစ်ခုလုံးအစား ဝါကျအတွင်းရှိ စကားလုံးတစ်လုံးချင်းစီကို ခွဲခြားသတ်မှတ်ခြင်း ဖြစ်သည်။
另一个变换器模式可以完成的工作是将句子中的每个字而不是整个句子分类。
67
One example of this is Named Entity Recognition, which is the task of identifying entities, such as persons, organizations or locations in a sentence.
၎င်း၏ ဥပမာတစ်ခုမှာ Named Entity Recognition ဖြစ်ပြီး ဝါကျတစ်ခုအတွင်းရှိ လူပုဂ္ဂိုလ်များ၊ အဖွဲ့အစည်းများ သို့မဟုတ် တည်နေရာများကဲ့သို့သော အဖွဲ့အစည်းများကို ဖော်ထုတ်ခြင်းလုပ်ငန်း ဖြစ်သည်။
这方面的一个例子是名称为实体的承认,这就是在句子中查明个人、组织或地点等实体的任务。
68
Here, the model correctly finds the person, Sylvain, the organization, Hugging Face, as well as the location, Brooklyn, inside the input text.
ဤတွင်၊ မော်ဒယ်သည် ထည့်သွင်းစာသားအတွင်းရှိ ပုဂ္ဂိုလ် Sylvain၊ အဖွဲ့အစည်း Hugging Face နှင့် တည်နေရာ Brooklyn တို့ကို မှန်ကန်စွာ ရှာဖွေတွေ့ရှိခဲ့သည်။
在这里,模型正确地找到了 人,西尔万,组织, 抱抱脸, 以及位置,布鲁克林, 在输入文本中。
69
The grouped_entities=True argument used is to make the pipeline group together the different words linked to the same entity, such as Hugging and Face here.
အသုံးပြုထားသော grouped_entities=True argument သည် Hugging နှင့် Face ကဲ့သို့ တူညီသောအဖွဲ့အစည်းနှင့် ချိတ်ဆက်ထားသည့် စကားလုံးအမျိုးမျိုးကို pipelineတစ်ခုတည်းအဖြစ် စုစည်းပေးရန် ဖြစ်သည်။
分组实体 = True 的参数是使管道组组合成为与同一实体相联系的不同词组,如 Hugging 和 Face 。
70
Another task available with the pipeline API is extractive question answering.
pipeline API ဖြင့် ရရှိနိုင်သော အခြားလုပ်ငန်းတစ်ခုမှာ မေးခွန်းထုတ်ယူဖြေကြားခြင်း ဖြစ်သည်။
输油管API的另一项任务就是解答采掘问题。
71
Providing a context and a question, the model will identify the span of text in the context containing the answer to the question.
အကြောင်းအရာနှင့် မေးခွန်းတစ်ခုကို ပေးပို့လိုက်ပါက မော်ဒယ်သည် မေးခွန်း၏ အဖြေပါရှိသော အကြောင်းအရာအတွင်းရှိ စာသားအပိုင်းအစကို ဖော်ထုတ်ပေးပါလိမ့်မည်။
提供上下文和问题,该模型将在载有问题答案的上下文中确定案文的范围。
72
Getting short summaries of very long articles is also something the Transformers library can help with, with the summarization pipeline.
အလွန်ရှည်လျားသော ဆောင်းပါးများကို အတိုချုံးချုပ်ရိုးချုပ်ခြင်းသည်လည်း summarization pipeline ဖြင့် Transformers library က ကူညီပေးနိုင်သော လုပ်ငန်းတစ်ခုဖြစ်သည်။
变换者图书馆也可以帮助收集长篇文章的简短摘要,
73
Finally, the last task supported by the pipeline API is translation.
နောက်ဆုံးအနေနဲ့ pipeline API က ပံ့ပိုးပေးတဲ့ နောက်ဆုံးလုပ်ငန်းကတော့ ဘာသာပြန်ခြင်း ဖြစ်သည်။
最后,由输油管API支持的最后一项任务是翻译。
74
Here we use a French/English model found on the model hub to get the English version of our input text.
ဤတွင် ကျွန်ုပ်တို့၏ ထည့်သွင်းစာသားကို အင်္ဂလိပ်ဘာသာသို့ ပြောင်းလဲရန်အတွက် model hub တွင် တွေ့ရှိရသော ပြင်သစ်/အင်္ဂလိပ် မော်ဒယ်ကို အသုံးပြုထားသည်။
在此,我们使用在模型枢纽上找到的法文/英文模型,获取我们输入文本的英文版。
75
Here is a brief summary of all the tasks we've looked into in this video.
ဤဗီဒီယိုတွင် ကျွန်ုပ်တို့ လေ့လာခဲ့သည့် လုပ်ငန်းများအားလုံးကို အကျဉ်းချုပ် ဖော်ပြထားသည်။
以下是我们在这段影片中研究的所有任务的摘要。
76
Try then out through the inference widgets in the model hub.
ထိုလုပ်ငန်းများကို model hub ရှိ inference widgets များမှတစ်ဆင့် စမ်းသပ်ကြည့်ပါ။
然后尝试通过模型枢纽的推论部件。
77
So let's talk about the carbon footprint of transformers.
Transformer များ၏ ကာဗွန်ခြေရာအကြောင်း ပြောကြည့်ရအောင်။
因此,让我们来谈谈变压器的碳足迹。
78
Maybe you've seen headlines such as this one that training a single AI model can emit as much carbon as five cars in their lifetimes.
AI မော်ဒယ်တစ်ခုတည်းကို လေ့ကျင့်ပေးခြင်းက ကားငါးစီး၏ သက်တမ်းတစ်လျှောက် ထုတ်လွှတ်သော ကာဗွန်ပမာဏနှင့် ညီမျှနိုင်သည်ဟူသော ခေါင်းစီးမျိုး သင်တွေ့ဖူးပေမည်။
也许你看过头条新闻,比如这个 训练单一的人工智能模型 在他们一生中 排放的碳 和五辆汽车一样多。
79
So when is this true and is it always true?
ဒါဆို ဒါက ဘယ်အချိန်မှာ မှန်သလဲ၊ အမြဲတမ်း မှန်သလား။
那么,什么时候是真实的,什么时候总是真实的呢?
80
Well, it actually depends on several things.
တကယ်တော့ ဒါက အချက်များစွာပေါ် မူတည်သည်။
事实上,这取决于一些事情。
81
Most importantly, it depends on the type of energy you're using.
အရေးအကြီးဆုံးကတော့ သင်အသုံးပြုနေသည့် စွမ်းအင်အမျိုးအစားပေါ် မူတည်သည်။
最重要的是,这取决于你使用的能源类型。
82
If you're using renewable energy such as solar, wind, hydroelectricity, you're really not emitting any carbon at all, very, very little.
နေရောင်ခြည်၊ လေအား၊ ရေအားလျှပ်စစ် စသည့် ပြန်လည်ပြည့်ဖြိုးမြဲစွမ်းအင်ကို အသုံးပြုနေပါက ကာဗွန် လုံးဝနီးပါး သို့မဟုတ် အနည်းငယ်သာ ထုတ်လွှတ်သည်။
如果你使用太阳能、风能、水电等可再生能源, 你真的没有排放任何碳,非常,非常少。
83
If you're using non-renewable energy sources such as coal then their carbon footprint is a lot higher 'cuz essentially you are emitting a lot of greenhouse gases.
ကျောက်မီးသွေးကဲ့သို့ ပြန်လည်မပြည့်ဖြိုးနိုင်သော စွမ်းအင်အရင်းအမြစ်များကို အသုံးပြုပါက ဖန်လုံအိမ်ဓာတ်ငွေ့များစွာကို ထုတ်လွှတ်နေသောကြောင့် ၎င်းတို့၏ ကာဗွန်ခြေရာသည် များစွာ ပိုမြင့်သည်။
如果你使用煤等不可再生的能源 那么它们的碳足迹就更高了
84
Another aspect is training time.
နောက်တစ်ချက်ကတော့ လေ့ကျင့်ချိန် ဖြစ်သည်။
另一个方面是培训时间。
85
So the longer you train, the more energy you use the more energy you use, the more carbon you emit, right?
ဒါကြောင့် သင်ကြာကြာ လေ့ကျင့်လေလေ၊ စွမ်းအင်ပိုသုံးလေလေ၊ ကာဗွန်ပိုထုတ်လွှတ်လေလေ ဖြစ်သည်။
所以,你训练的时间越长,你用得越多, 能量就越多,你用得越多, 你排放的碳越多,对吗?
86
So this really adds up especially if you're training large models for for hours and days and weeks.
ဒါကြောင့် ဒါတွေက အထူးသဖြင့် ကြီးမားတဲ့ မော်ဒယ်တွေကို နာရီများစွာ၊ ရက်ပေါင်းများစွာနဲ့ ရက်သတ္တပတ်တွေအထိ လေ့ကျင့်တဲ့အခါ တကယ်ကို စုပုံလာနိုင်သည်။
所以,这真的加起来, 特别是当你训练大型模型 数小时、数天和数周。
87
The hardware you use also matters because some GPUs, for example, are more efficient than others and utilizing efficiency use properly.
သင်အသုံးပြုသည့် ဟာ့ဒ်ဝဲလည်း အရေးကြီးသည်၊ အဘယ်ကြောင့်ဆိုသော် ဥပမာအားဖြင့် GPU အချို့ဟာ တခြား GPU တွေထက် ပိုမိုစွမ်းဆောင်ရည်မြင့်မားပြီး စွမ်းဆောင်ရည်ကို ကောင်းစွာအသုံးချနိုင်သောကြောင့် ဖြစ်သည်။
您使用的硬件也很重要,因为例如,有些GPU比其他GPU效率更高,并且适当利用效率。
88
So using them a hundred percent all the time can really reduce the energy consumption that you have.
ဒါကြောင့် ၎င်းတို့ကို အချိန်ပြည့် ၁၀၀ ရာခိုင်နှုန်း အသုံးပြုခြင်းက သင့်ရဲ့ စွမ်းအင်သုံးစွဲမှုကို တကယ်ပဲ လျှော့ချနိုင်သည်။
因此,百分之百地使用它们 能够真正减少你的能源消耗。
89
And then once again, reduce your carbon footprint.
အဲဒီအခါမှာ သင့်ရဲ့ ကာဗွန်ခြေရာကို ထပ်မံလျှော့ချနိုင်မှာ ဖြစ်သည်။
然后再次 减少碳足迹
90
There's also other aspects such as IO such as data, et cetera, et cetera.
IO နှင့် ဒေတာ စသည့် အခြားကဏ္ဍများလည်း ရှိပါသေးသည်။
还有其他方面,如IO,例如数据,等等等等。
91
But these are the main three that you should focus on.
သို့သော် ဤသုံးချက်ကတော့ သင်အဓိက အာရုံစိုက်သင့်သည့် အချက်များ ဖြစ်သည်။
但这些是你们应该关注的主要三点。
92
So when I talk about energy sources and carbon intensity what does that really mean?
ဒါဆို ကျွန်တော် စွမ်းအင်အရင်းအမြစ်တွေနဲ့ ကာဗွန်ပြင်းအားအကြောင်း ပြောတဲ့အခါ အဲဒါက တကယ်တော့ ဘာကိုဆိုလိုသလဲ။
所以当我谈论能源与碳密度时, 这到底意味着什么?
93
So if you look at the top of the screen you have a carbon footprint of a cloud computing instance in Mumbai, India which emits 920 grams of CO2 per kilowatt hour.
မျက်နှာပြင်ရဲ့ ထိပ်မှာ ကြည့်မယ်ဆိုရင် အိန္ဒိယနိုင်ငံ မွန်ဘိုင်းရှိ cloud computing instance တစ်ခုရဲ့ ကာဗွန်ခြေရာကို တွေ့ရမှာပါ၊ ၎င်းသည် တစ်နာရီ ကီလိုဝပ်လျှင် CO2 ၉၂၀ ဂရမ် ထုတ်လွှတ်သည်။
所以如果你看看屏幕的顶部, 你有一个云计算实例的碳足迹, 在印度孟买,每千瓦时排放920克二氧化碳。
94
This is almost one kilogram of CO2 per kilowatt hour of electricity used.
ဒါက အသုံးပြုတဲ့ လျှပ်စစ်ဓာတ်အား တစ်နာရီ ကီလိုဝပ်လျှင် CO2 တစ်ကီလိုဂရမ် နီးပါးရှိသည်။
这几乎是每千瓦小时用电1千克二氧化碳。
95
If you compare that with Canada, Montreal where I am right now, 20 grams of CO2 per kilo hour.
ဒါကို ကျွန်တော် ခုရောက်နေတဲ့ ကနေဒါနိုင်ငံ၊ Montreal နဲ့ နှိုင်းယှဉ်ကြည့်ရင် တစ်နာရီ ကီလိုဝပ်လျှင် CO2 ၂၀ ဂရမ်ပဲ ရှိသည်။
如果你把它和加拿大蒙特利尔比较一下, 我现在在蒙特利尔, 每千小时20克二氧化碳。
96
So that's a really, really big difference.
ဒါဟာ တကယ်ကို ကြီးမားတဲ့ ကွာခြားချက်တစ်ခု ဖြစ်သည်။
所以,这是一个非常, 非常大的区别。
97
Almost more than 40 times more carbon emitted in Mumbai versus Montreal.
Montreal နဲ့ယှဉ်ရင် မွန်ဘိုင်းမှာ ကာဗွန်ထုတ်လွှတ်မှုက အဆ ၄၀ ကျော် ပိုများသည်။
孟买和蒙特利尔的碳排放量 几乎是孟买和蒙特利尔的40倍以上
98
And so this can really, really add up.
ဒါကြောင့် ဒါတွေက တကယ်ပဲ စုပုံလာနိုင်သည်။
所以,这可以真的,真的加起来。
99
If you're training a model for weeks, for example you're multiplying times 40 the carbon that you're emitting.
ဥပမာအားဖြင့် သင်က မော်ဒယ်တစ်ခုကို ရက်သတ္တပတ်တွေအထိ လေ့ကျင့်နေမယ်ဆိုရင် သင်ထုတ်လွှတ်တဲ့ ကာဗွန်ကို အဆ ၄၀ နဲ့ မြှောက်နေတာနှင့် တူသည်။
如果你训练模型数周, 比如说,你乘以你排放的碳的40倍。
100
So choosing the right instance choosing a low carbon compute instance is really the most impactful thing that you can do.
ဒါကြောင့် သင့်တော်တဲ့ instance ကို ရွေးချယ်တာ၊ ကာဗွန်နည်းတဲ့ compute instance ကို ရွေးချယ်တာဟာ သင်လုပ်ဆောင်နိုင်တဲ့ အကျိုးသက်ရောက်မှု အရှိဆုံးအရာ ဖြစ်သည်။
所以选择一个选择低碳计算实例的正确实例, 确实是你能做的最具影响力的事情。
End of preview. Expand in Data Studio

Dataset Card for Dataset Name

This dataset card aims to be a base template for new datasets. It has been generated using this raw template.

Dataset Details

Dataset Description

  • Curated by: [More Information Needed]
  • Funded by [optional]: [More Information Needed]
  • Shared by [optional]: [More Information Needed]
  • Language(s) (NLP): [More Information Needed]
  • License: [More Information Needed]

Dataset Sources [optional]

  • Repository: [More Information Needed]
  • Paper [optional]: [More Information Needed]
  • Demo [optional]: [More Information Needed]

Uses

Direct Use

[More Information Needed]

Out-of-Scope Use

[More Information Needed]

Dataset Structure

[More Information Needed]

Dataset Creation

Curation Rationale

[More Information Needed]

Source Data

Data Collection and Processing

[More Information Needed]

Who are the source data producers?

[More Information Needed]

Annotations [optional]

Annotation process

[More Information Needed]

Who are the annotators?

[More Information Needed]

Personal and Sensitive Information

[More Information Needed]

Bias, Risks, and Limitations

[More Information Needed]

Recommendations

Users should be made aware of the risks, biases and limitations of the dataset. More information needed for further recommendations.

Citation [optional]

BibTeX:

[More Information Needed]

APA:

[More Information Needed]

Glossary [optional]

[More Information Needed]

More Information [optional]

[More Information Needed]

Dataset Card Authors [optional]

[More Information Needed]

Dataset Card Contact

[More Information Needed]

Downloads last month
61