Buckets:

rtrm's picture
download
raw
20.8 kB
<meta charset="utf-8" /><meta name="hf:doc:metadata" content="{&quot;title&quot;:&quot;パート2公開記念イベント&quot;,&quot;local&quot;:&quot;パート2公開記念イベント&quot;,&quot;sections&quot;:[{&quot;title&quot;:&quot;1日目: Transformersライブラリとその学習方法を俯瞰する&quot;,&quot;local&quot;:&quot;1日目-transformersライブラリとその学習方法を俯瞰する&quot;,&quot;sections&quot;:[],&quot;depth&quot;:2},{&quot;title&quot;:&quot;2日目: 使用するツールの紹介&quot;,&quot;local&quot;:&quot;2日目-使用するツールの紹介&quot;,&quot;sections&quot;:[],&quot;depth&quot;:2}],&quot;depth&quot;:1}">
<link href="/docs/course/pr_1069/ja/_app/immutable/assets/0.e3b0c442.css" rel="modulepreload">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/entry/start.e837503d.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/chunks/scheduler.37c15a92.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/chunks/singletons.29b81cfd.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/chunks/index.18351ede.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/chunks/paths.a1ea15c2.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/entry/app.2ea0d654.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/chunks/index.7cb9c9b8.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/nodes/0.dbe7c785.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/chunks/each.e59479a4.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/nodes/36.45643fd6.js">
<link rel="modulepreload" href="/docs/course/pr_1069/ja/_app/immutable/chunks/getInferenceSnippets.f9350a3f.js"><!-- HEAD_svelte-u9bgzb_START --><meta name="hf:doc:metadata" content="{&quot;title&quot;:&quot;パート2公開記念イベント&quot;,&quot;local&quot;:&quot;パート2公開記念イベント&quot;,&quot;sections&quot;:[{&quot;title&quot;:&quot;1日目: Transformersライブラリとその学習方法を俯瞰する&quot;,&quot;local&quot;:&quot;1日目-transformersライブラリとその学習方法を俯瞰する&quot;,&quot;sections&quot;:[],&quot;depth&quot;:2},{&quot;title&quot;:&quot;2日目: 使用するツールの紹介&quot;,&quot;local&quot;:&quot;2日目-使用するツールの紹介&quot;,&quot;sections&quot;:[],&quot;depth&quot;:2}],&quot;depth&quot;:1}"><!-- HEAD_svelte-u9bgzb_END --> <p></p> <h1 class="relative group"><a id="パート2公開記念イベント" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#パート2公開記念イベント"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>パート2公開記念イベント</span></h1> <p data-svelte-h="svelte-7cjgpz">パート2のコース公開後、Fine-tuningのスプリントの前に、2日間のトークライブイベントが開催されました。
詳細については以下のページから見ることが出来ます。</p> <h2 class="relative group"><a id="1日目-transformersライブラリとその学習方法を俯瞰する" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#1日目-transformersライブラリとその学習方法を俯瞰する"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>1日目: Transformersライブラリとその学習方法を俯瞰する</span></h2> <p data-svelte-h="svelte-jhjnm3"><strong>Thomas Wolf:</strong> <em>転移学習とTransformersライブラリの誕生</em></p> <div class="flex justify-center" data-svelte-h="svelte-6uqabw"><youtube id="wCYVeahJES0"></youtube></div> <p align="center" data-svelte-h="svelte-gzqzbh"><img src="https://i.imgur.com/9eq8oUi.png" alt="Thomasによるトークの概要図" width="80%"></p> <p data-svelte-h="svelte-1lm85ga">Thomas Wolfは、Hugging Faceの共同設立者であり、主任研究員です。
彼とHugging Faceチームが作成したツールは、Facebook人工知能研究所、Googleリサーチ、DeepMind、Amazonリサーチ、Apple、アレン人工知能研究所、および多くの大学を含む5,000以上の研究機関に使用されています。
Thomas Wolfは人工知能の分野における最大の研究機関の創始者であり、<a href="https://bigscience.huggingface.co" rel="nofollow">BigScience</a>をはじめとする、世界で広く利用されている<a href="https://github.com/huggingface/" rel="nofollow">ライブラリやツール</a>の開発者です。
加えて、人工知能と自然言語処理の分野におけるリーダーであり、世界中のカンファレンスに定期的に招待されるスピーカーです。<a href="https://thomwolf.io" rel="nofollow">https://thomwolf.io</a>.</p> <p data-svelte-h="svelte-7caxy4"><strong>Jay Alammar:</strong> <em>Transformersモデルの学習方法の可視化</em></p> <div class="flex justify-center" data-svelte-h="svelte-6hrbak"><youtube id="VzvG23gmcYU"></youtube></div> <p align="center" data-svelte-h="svelte-crp81u"><img src="https://i.imgur.com/rOZAuE9.png" alt="Jayによるトークの概要図" width="80%"></p> <p data-svelte-h="svelte-qlx4k0">Jay Alammarは機械学習ツールやコンセプトを基本的なもの(NumPyやPandasのドキュメント)から最先端のもの(Transformers、BERT、GPT-3)まで視覚的に理解できるようなブログを書いています。</p> <p data-svelte-h="svelte-zmbbg"><strong>Margaret Mitchell:</strong> <em>機械学習開発における価値観</em></p> <div class="flex justify-center" data-svelte-h="svelte-7d2ohh"><youtube id="8j9HRMjh_s8"></youtube></div> <p align="center" data-svelte-h="svelte-e8xmpb"><img src="https://i.imgur.com/NuIsnY3.png" alt="Margaretによるトークの概要図" width="80%"></p> <p data-svelte-h="svelte-g3k7ch">Margaret Mitchellは、Ethical AIの研究者であり、現在、企業におけるAI開発の倫理的な観点に焦点をあてて研究しています。
彼女は自然言語生成、支援技術、コンピュータビジョン、およびAI倫理に関する50以上の論文を発表し、会話生成と感情分類の分野で複数の特許を保有しています。
以前はGoogle AIにリサーチサイエンティストとして勤務しており、Google’s Ethical AIグループを設立、リーダーとしてAI倫理の基礎研究およびGoogle内部でのAI倫理の運用に注力していました。
Google入社以前は、Microsoft Researchで画像からの言語生成に焦点を当てた研究員、ジョンズ・ホプキンズ大学でベイズモデリングと情報抽出に焦点を当てたポスドクを務めていました。
アバディーン大学でコンピュータサイエンスの博士号を、ワシントン大学で計算言語学の修士号を取得しています。
学位を取得する傍ら、2005年から2012年まで、オレゴン健康科学大学で機械学習、神経障害、支援技術に関する研究に従事していました。
彼女は多様性やコンピュータサイエンス、倫理などの多くの分野でワークショップや活動を率先して行ってきました。
彼女の研究は、アッシュ・カーター国防長官や米国盲人財団から表彰され、複数のテクノロジー企業で導入されています。
ちなみに彼女はガーデニングと犬、猫が好きです。</p> <p data-svelte-h="svelte-ohuxxq"><strong>Matthew Watson and Chen Qian:</strong> <em>Kerasによる自然言語処理のワークフロー</em></p> <div class="flex justify-center" data-svelte-h="svelte-1tv3epk"><youtube id="gZIP-_2XYMM"></youtube></div> <p align="center" data-svelte-h="svelte-1rxo8if"><img src="https://i.imgur.com/1vD2az8.png" alt="MatthewとChenによるトークの概要図" width="80%"></p> <p data-svelte-h="svelte-1yel8an">Matthew Watsonは、Kerasチームの機械学習エンジニアで、ハイレベルのモデリングAPIの開発を行っています。
スタンフォード大学でコンピュータグラフィックスを専攻し、修士号を取得しました。
彼はもともと英語を専攻していましたが、コンピュータサイエンスに転向ました。
分野を超えて仕事をし、より多くの人が自然言語処理にアクセスできるようにすることに情熱を傾けています。</p> <p data-svelte-h="svelte-lecfsl">Chen QianはKerasチームのソフトウェアエンジニアで、彼もハイレベルのモデリングAPIの開発を行っています。
スタンフォード大学で電気工学の修士号を取得しました。
機械学習タスクのコード実装の簡素化と大規模機械学習に特に興味を持っています。</p> <p data-svelte-h="svelte-1u91y42"><strong>Mark Saroufim:</strong> <em>Pytorchでモデルを学習させる方法</em></p> <div class="flex justify-center" data-svelte-h="svelte-toub1x"><youtube id="KmvPlW2cbIo"></youtube></div> <p align="center" data-svelte-h="svelte-1etpxin"><img src="https://i.imgur.com/TPmlkm8.png" alt="Markによるトークの概要図" width="80%"></p> <p data-svelte-h="svelte-zldaqy">Mark SaroufimはPytorchのパートナーエンジニアで、TorchServeやPytorch Enterpriseを含むOSSの開発に携わっています。
以前はGraphcore、<a href="http://yuri.ai/" rel="nofollow">yuri.ai</a>、Microsoft、NASAのジェット推進研究所で応用科学者、プロダクトマネージャーを務めていました。
プログラミングをもっと楽しくすることに情熱を注いでいます。</p> <p data-svelte-h="svelte-i8gg5x"><strong>Jakob Uszkoreit:</strong> <em>壊れてないものは<del>直すな</del>壊そう</em></p> <div class="flex justify-center" data-svelte-h="svelte-hd0sfn"><youtube id="C6jweXYFHSA"></youtube></div> <p align="center" data-svelte-h="svelte-4s402a"><img src="https://i.imgur.com/5dWQeNB.png" alt="Jakobによるトークの概要図" width="80%"></p> <p data-svelte-h="svelte-x7idyr">Jakob Uszkoreitは、ディープラーニングを用いてワクチンや治療薬のためのRNA分子を設計している機関であるInceptiveの共同創設者です。
InceptiveはRNAベースの医薬品をより入手しやすく、より効果的で、より広く適用できるようにすることを目標にしています。
以前はGoogleに10年以上勤務し、Google Brain、 Research and Searchの研究開発チームを率いて、ディープラーニングの基礎、コンピュータビジョン、言語理解、機械翻訳に取り組んでいました。</p> <h2 class="relative group"><a id="2日目-使用するツールの紹介" class="header-link block pr-1.5 text-lg no-hover:hidden with-hover:absolute with-hover:p-1.5 with-hover:opacity-0 with-hover:group-hover:opacity-100 with-hover:right-full" href="#2日目-使用するツールの紹介"><span><svg class="" xmlns="http://www.w3.org/2000/svg" xmlns:xlink="http://www.w3.org/1999/xlink" aria-hidden="true" role="img" width="1em" height="1em" preserveAspectRatio="xMidYMid meet" viewBox="0 0 256 256"><path d="M167.594 88.393a8.001 8.001 0 0 1 0 11.314l-67.882 67.882a8 8 0 1 1-11.314-11.315l67.882-67.881a8.003 8.003 0 0 1 11.314 0zm-28.287 84.86l-28.284 28.284a40 40 0 0 1-56.567-56.567l28.284-28.284a8 8 0 0 0-11.315-11.315l-28.284 28.284a56 56 0 0 0 79.196 79.197l28.285-28.285a8 8 0 1 0-11.315-11.314zM212.852 43.14a56.002 56.002 0 0 0-79.196 0l-28.284 28.284a8 8 0 1 0 11.314 11.314l28.284-28.284a40 40 0 0 1 56.568 56.567l-28.285 28.285a8 8 0 0 0 11.315 11.314l28.284-28.284a56.065 56.065 0 0 0 0-79.196z" fill="currentColor"></path></svg></span></a> <span>2日目: 使用するツールの紹介</span></h2> <p data-svelte-h="svelte-1iwzt8k"><strong>Lewis Tunstall:</strong> <em>🤗 TransformersのTrainerを使ったシンプルな学習</em></p> <div class="flex justify-center" data-svelte-h="svelte-12jexe4"><youtube id="u--UVvH-LIQ"></youtube></div> <p data-svelte-h="svelte-1q8naem">Lewis TunstallはHugging Faceの機械学習エンジニアで、オープンソースのツールを開発し、より広いコミュニティで利用できるようにすることに注力しています。
また、オライリーの書籍<a href="https://www.oreilly.com/library/view/natural-language-processing/9781098136789/" rel="nofollow">Natural Language Processing with Transformers</a>の共著者でもあります。
Twitter (@_lewtun) では、自然言語処理に関するtipsを紹介しています.</p> <p data-svelte-h="svelte-1yd2inh"><strong>Matthew Carrigan:</strong> <em>TensorFlowの新機能として追加された🤗 Transformersと🤗 Datasets</em></p> <div class="flex justify-center" data-svelte-h="svelte-1q4yjgy"><youtube id="gQUlXp1691w"></youtube></div> <p data-svelte-h="svelte-1n00fdc">Matthew CarriganはTransformersでTensorFlowのメンテナンスを担当しています。
彼はいずれTwitterアカウント@carrigmatを通じて、PyTorch派に対するTensorflow派のリーダーとなるでしょう。</p> <p data-svelte-h="svelte-1wg1yoa"><strong>Lysandre Debut:</strong> <em>機械学習プロジェクトのコラボレーションと共有の手段としてのHugging Face Hub</em></p> <div class="flex justify-center" data-svelte-h="svelte-10ha4oh"><youtube id="RBw1TmdEZp0"></youtube></div> <p align="center" data-svelte-h="svelte-1q7dnlg"><img src="https://i.imgur.com/TarIPCz.png" alt="Lysandreによるトークの概要図" width="80%"></p> <p data-svelte-h="svelte-9mmp0d">Lysandre DebutはHugging Faceの機械学習エンジニアで、多くのオープンソースプロジェクトに携わっています。
彼の目的は、非常にシンプルなAPIを持つ強力なツールを開発することで、機械学習を誰にでもアクセスできるようにすることです。</p> <p data-svelte-h="svelte-snfjk0"><strong>Lucile Saulnier:</strong> <em>🤗 Transformersと🤗 Tokenizersで自分だけのトークナイザーを手に入れる</em></p> <div class="flex justify-center" data-svelte-h="svelte-11wf9ga"><youtube id="UkNmyTFKriI"></youtube></div> <p data-svelte-h="svelte-cxy7ki">Lucile SaulnierはHugging Faceの機械学習エンジニアで、オープンソースツールの開発および使用支援を行っています。
彼女は協調学習やBigScienceなど、自然言語処理分野の多くの研究プロジェクトにも積極的に参加しています。</p> <p data-svelte-h="svelte-14fu1kc"><strong>Sylvain Gugger:</strong> <em>PyTorchの学習効率を高める🤗 Accelerate</em></p> <div class="flex justify-center" data-svelte-h="svelte-ryfvcl"><youtube id="t8Krzu-nSeY"></youtube></div> <p data-svelte-h="svelte-w7g3dl">Sylvain GuggerはHugging Faceのリサーチエンジニアで、🤗 Transformersのコアメンテナーの一人であり、🤗 Accelerateの開発者でもあります。
彼はモデルの学習をより身近なものにすることが好きです。</p> <p data-svelte-h="svelte-1khdicy"><strong>Merve Noyan:</strong> <em>モデルのデモを展示する🤗 Spaces</em></p> <div class="flex justify-center" data-svelte-h="svelte-rsvyrm"><youtube id="vbaKOa4UXoM"></youtube></div> <p data-svelte-h="svelte-16cke9">Merve NoyanはHugging FaceのDeveloper Advocateで、誰もが機械学習を使うことが出来るように、ツールの開発とその周辺のコンテンツ構築に取り組んでいます。</p> <p data-svelte-h="svelte-8fo5ez"><strong>Abubakar Abid:</strong> <em>機械学習アプリケーションを素早く構築する</em></p> <div class="flex justify-center" data-svelte-h="svelte-10ii9h9"><youtube id="c7mle2yYpwQ"></youtube></div> <p align="center" data-svelte-h="svelte-1m7okmf"><img src="https://i.imgur.com/qWIFeiF.png" alt="Abubakarによるトークの概要図" width="80%"></p> <p data-svelte-h="svelte-2qb3m4">Abubakar Abidは<a href="www.gradio.app">Gradio</a>のCEOです。
2015年にMITで電気工学とコンピュータサイエンスの理学士号を取得し、2021年にスタンフォードで応用機械学習の博士号を取得しました。
Gradioでは機械学習モデルのデモ、デバッグ、デプロイを容易にすることに取り組んでいます。</p> <p data-svelte-h="svelte-8vpgln"><strong>Mathieu Desvé:</strong> <em>AWSの機械学習のビジョン: すべての顧客が機械学習にアクセスできるようにする</em></p> <div class="flex justify-center" data-svelte-h="svelte-1cca5mz"><youtube id="O2e3pXO4aRE"></youtube></div> <p align="center" data-svelte-h="svelte-76aw6d"><img src="https://i.imgur.com/oLdZTKy.png" alt="Mathieuによるトークの概要図" width="80%"></p> <p data-svelte-h="svelte-15kbkpm">Mathieu Desvéはテクノロジー好きで、暇さえあればものづくりをしています。
クライアントとユーザーの問題解決に取り組むことが好きで、日々学び続けています。
2004年以来、フロントエンド、バックエンド、インフラストラクチャー、オペレーション、マネジメントなど、さまざまなポジションを経験してきました。
技術的、経営的に共通する問題を機敏に解決することを心がけています。</p> <p data-svelte-h="svelte-cuzra5"><strong>Philipp Schmid:</strong> <em>Amazon SageMakerと🤗 Transformersを使った学習管理</em></p> <div class="flex justify-center" data-svelte-h="svelte-1xib1de"><youtube id="yG6J2Zfo8iw"></youtube></div> <p data-svelte-h="svelte-1nx969n">Philipp Schmidは、Hugging Faceの機械学習エンジニア兼テックリードで、Amazon SageMakerチームとの協業をリードしています。
最先端の自然言語処理モデルを誰もが使えるように製品化し、ディープラーニングの使いやすさを向上することに情熱を注いでいます。</p> <a class="!text-gray-400 !no-underline text-sm flex items-center not-prose mt-4" href="https://github.com/huggingface/course/blob/main/chapters/ja/events/2.mdx" target="_blank"><span data-svelte-h="svelte-1kd6by1">&lt;</span> <span data-svelte-h="svelte-x0xyl0">&gt;</span> <span data-svelte-h="svelte-1dajgef"><span class="underline ml-1.5">Update</span> on GitHub</span></a> <p></p>
<script>
{
__sveltekit_1tghmjc = {
assets: "/docs/course/pr_1069/ja",
base: "/docs/course/pr_1069/ja",
env: {}
};
const element = document.currentScript.parentElement;
const data = [null,null];
Promise.all([
import("/docs/course/pr_1069/ja/_app/immutable/entry/start.e837503d.js"),
import("/docs/course/pr_1069/ja/_app/immutable/entry/app.2ea0d654.js")
]).then(([kit, app]) => {
kit.start(app, element, {
node_ids: [0, 36],
data,
form: null,
error: null
});
});
}
</script>

Xet Storage Details

Size:
20.8 kB
·
Xet hash:
6025bebb04f1f65f90a7fdf9e095a57205a1a23a00f1d12dfad9baecc6ff0177

Xet efficiently stores files, intelligently splitting them into unique chunks and accelerating uploads and downloads. More info.