机器之心报道
编辑:杜伟
Hugging Face NLP 课程开课了,所有课程完全免费。
NLP 领域的小伙伴应该都非常熟悉大名鼎鼎的 Hugging Face,这家专注于解决各种 NLP 问题的初创公司为社区带来了很多有益的技术成果。去年,该团队的 Transformers 代码库论文获得了 EMNLP 2020 最佳 demo 奖。今年 4 月,该团队发布了适用于多 GPU、TPU 和混合精度训练的 PyTorch 新库「Accelerate」。
近日,Hugging Face 在其官方推特上宣布推出第一部分 NLP 课程,内容涵盖如何全面系统地使用 Hugging Face 的各类库(即 Transformers、Datasets、Tokenizers 和 Accelerate),以及 Hugging Face Hub 中的各种模型。更重要的是,所有课程完全免费且没有任何广告。

课程主页:https://huggingface.co/course/chapter0?fw=pt
整个系列的课程分为入门(Introduction)、进阶(Diving in)和高级(Advanced),其中具体如下:

Hugging Face 本次推出的正是入门课程。通过四个章节的内容讲解,学习者可以学得使用 pipeline 函数来解决文本生成和分类等 NLP 任务、Transformer 架构,以及区分编码器、解码器、编码器 - 解码器架构和用例。
与此同时,Hugging Face 在课程中使用的所有库都可以通过 Python 包获得。学习者首先需要设置 Python 环境和安装专用库,并可以使用 Colab notebook 或 Python 虚拟环境来设置自己的工作环境。具体操作请参阅课程主页中的「setup」部分。
课程概览
第 1 章到第 4 章(入门)介绍了 Transformers 库的主要概念。本部分课程结束时,你将熟悉 Transformer 模型的工作原理,并了解如何使用 Hugging Face Hub 中的模型,在数据集上对其进行微调,以及在 Hub 上共享结果。
第 5 章到第 8 章(进阶)介绍了在深入研究经典的 NLP 任务之前,首先介绍了数据集和 Tokenizers 的基础知识。本部分结束时,你将能够自己解决最常见的 NLP 问题。
第 9 章到第 12 章(高级),会进行深入的学习,展示了专业架构(内存效率,长序列等),并教你如何为用例编写自定义对象。在本部分结束时,你将会解决复杂的 NLP 问题。
以下为第 1 章到第 4 章(入门)课程内容:




注意,学习这门课程,你需要掌握以下知识:
讲师介绍

Matthew Carrigan 是 Hugging Face 的机器学习工程师,此前曾担任预测分析公司 Parse.ly 的机器学习工程师和都柏林圣三一学院的博士后研究员。
Lysandre Debut 同为 Hugging Face 的机器学习工程师,并且从很早期就开始从事 Transformers 库相关的工作。
Sylvain Gugger 是 Hugging Face 的研究工程师,也是 Transformers 库的核心维护者之一。此前,他曾任非盈利研究组织 fast.ai 的研究科学家,并与 fast.ai 创始人 Jeremy Howard 合著书籍《Deep Learning for Coders with fastai and PyTorch》。他的研究重点在于设计和改进促使模型在有限资源上快速训练的技术,使得深度学习更易获得。
亚马逊云科技中国峰会
2021亚马逊云科技中国峰会将在中国上海、北京、深圳三大城市举办。本次峰会以“构建新格局,重塑云时代”为题,并携手众多业内领先的技术践行者们一起同你分享“云时代的构建故事与重塑经验”。
7月21日-22日,2021亚马逊云科技中国峰会上海站将有多位重磅业内专家及行业大咖在现场分享独到的行业见解。
面向开发者,本次峰会将专门设立开发者专区,并联合 Apache 等各类开源社区,以及多位开源牛人,为开发者们带来脑洞大开的内容分享!
面向行业,近百位来自业内各领域的合作伙伴、客户及亚马逊云科技技术专家,共同组成的强大嘉宾阵容,为你带来行业最佳实践分享及领先技术成果发布解读!
识别下方小程序,立即报名。

© THE END
转载请联系本公众号获得授权
投稿或寻求报道:content@jiqizhixin.com