04
Transformer 模型和 BERT 模型
04
Transformer 模型和 BERT 模型
本课程向您介绍 Transformer 架构和 Bidirectional Encoder Representations from Transformers (BERT) 模型。您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。完成本课程估计需要大约 45 分钟。
课程信息
目标
- 了解 Transformer 架构的主要组成部分
- 了解如何使用 Transformers 构建 BERT 模型
- 使用 BERT 解决不同的自然语言处理 (NLP) 任务
前提条件
- 具备中等程度的机器学习经验
- 了解字词嵌入和注意力机制
- 有使用 Python 和 TensorFlow 的经验
受众
本课程适合有兴趣学习文本分类、问答和自然语言推理的用户,例如:
- 数据科学家
- 机器学习工程师
- 软件工程师
支持的语言
English, español (Latinoamérica), français, עברית, bahasa Indonesia, italiano, 日本語, 한국어, português (Brasil), 简体中文, 繁體中文, Deutsch, and Türkçe
学完本课程后,我可以做些什么?
学完本课程后,您可以探索学习路线 中的其他内容或浏览学习目录
我能获得什么徽章?
学完一门课程后,您将获得结业徽章。徽章可在个人资料中供查看,还可在社交网络上分享。
有兴趣通过我们的点播课程合作伙伴之一来学习本课程吗
在 Coursera 和 Pluralsight 上探索 Google Cloud 内容
更喜欢跟随讲师学习?