加入 登录

Adithi Shankar

成为会员时间:2024

白银联赛

5030 积分
面向开发者的 Responsible AI:公平性与偏见 Earned Oct 18, 2024 EDT
面向开发者的 Responsible AI:可解释性和透明度 Earned Oct 18, 2024 EDT
Transformer 模型和 BERT 模型 Earned Sep 16, 2024 EDT
创建图片标注模型 Earned Sep 16, 2024 EDT
编码器-解码器架构 Earned Sep 4, 2024 EDT
注意力机制 Earned Sep 4, 2024 EDT

本课程介绍了 Responsible AI 的概念和 AI 原则,还介绍了在 AI/机器学习实践中识别公平性与偏见以及减少偏见的实用技巧,同时探索了使用 Google Cloud 产品和开源工具来实施 Responsible AI 最佳实践的实用方法和工具。

了解详情

本课程介绍了 AI 可解释性和透明度的相关概念,探讨了 AI 透明度对于开发者和工程师的重要性。同时探索了有助于在数据和 AI 模型中实现可解释性和透明度的实用方法及工具。

了解详情

本课程向您介绍 Transformer 架构和 Bidirectional Encoder Representations from Transformers (BERT) 模型。您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。完成本课程估计需要大约 45 分钟。

了解详情

本课程教您如何使用深度学习来创建图片标注模型。您将了解图片标注模型的不同组成部分,例如编码器和解码器,以及如何训练和评估模型。学完本课程,您将能够自行创建图片标注模型并用来生成图片说明。

了解详情

本课程简要介绍了编码器-解码器架构,这是一种功能强大且常见的机器学习架构,适用于机器翻译、文本摘要和问答等 sequence-to-sequence 任务。您将了解编码器-解码器架构的主要组成部分,以及如何训练和部署这些模型。在相应的实验演示中,您将在 TensorFlow 中从头编写简单的编码器-解码器架构实现代码,以用于诗歌生成。

了解详情

本课程将向您介绍注意力机制,这是一种强大的技术,可令神经网络专注于输入序列的特定部分。您将了解注意力的工作原理,以及如何使用它来提高各种机器学习任务的性能,包括机器翻译、文本摘要和问题解答。

了解详情