加入 登录

Bruno Moura

成为会员时间:2025

黄金联赛

1905 积分
适用于生成式 AI 的机器学习运维 (MLOps) Earned Sep 23, 2025 EDT
创建图片标注模型 Earned Sep 23, 2025 EDT
Transformer 模型和 BERT 模型 Earned Sep 16, 2025 EDT
编码器-解码器架构 Earned Sep 5, 2025 EDT
注意力机制 Earned Sep 4, 2025 EDT
图像生成简介 Earned Sep 4, 2025 EDT
使用 BigQuery 创建嵌入、向量搜索和 RAG Earned Sep 3, 2025 EDT
负责任的 AI 简介 Earned Jul 12, 2025 EDT
大型语言模型简介 Earned Jul 12, 2025 EDT
生成式 AI 简介 Earned Jul 7, 2025 EDT

本课程致力于为您提供所需的知识和工具,让您能够了解 MLOps 团队在部署和管理生成式 AI 模型以及探索 Vertex AI 如何帮助 AI 团队简化 MLOps 流程时面临的独特挑战,并帮助您在生成式 AI 项目中取得成功。

了解详情

本课程教您如何使用深度学习来创建图片标注模型。您将了解图片标注模型的不同组成部分,例如编码器和解码器,以及如何训练和评估模型。学完本课程,您将能够自行创建图片标注模型并用来生成图片说明。

了解详情

本课程向您介绍 Transformer 架构和 Bidirectional Encoder Representations from Transformers (BERT) 模型。您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。完成本课程估计需要大约 45 分钟。

了解详情

本课程简要介绍了编码器-解码器架构,这是一种功能强大且常见的机器学习架构,适用于机器翻译、文本摘要和问答等 sequence-to-sequence 任务。您将了解编码器-解码器架构的主要组成部分,以及如何训练和部署这些模型。在相应的实验演示中,您将在 TensorFlow 中从头编写简单的编码器-解码器架构实现代码,以用于诗歌生成。

了解详情

本课程将向您介绍注意力机制,这是一种强大的技术,可令神经网络专注于输入序列的特定部分。您将了解注意力的工作原理,以及如何使用它来提高各种机器学习任务的性能,包括机器翻译、文本摘要和问题解答。

了解详情

本课程向您介绍扩散模型。这类机器学习模型最近在图像生成领域展现出了巨大潜力。扩散模型的灵感来源于物理学,特别是热力学。过去几年内,扩散模型成为热门研究主题并在整个行业开始流行。Google Cloud 上许多先进的图像生成模型和工具都是以扩散模型为基础构建的。本课程向您介绍扩散模型背后的理论,以及如何在 Vertex AI 上训练和部署此类模型。

了解详情

本课程探讨 BigQuery 中用于减轻 AI 幻觉的检索增强生成 (RAG) 解决方案。BigQuery 引入了 RAG 工作流,其中涵盖了创建嵌入、搜索向量空间和生成更优质的回答。本课程解释了这些步骤背后的概念原理,以及这些步骤在 BigQuery 中的实际实施过程。学完本课程后,学员将能够使用 BigQuery 和生成式 AI 模型(如 Gemini)以及嵌入模型来构建 RAG 流水线,以解决在具体情况下遇到的 AI 幻觉问题。

了解详情

这是一节入门级微课程,旨在解释什么是负责任的 AI、它的重要性,以及 Google 如何在自己的产品中实现负责任的 AI。此外,本课程还介绍了 Google 的 7 个 AI 开发原则。

了解详情

这是一节入门级微学习课程,探讨什么是大型语言模型 (LLM)、适合的应用场景以及如何使用提示调整来提升 LLM 性能,还介绍了可以帮助您开发自己的 Gen AI 应用的各种 Google 工具。

了解详情

这是一节入门级微课程,旨在解释什么是生成式 AI、它的用途以及与传统机器学习方法的区别。该课程还介绍了可以帮助您开发自己的生成式 AI 应用的各种 Google 工具。

了解详情