Maggie Nanyonga
成为会员时间:2026
白银联赛
12674 积分
成为会员时间:2026
In this Google DeepMind course, you will learn the fundamentals of language models and gain a high-level understanding of the machine learning development pipeline. You will consider the strengths and limitations of traditional n-gram models and advanced transformer models. Practical coding labs will enable you to develop insights into how machine learning models work and how they can be used to generate text and identify patterns in language. Through real-world case studies, you will build an understanding around how research engineers operate. Drawing on these insights you will identify problems that you wish to tackle in your own community and consider how to leverage the power of machine learning responsibly to address these problems within a global and local context.
Welcome to the "AI Infrastructure: Networking Techniques" course. In this course, you'll learn to leverage Google Cloud's high-bandwidth, low-latency infrastructure to optimize data transfer and communication between all the components of your AI system. By the end, you'll grasp the critical role networking plays across the entire AI pipeline from data ingestion and training to inference and be able to apply best practices to ensure your workloads run at maximum speed.
In this course, you’ll take a comprehensive journey through the storage solutions available on Google Cloud, specifically tailored for AI and high-performance computing (HPC) workloads. You’ll learn how to choose the right storage for each stage of the ML lifecycle. You’ll explore how to optimize for I/O performance during training, manage massive datasets for data preparation, and serve model artifacts with low latency. Through practical examples and demonstrations, you’ll gain the expertise to design robust storage solutions that accelerate your AI innovation.
This course provides a comprehensive guide to deploying, managing, and optimizing AI and high-performance computing (HPC) workloads on Google Cloud. Through a series of lessons and practical demonstrations, you’ll explore diverse deployment strategies, ranging from highly customizable environments using Google Compute Engine (GCE) to managed solutions like Google Kubernetes Engine (GKE). Specifically, you’ll learn how to create clusters and deploy GKE for inference.
欢迎学习 Cloud TPU 课程。我们将探讨 TPU 在不同场景下的优势和劣势,并比较不同的 TPU 加速器,以帮助您选择合适的加速器。您将了解可通过哪些策略充分提高 AI 模型的性能和效率,并理解 GPU/TPU 互操作性对于创建灵活的机器学习工作流程的重要性。通过引人入胜的课程内容和实际演示,您将逐步了解如何有效利用 TPU。
对 AI 背后的强大硬件感到好奇吗?本单元将详细讲解性能经过优化的 AI 计算机,向您展示它们为何如此重要。我们将探讨 CPU、GPU 和 TPU 如何让 AI 任务高速运行,介绍它们各自的特点,并说明 AI 软件是如何充分发挥这些硬件的性能的。学习结束后,您将清楚地知道如何为自己的 AI 项目选择合适的 GPU,从而为 AI 工作负载做出明智的决策。
准备好探索 AI Hypercomputer 了吗?这门课程将带您轻松入门!我们将介绍相关基础知识,并阐释它们如何助力 AI 处理 AI 工作负载。您将了解超级计算机内部的各个组件,如 GPU、TPU 和 CPU,并知晓如何根据您的需求选择合适的部署方法。
本课程介绍了 Responsible AI 的概念和 AI 原则,还介绍了在 AI/机器学习实践中识别公平性与偏见以及减少偏见的实用技巧,同时探索了使用 Google Cloud 产品和开源工具来实施 Responsible AI 最佳实践的实用方法和工具。
本课程介绍 AI 隐私保护和安全方面的重要主题,还将探索使用 Google Cloud 产品和开源工具实施建议的 AI 隐私保护和安全实践的实用方法和工具。
人工智能 (AI) 具备巨大的变革潜力,但也带来了新的安全挑战。本课程专为负责安全性和数据保护的领导者而设计,助其运用相关策略在组织内安全管理 AI。学习一个有助于实现以下目标的框架:主动识别并减轻 AI 特有的风险,保护敏感数据,确保遵从法规,构建弹性 AI 基础设施。通过四个不同行业的精选用例,探索这些策略如何应用于现实场景。
本课程介绍了 AI 可解释性和透明度的相关概念,探讨了 AI 透明度对于开发者和工程师的重要性。同时探索了有助于在数据和 AI 模型中实现可解释性和透明度的实用方法及工具。
本课程回顾了 Model Armor 的基本安全功能,并让您能够使用该服务。您将了解与 LLM 相关的安全风险,以及 Model Armor 如何保护您的 AI 应用。
随着企业对人工智能和机器学习的应用越来越广泛,以负责任的方式构建这些技术也变得更加重要。但对很多企业而言,真正践行 Responsible AI 并非易事。如果您有意了解如何在组织内践行 Responsible AI,本课程正适合您。 本课程将介绍 Google Cloud 目前如何践行 Responsible AI,以及从中总结的最佳实践和经验教训,便于您以此为框架构建自己的 Responsible AI 方法。
This course equips learners with the essential knowledge and practical tools to develop and implement artificial intelligence (AI) responsibly. Through an exploration of ethical considerations, best practices, and governance procedures, participants will gain an understanding of how to navigate the complex landscape of AI while upholding ethical standards and minimizing potential risks.
“生成式 AI 智能体:助力组织转型”是“Gen AI Leader”学习路线中的第五门课程,也是最后一门课程。本课程探讨了组织如何使用量身定制的生成式 AI 智能体,帮助应对特定的业务挑战。您将亲自动手构建一个基本的生成式 AI 智能体,并探索这些智能体的组成部分,例如模型、推理循环以及各种工具。
“生成式 AI 应用:改变工作方式”是 Generative AI Leader 学习路线的第四门课程。本课程介绍 Google 的生成式 AI 应用,例如 Gemini for Workspace 和 NotebookLM。它将引导您逐一了解接地、检索增强生成、构建有效提示和构建自动化工作流等概念。
“生成式 AI: 全面了解生成式 AI”是 Generative AI Leader 学习路线中的第三门课程。生成式 AI 正在改变我们的工作方式,以及我们与周围世界的互动方式。作为领导者,应该如何利用生成式 AI 来推动实现实际的业务成果?在本课程中,您将探索构建生成式 AI 解决方案的不同层级、Google Cloud 的产品,以及选择解决方案时需要考虑的因素。
“生成式 AI: 剖析基本概念”是 Generative AI Leader 学习路线中的第二门课程。在本课程中,您将了解生成式 AI 的基本概念。您要探索 AI、机器学习和生成式 AI 之间的区别,了解各种数据类型如何赋能生成式 AI,从而应对各种业务挑战。您还将深入了解 Google Cloud 应对基础模型局限性的策略,以及负责任和安全的 AI 开发与部署面临着哪些关键挑战。
“生成式 AI:不只是聊天机器人”是 Generative AI Leader 学习路线中的第一门课程。学习本课程没有知识门槛。本课程旨在帮助您超越对聊天机器人的基本认知,探索生成式 AI技术为您的组织带来的真正潜力。您将探索基础模型和提示工程等概念,这些知识对利用生成式 AI 的强大功能至关重要。本课程还将说明,为组织制定成功的生成式 AI 策略时,需要考虑哪些重要因素。
打造您的首个 Gemini Enterprise 应用,赢得技能徽章!将各种数据源连接到您的应用中,构建强大、统一的搜索和分析引擎。掌握进阶能力,如:深度研究型智能体、多智能体协同构思,以及用于进行聚焦式分析的 NotebookLM。
了解 AI 智能体如何为业务带来实际影响。您将把智能体类型关联到您的关键绩效指标 (KPI),并探索能够解决实际瓶颈的用例。然后,您将了解 Gemini Enterprise 如何帮助您构建和编排合适的智能体,其范围涵盖从无代码到高代码的各种解决方案。
AI 智能体代表着超越传统大语言模型 (LLM) 的重大转变:AI 智能体不再仅仅只是生成基于文本的解决方案,更能自主行动来执行这些方案。 本课程将介绍 AI 智能体的基础知识、AI 智能体与 LLM API 的区别,以及 AI 智能体在现实世界中的价值所在。本课程基于 Google 的智能体白皮书,将为您提供必要的理论基础知识,以助您编写首行智能体代码 — 非常适合希望从自主、目标导向行为(而不仅仅是文本生成)的角度理解 AI 系统的开发者、架构师和技术决策者。 加入社区论坛,提出问题并参与讨论。
大致了解 AI 智能体的概念。了解 AI 智能体如何通过自主行动和推理来解决复杂问题。您将探索技术架构(模型、工具和编排),该架构使智能体能够学习、规划,并为您实现目标。
本课程能让机器学习从业者掌握评估生成式和预测式 AI 模型的基本工具、方法和最佳实践。要确保机器学习系统在实际运用中提供可靠、准确、高效的结果,做好模型评估至关重要。 学员将深入了解各项评估指标、方法及如何在不同模型类型和任务中适当应用这些指标和方法。课程将着重介绍生成式 AI 模型带来的独特挑战,并提供有效解决这些挑战的策略。通过利用 Google Cloud 的 Vertex AI Platform,学员可学习如何在模型选择、优化和持续监控工作中实施卓有成效的评估流程。
本课程致力于为您提供所需的知识和工具,让您能够了解 MLOps 团队在部署和管理生成式 AI 模型以及探索 Vertex AI 如何帮助 AI 团队简化 MLOps 流程时面临的独特挑战,并帮助您在生成式 AI 项目中取得成功。