Hitesh Ahuja
成为会员时间:2025
成为会员时间:2025
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
本课程展示了如何在 BigQuery 中使用 AI/机器学习模型处理生成式 AI 任务。通过一个涉及客户关系管理的实际应用场景,您将学习到使用 Gemini 模型解决业务问题的工作流程。为了便于理解,本课程还将通过使用 SQL 查询和 Python 笔记本的编码解决方案提供分步指导。
In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.
此课程将探索如何使用 AI 功能套件 Gemini in BigQuery 为“数据到 AI”工作流提供助力。其中涉及到的功能包括数据探索和准备、代码生成和问题排查,以及工作流发现和可视化。此课程包含概念解释、真实使用场景以及实操实验等内容,可帮助数据从业者提升效率并加快流水线开发速度。
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
完成入门技能徽章课程使用 Dataplex 构建数据网格,展示以下方面的技能:使用 Dataplex 构建数据网格, 以在 Google Cloud 上实现数据安全、治理和发现。您将在 Dataplex 中练习和测试自己在标记资产、分配 IAM 角色和评估数据质量方面的技能。
完成中级技能徽章课程使用 BigQuery 构建数据仓库,展示以下技能: 联接数据以创建新表、排查联接故障、使用并集附加数据、创建日期分区表, 以及在 BigQuery 中使用 JSON、数组和结构体。
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
完成入门级技能徽章课程“从 BigQuery 数据中挖掘数据洞见”,展示您在以下方面的技能: 编写 SQL 查询、查询公共表、将示例数据加载到 BigQuery 中、 在 BigQuery 中使用查询验证器排查常见的语法错误,以及通过连接到 BigQuery 数据在 Looker Studio 中 创建报告。
在本课程中,您将了解 Google Cloud 数据工程、数据工程师的角色和职责,以及相关的 Google Cloud 产品和服务。您还将了解如何应对数据工程挑战。
Google Cloud : Prompt Engineering Guide examines generative AI tools, how they work. We'll explore how to combine Google Cloud knowledge with prompt engineering to improve Gemini responses.
完成在 Google Cloud 上部署 Kubernetes 应用技能徽章中级课程,展示您在以下方面的技能: 配置和构建 Docker 容器映像,创建和管理 Google Kubernetes Engine (GKE) 集群,利用 kubectl 实现高效 集群管理,以及按照稳健的持续交付 (CD) 实践部署 Kubernetes 应用。
完成在 Google Cloud 上实施云安全基础措施技能徽章中级课程, 展示自己在以下方面的技能:使用 Identity and Access Management (IAM) 创建和分配角色; 创建和管理服务账号;跨虚拟私有云 (VPC) 网络实现专用连接; 使用 Identity-Aware Proxy 限制应用访问权限; 使用 Cloud Key Management Service (KMS) 管理密钥和加密数据;创建专用 Kubernetes 集群。
完成构建安全的 Google Cloud 网络课程,赢取技能徽章。在此课程中,您将了解与网络有关的众多 资源,以便在 Google Cloud 上构建、扩缩和保护自己的应用。
这门自助式速成课程向学员介绍 Google Cloud 提供的灵活全面的基础架构和平台服务,着重介绍了 Compute Engine。学员将通过一系列视频讲座、演示和动手实验,探索和部署各种解决方案元素,包括网络、系统和应用服务等基础架构组件。本课程的内容还包括如何部署实用的解决方案,包括客户提供的加密密钥、安全和访问权限管理、配额和结算,以及资源监控。
完成“在 Google Cloud 上设置应用开发环境”课程,赢取技能徽章;通过该课程,您将了解如何使用以下技术的基本功能来构建和连接以存储为中心的云基础设施: Cloud Storage、Identity and Access Management、Cloud Functions 和 Pub/Sub。
这门自助式速成课程向学员介绍 Google Cloud 提供的灵活全面的基础架构和平台服务,其中着重介绍了 Compute Engine。学员将通过一系列视频讲座、演示和动手实验,探索和部署各种解决方案元素,包括网络、虚拟机和应用服务等基础架构组件。您将学习如何通过控制台和 Cloud Shell 使用 Google Cloud。您还将了解云架构师角色、基础架构设计方法以及虚拟网络配置和虚拟私有云 (VPC)、项目、网络、子网、IP 地址、路由及防火墙规则。
在本入门级课程中,您将了解 Google Cloud 的基础工具和服务。此课程提供了可选视频, 旨在帮助您深入了解和回顾实验中涉及的概念。Google Cloud 基础知识是推荐给 Google Cloud 学员的第一门课程 - 即使您几乎没有云相关知识,也能从中获得实践 经验,并将其直接运用于您的首个 Google Cloud 项目。从编写 Cloud Shell 命令和部署您的第一个虚拟机,到在 Kubernetes Engine 上运行应用 或者使用负载均衡,“Google Cloud 基础知识”都是您了解该平台 基本功能的首选入门级课程。
“Google Cloud 基础知识:核心基础设施”介绍在使用 Google Cloud 时会遇到的重要概念和术语。本课程通过视频和实操实验来介绍并比较 Google Cloud 的多种计算和存储服务,并提供重要的资源和政策管理工具。