Cameron Goodhue
成为会员时间:2023
成为会员时间:2023
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
隨著企業持續擴大使用人工智慧和機器學習,以負責任的方式發展相關技術也日益重要。對許多企業來說,談論負責任的 AI 技術可能不難,如何付諸實行才是真正的挑戰。如要瞭解如何在機構中導入負責任的 AI 技術,本課程絕對能助您一臂之力。 您可以從中瞭解 Google Cloud 目前採取的策略、最佳做法和經驗談,協助貴機構奠定良好基礎,實踐負責任的 AI 技術。
完成「Introduction to Generative AI」、「Introduction to Large Language Models」和「Introduction to Responsible AI」課程,即可獲得技能徽章。通過最終測驗,就能展現您對生成式 AI 基本概念的掌握程度。 「技能徽章」是 Google Cloud 核發的數位徽章,用於表彰您對 Google Cloud 產品和服務的相關知識。您可以將技能徽章公布在社群媒體的個人資料中,向其他人分享您的成果。
這個入門微學習課程主要介紹「負責任的 AI 技術」和其重要性,以及 Google 如何在自家產品中導入這項技術。本課程也會說明 Google 的 7 個 AI 開發原則。
這是一堂入門級的微學習課程,旨在探討大型語言模型 (LLM) 的定義和用途,並說明如何調整提示來提高 LLM 成效。此外,也會介紹多項 Google 工具,協助您自行開發生成式 AI 應用程式。
這個入門微學習課程主要說明生成式 AI 的定義和使用方式,以及此 AI 與傳統機器學習方法的差異。本課程也會介紹各項 Google 工具,協助您開發自己的生成式 AI 應用程式。
The course begins with a discussion about data: how to improve data quality and perform exploratory data analysis. We describe Vertex AI AutoML and how to build, train, and deploy an ML model without writing a single line of code. You will understand the benefits of Big Query ML. We then discuss how to optimize a machine learning (ML) model and how generalization and sampling can help assess the quality of ML models for custom training.
本課程介紹 Google Cloud 的 AI 和機器學習 (ML) 功能,著重說明如何開發生成式和預測式 AI 專案。我們也會探討「從資料到 AI」整個生命週期都適用的技術、產品和工具,並透過互動式練習,協助資料科學家、AI 開發人員和機器學習工程師精進專業知識。
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
完成建立及管理 PostgreSQL 適用的 Cloud SQL 執行個體技能徽章入門課程,證明您具備下列技能:遷移、設定和管理 PostgreSQL 適用的 Cloud SQL 執行個體和資料庫。
完成 使用資料庫遷移服務將 MySQL 資料遷移至 Cloud SQL 技能徽章入門課程,證明您具備下列技能: 使用「資料庫遷移服務」中各種可用的工作類型和連線選項, 將 MySQL 資料遷移至 Cloud SQL,以及在執行「資料庫遷移服務」工作時 遷移 MySQL 使用者資料。
This course is intended to give architects, engineers, and developers the skills required to help enterprise customers architect, plan, execute, and test database migration projects. Through a combination of presentations, demos, and hands-on labs participants move databases to Google Cloud while taking advantage of various services. This course covers how to move on-premises, enterprise databases like SQL Server to Google Cloud (Compute Engine and Cloud SQL) and Oracle to Google Cloud bare metal.
完成建立及管理 AlloyDB 執行個體技能徽章入門課程, 即可證明自己具備下列技能:執行主要 AlloyDB 作業 和工作、從 PostgreSQL 遷移至 AlloyDB、管理 AlloyDB 資料庫,以及 使用 AlloyDB 資料欄引擎加快數據分析查詢。
完成「建立及管理 Bigtable 執行個體」技能徽章入門課程,證明您具備下列技能:建立執行個體、設計結構定義、 查詢資料,以及在 Bigtable 執行管理工作,包括監控效能、設定自動調度節點資源和複製作業。
完成「建立及管理 Cloud Spanner 執行個體」技能徽章入門課程,即可證明自己具備下列技能: 建立 Cloud Spanner 執行個體和資料庫,並與其互動; 使用各種技術載入 Cloud Spanner 資料庫; 備份 Cloud Spanner 資料庫;定義結構定義及瞭解查詢計畫;以及 部署連線至 Cloud Spanner 執行個體的現代化網頁應用程式。
「Google Cloud 基礎知識:核心基礎架構」介紹了在使用 Google Cloud 時會遇到的重要概念和術語。本課程會透過影片和實作實驗室,介紹並比較 Google Cloud 的多種運算和儲存服務,同時提供重要的資源和政策管理工具。