Saurav Anand
회원 가입일: 2023
회원 가입일: 2023
초급 Dataplex로 데이터 메시 빌드하기 기술 배지 과정을 완료하여, Dataplex를 통해 데이터 메시를 빌드해 Google Cloud에서 데이터 보안, 거버넌스, 탐색을 활용하는 역량을 입증하세요. Dataplex에서 애셋에 태그를 지정하고, IAM 역할을 할당하고, 데이터 품질을 평가하는 기술을 연습하고 테스트할 수 있습니다.
데이터 레이크와 데이터 웨어하우스를 사용하는 기존 접근방식은 효과적일 수 있지만, 특히 대규모 엔터프라이즈 환경에서는 단점이 있습니다. 이 과정에서는 데이터 레이크하우스의 개념과 데이터 레이크하우스를 만드는 데 사용되는 Google Cloud 제품을 소개합니다. 레이크하우스 아키텍처는 개방형 표준 데이터 소스를 사용하며 데이터 레이크와 데이터 웨어하우스의 장점을 결합하여 많은 단점을 해결합니다.
중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요.
이 과정에서는 Google Cloud의 데이터 엔지니어링, 데이터 엔지니어의 역할과 책임, 그리고 이러한 요소가 Google Cloud 제공 서비스와 어떻게 연결되는지에 대해 알아봅니다. 또한 데이터 엔지니어링 과제를 해결하는 방법에 대해서도 배우게 됩니다.
이 속성 주문형 과정은 참가자에게 Google Cloud에서 제공하는 포괄적이고 유연한 인프라 및 플랫폼 서비스를 Compute Engine을 중심으로 소개합니다. 참가자는 동영상 강의, 데모, 실무형 실습을 통해 네트워크, 가상 머신, 애플리케이션 서비스와 같은 인프라 구성요소를 포함한 솔루션 요소를 탐색하고 배포해 볼 수 있습니다. Console과 Cloud Shell을 통해 Google Cloud를 사용하는 방법을 학습합니다. 또한 클라우드 설계자의 역할, 인프라 설계 접근 방식은 물론 Virtual Private Cloud(VPC), 프로젝트, 네트워크, 서브네트워크, IP 주소, 경로, 방화벽 규칙을 사용한 가상 네트워킹 구성에 대해 알아봅니다.
이 과정에서는 생성형 AI 프로젝트와 예측형 AI 프로젝트를 모두 개발하는 데 중점을 두고 Google Cloud의 AI 및 머신러닝(ML) 기능을 소개합니다. 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 다양한 기술, 제품, 도구를 살펴보고, 데이터 과학자, AI 개발자, ML 엔지니어가 대화형 실습을 통해 전문성을 강화할 수 있도록 지원합니다.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
본 과정은 데이터 분석 작업에 BigQuery를 사용하는 방법을 배우고자 하는 데이터 분석가를 대상으로 고안되었습니다. 동영상, 실습, 데모를 통해 BigQuery에서 데이터를 수집, 변환, 쿼리하여 비즈니스 의사 결정에 도움이 되는 인사이트를 도출하는 방법을 논의하는 다양한 주제를 다룹니다.
Google Cloud 기초: 핵심 인프라 과정은 Google Cloud 사용에 관한 중요한 개념 및 용어를 소개합니다. 이 과정에서는 동영상 및 실무형 실습을 통해 중요한 리소스 및 정책 관리 도구와 함께 Google Cloud의 다양한 컴퓨팅 및 스토리지 서비스를 살펴보고 비교합니다.