Rakesh Reddy Gopidi
회원 가입일: 2020
골드 리그
13310포인트
회원 가입일: 2020
Google Cloud 네트워크 설정 과정을 완료하고 기술 배지를 획득하세요. 이 실습에서는 Google Cloud Platform에서 기본적인 네트워킹 작업을 수행하는 방법을 알아봅니다. 커스텀 네트워크를 만들고 서브넷 방화벽 규칙을 추가한 다음 VM을 만들고 VM이 서로 통신할 때의 지연 시간을 테스트합니다.
중급 Google Kubernetes Engine 비용 최적화 기술 배지 과정을 완료하여 멀티 테넌트 클러스터의 생성 및 관리, 리소스 사용량의 네임스페이스별 모니터링, 효율을 위한 클러스터 및 포드 자동 확장 구성, 최적의 리소스 배포를 위한 부하 분산 설정, 애플리케이션 상태와 비용 효율을 위한 활성 프로브 및 준비 프로브 구현 작업과 관련된 기술 역량을 입증하세요.
이 과정은 학습자가 Professional Cloud Architect(PCA) 자격증 시험을 준비하는 학습 계획을 수립하는 데 도움을 줍니다. 학습자는 시험에서 다루는 분야와 범위를 탐구하고. 본인의 시험 준비 상태를 평가하며, 개별 학습 계획을 수립합니다.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요.
중급 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용하여 머신러닝 모델을 빌드하는 기술 역량을 입증할 수 있습니다.
중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.
이 과정에서는 스트리밍 데이터 파이프라인을 빌드할 때 직면하는 실제 과제를 해결하기 위해 실습을 진행합니다. Google Cloud 제품을 사용하여 지속적이고 무제한적인 데이터를 관리하는 데 중점을 둡니다.
이 중급 과정에서는 Google Cloud에서 강력한 일괄 데이터 파이프라인을 설계, 빌드, 최적화하는 방법을 알아봅니다. 기본적인 데이터 처리를 넘어, 시의적절한 비즈니스 인텔리전스와 중요한 보고에 필수적인 대규모 데이터 변환과 효율적인 워크플로 조정에 대해 살펴봅니다. Apache Beam용 Dataflow와 Apache Spark용 서버리스(Dataproc Serverless)를 사용하여 구현을 실습하고, 파이프라인 안정성과 운영 우수성을 보장하기 위해 데이터 품질, 모니터링, 알림에 대한 중요한 고려사항을 다룹니다. 데이터 웨어하우징, ETL/ELT, SQL, Python, Google Cloud 개념에 대한 기본적인 지식이 있으면 좋습니다.
데이터 레이크와 데이터 웨어하우스를 사용하는 기존 접근방식은 효과적일 수 있지만, 특히 대규모 엔터프라이즈 환경에서는 단점이 있습니다. 이 과정에서는 데이터 레이크하우스의 개념과 데이터 레이크하우스를 만드는 데 사용되는 Google Cloud 제품을 소개합니다. 레이크하우스 아키텍처는 개방형 표준 데이터 소스를 사용하며 데이터 레이크와 데이터 웨어하우스의 장점을 결합하여 많은 단점을 해결합니다.
이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.
Google Cloud Fundamentals for AWS Professionals introduces important concepts and terminology for working with Google Cloud. Through videos and hands-on labs, this course presents and compares many of Google Cloud's computing and storage services, along with important resource and policy management tools.
Google Cloud 네트워크 개발 과정을 완료하고 기술 배지를 획득하세요. 이 과정에서는 IAM 역할 탐색 및 프로젝트 액세스 권한 추가/삭제, VPC 네트워크 생성, Compute Engine VM 배포 및 모니터링, SQL 쿼리 작성, Compute Engine에서 VM 배포 및 모니터링, Kubernetes를 여러 배포 접근 방식과 함께 사용하여 애플리케이션을 배포하는 등의 다양한 애플리케이션 배포 및 모니터링 방법을 배울 수 있습니다.
Google Kubernetes Engine 시작하기 과정에 오신 것을 환영합니다. 애플리케이션과 하드웨어 인프라 사이에 위치하는 소프트웨어 레이어인 Kubernetes에 관심이 있으시다면 잘 찾아오셨습니다. Google Kubernetes Engine을 사용하면 Kubernetes를 Google Cloud에서 관리형 서비스로 사용할 수 있습니다. 이 과정의 목표는 흔히 GKE로 불리는 Google Kubernetes Engine의 기본사항을 소개하고 Google Cloud에서 애플리케이션을 컨테이너화하고 실행하는 방법을 설명하는 것입니다. 이 과정에서는 먼저 Google Cloud에 대해 기본적인 사항을 소개한 후 이어서 컨테이너 및 Kubernetes, Kubernetes 아키텍처, Kubernetes 작업에 대해 간략히 설명합니다.
초급 Compute Engine에서 Cloud Load Balancing 구현하기 기술 배지 과정을 완료하여 Compute Engine에서 가상 머신 만들기 및 배포, 네트워크 및 애플리케이션 부하 분산기 구성과 관련된 기술 역량을 입증하세요.
Google Cloud 앱 개발 환경 설정 과정을 완료하여 기술 배지를 획득하세요. Cloud Storage, Identity and Access Management, Cloud Functions, Pub/Sub의 기본 기능을 사용하여 스토리지 중심 클라우드 인프라를 구축하고 연결하는 방법을 배울 수 있습니다.
이 속성 주문형 과정에서는 참가자에게 Google Cloud에서 제공하는 포괄적이고 유연한 인프라 및 플랫폼 서비스를 소개합니다. 참가자는 동영상 강의, 데모, 실무형 실습이 결합된 이 과정을 통해 안전한 네트워크 상호 연결, 부하 분산, 자동 확장, 인프라 자동화, 관리형 서비스가 포함된 솔루션 요소를 살펴보고 배포할 수 있습니다.
이 속성 주문형 과정은 참가자에게 Google Cloud에서 제공하는 포괄적이고 유연한 인프라 및 플랫폼 서비스를 Compute Engine을 중심으로 소개합니다. 참가자는 동영상 강의, 데모, 실무형 실습을 통해 네트워크, 시스템, 애플리케이션 서비스와 같은 인프라 구성요소를 포함한 솔루션 요소를 탐색하고 배포해 볼 수 있습니다. 또한 이 과정에서는 고객 제공 암호화 키, 보안 및 액세스 관리, 할당량 및 요금 청구, 리소스 모니터링 등 실용적인 솔루션을 배포하는 방법에 대해서도 설명합니다.
이 속성 주문형 과정은 참가자에게 Google Cloud에서 제공하는 포괄적이고 유연한 인프라 및 플랫폼 서비스를 Compute Engine을 중심으로 소개합니다. 참가자는 동영상 강의, 데모, 실무형 실습을 통해 네트워크, 가상 머신, 애플리케이션 서비스와 같은 인프라 구성요소를 포함한 솔루션 요소를 탐색하고 배포해 볼 수 있습니다. Console과 Cloud Shell을 통해 Google Cloud를 사용하는 방법을 학습합니다. 또한 클라우드 설계자의 역할, 인프라 설계 접근 방식은 물론 Virtual Private Cloud(VPC), 프로젝트, 네트워크, 서브네트워크, IP 주소, 경로, 방화벽 규칙을 사용한 가상 네트워킹 구성에 대해 알아봅니다.
Google Cloud 기초: 핵심 인프라 과정은 Google Cloud 사용에 관한 중요한 개념 및 용어를 소개합니다. 이 과정에서는 동영상 및 실무형 실습을 통해 중요한 리소스 및 정책 관리 도구와 함께 Google Cloud의 다양한 컴퓨팅 및 스토리지 서비스를 살펴보고 비교합니다.