가입 로그인

Ricardo Quibao

회원 가입일: 2022

실버 리그

13600포인트
AlloyDB 인스턴스 만들고 관리하기 Earned 8월 4, 2023 EDT
Bigtable 인스턴스 만들고 관리하기 Earned 7월 28, 2023 EDT
PostgreSQL용 Cloud SQL 인스턴스 만들고 관리하기 Earned 7월 27, 2023 EDT
Enterprise Database Migration Earned 7월 25, 2023 EDT
Database Migration Service로 MySQL 데이터를 Cloud SQL로 마이그레이션하기 Earned 7월 17, 2023 EDT
Cloud Spanner 인스턴스 만들고 관리하기 Earned 7월 11, 2023 EDT
Google Cloud 기초: 핵심 인프라 Earned 7월 6, 2023 EDT
Preparing for your Professional Data Engineer Journey Earned 6월 26, 2023 EDT
BigQuery로 데이터 웨어하우스 빌드 Earned 6월 19, 2023 EDT
Building Resilient Streaming Systems on Google Cloud Platform Earned 6월 19, 2023 EDT
Developing Data Models with LookML Earned 3월 19, 2023 EDT
Analyzing and Visualizing Data in Looker Earned 3월 16, 2023 EDT
Looker에서 고급 LookML 개념 적용하기 Earned 3월 15, 2023 EDT
Understanding LookML in Looker Earned 3월 6, 2023 EST
Looker 대시보드 및 보고서를 위해 데이터 준비하기 Earned 3월 6, 2023 EST
Serverless Data Processing with Dataflow: Operations Earned 3월 3, 2023 EST
Serverless Data Processing with Dataflow: Develop Pipelines Earned 2월 28, 2023 EST
Serverless Data Processing with Dataflow: Foundations Earned 10월 4, 2022 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - 한국어 Earned 9월 20, 2022 EDT
Google Cloud에서 스트리밍 데이터 파이프라인 빌드하기 Earned 9월 4, 2022 EDT
BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 Earned 8월 21, 2022 EDT
Google Cloud에서 ML API용으로 데이터 준비하기 Earned 8월 19, 2022 EDT
Compute Engine에서 Cloud Load Balancing 구현하기 Earned 8월 17, 2022 EDT
Google Cloud에서 일괄 데이터 파이프라인 빌드하기 Earned 8월 16, 2022 EDT
Google Cloud에서 데이터 레이크와 데이터 웨어하우스 빌드하기 Earned 8월 6, 2022 EDT
Google Cloud Big Data and Machine Learning Fundamentals - 한국어 Earned 7월 6, 2022 EDT

초급 AlloyDB 인스턴스 만들고 관리하기 기술 배지 과정을 완료하여 다음 기술을 입증하세요. AlloyDB 핵심 작업 및 태스크 수행하기, PostgreSQL에서 AlloyDB로 마이그레이션하기, AlloyDB 데이터베이스 관리하기, AlloyDB 열 기반 엔진을 사용하여 분석 쿼리 가속화하기

자세히 알아보기

초급 Bigtable 인스턴스 만들고 관리하기 기술 배지 과정을 완료하여 인스턴스 만들기, 스키마 설계, 데이터 쿼리, Bigtable의 관리 작업 수행(성능 모니터링, 노드 자동 확장 및 복제 구성 등)과 관련된 기술 역량을 입증하세요.

자세히 알아보기

초급 PostgreSQL용 Cloud SQL 인스턴스 만들고 관리하기 기술 배지 과정을 완료하여 PostgreSQL용 Cloud SQL 인스턴스와 데이터베이스를 마이그레이션, 구성, 관리할 수 있는 기술 역량을 입증하세요.

자세히 알아보기

This course is intended to give architects, engineers, and developers the skills required to help enterprise customers architect, plan, execute, and test database migration projects. Through a combination of presentations, demos, and hands-on labs participants move databases to Google Cloud while taking advantage of various services. This course covers how to move on-premises, enterprise databases like SQL Server to Google Cloud (Compute Engine and Cloud SQL) and Oracle to Google Cloud bare metal.

자세히 알아보기

초급 Database Migration Service로 MySQL 데이터를 Cloud SQL로 마이그레이션하기 기술 배지 과정을 완료하여 Database Migration Service에서 제공되는 다양한 작업 유형 및 연결 옵션을 사용하여 MySQL 데이터를 Cloud SQL로 마이그레이션하고 Database Migration Service 작업을 실행할 때 MySQL 사용자 데이터를 마이그레이션할 수 있는 기술 역량을 입증하세요.

자세히 알아보기

초급 Cloud Spanner 인스턴스 만들고 관리하기 기술 배지 과정을 완료하여 Cloud Spanner 인스턴스 및 데이터베이스를 만들고 상호작용하기, 다양한 기법을 사용하여 Cloud Spanner 데이터베이스 로드, Cloud Spanner 데이터베이스 백업, 스키마 정의 및 쿼리 계획 이해, Cloud Spanner 인스턴스에 연결된 최신 웹 앱 배포와 관련된 기술 역량을 입증하세요.

자세히 알아보기

Google Cloud 기초: 핵심 인프라 과정은 Google Cloud 사용에 관한 중요한 개념 및 용어를 소개합니다. 이 과정에서는 동영상 및 실무형 실습을 통해 중요한 리소스 및 정책 관리 도구와 함께 Google Cloud의 다양한 컴퓨팅 및 스토리지 서비스를 살펴보고 비교합니다.

자세히 알아보기

This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.

자세히 알아보기

중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요.

자세히 알아보기

This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.

자세히 알아보기

This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.

자세히 알아보기

In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.

자세히 알아보기

이 과정에서는 Looker에서 고급 LookML 개념을 적용하는 실무를 직접 경험해 봅니다. Liquid를 사용하여 동적 측정기준과 측정항목을 맞춤설정 및 생성하고 동적 SQL 파생 테이블 및 맞춤설정된 기본 파생 테이블을 만들고 확장을 사용하여 LookML 코드를 모듈화하는 방법을 알아봅니다.

자세히 알아보기

In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.

자세히 알아보기

초급 Looker 대시보드 및 보고서를 위해 데이터 준비하기 기술 배지 과정을 완료하면 데이터를 필터링, 정렬, 피벗팅하고, 다른 Looker Explore의 결과를 병합하고, 함수 및 연산자를 사용해 데이터 분석 및 시각화를 위한 Looker 대시보드 및 보고서를 빌드하는 기술 역량을 입증할 수 있습니다.

자세히 알아보기

In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.

자세히 알아보기

In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.

자세히 알아보기

This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.

자세히 알아보기

머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.

자세히 알아보기

이 과정에서는 스트리밍 데이터 파이프라인을 빌드할 때 직면하는 실제 과제를 해결하기 위해 실습을 진행합니다. Google Cloud 제품을 사용하여 지속적이고 무제한적인 데이터를 관리하는 데 중점을 둡니다.

자세히 알아보기

중급 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용하여 머신러닝 모델을 빌드하는 기술 역량을 입증할 수 있습니다.

자세히 알아보기

초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요.

자세히 알아보기

초급 Compute Engine에서 Cloud Load Balancing 구현하기 기술 배지 과정을 완료하여 Compute Engine에서 가상 머신 만들기 및 배포, 네트워크 및 애플리케이션 부하 분산기 구성과 관련된 기술 역량을 입증하세요.

자세히 알아보기

이 중급 과정에서는 Google Cloud에서 강력한 일괄 데이터 파이프라인을 설계, 빌드, 최적화하는 방법을 알아봅니다. 기본적인 데이터 처리를 넘어, 시의적절한 비즈니스 인텔리전스와 중요한 보고에 필수적인 대규모 데이터 변환과 효율적인 워크플로 조정에 대해 살펴봅니다. Apache Beam용 Dataflow와 Apache Spark용 서버리스(Dataproc Serverless)를 사용하여 구현을 실습하고, 파이프라인 안정성과 운영 우수성을 보장하기 위해 데이터 품질, 모니터링, 알림에 대한 중요한 고려사항을 다룹니다. 데이터 웨어하우징, ETL/ELT, SQL, Python, Google Cloud 개념에 대한 기본적인 지식이 있으면 좋습니다.

자세히 알아보기

데이터 레이크와 데이터 웨어하우스를 사용하는 기존 접근방식은 효과적일 수 있지만, 특히 대규모 엔터프라이즈 환경에서는 단점이 있습니다. 이 과정에서는 데이터 레이크하우스의 개념과 데이터 레이크하우스를 만드는 데 사용되는 Google Cloud 제품을 소개합니다. 레이크하우스 아키텍처는 개방형 표준 데이터 소스를 사용하며 데이터 레이크와 데이터 웨어하우스의 장점을 결합하여 많은 단점을 해결합니다.

자세히 알아보기

이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.

자세히 알아보기