Rodrigo Ewerling
회원 가입일: 2020
다이아몬드 리그
127595포인트
회원 가입일: 2020
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 세 번째 과정입니다. 이 과정에서는 먼저 데이터 수집부터 인사이트 도출까지의 데이터 여정을 개괄적으로 살펴봅니다. 그런 다음 SQL을 사용하여 원시 데이터를 사용 가능한 형식으로 변환하는 방법을 알아봅니다. 다음으로 데이터 파이프라인을 사용하여 대량의 데이터를 변환하는 방법을 배웁니다. 마지막으로 실제 데이터 세트에 변환 전략을 적용하여 비즈니스 요구사항을 해결하는 경험을 쌓게 됩니다.
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 네 번째 과정입니다. 이 과정에서 학습자는 클라우드에서 데이터를 시각화하는 5가지 핵심 단계(스토리텔링, 계획, 데이터 탐색, 시각화 구축, 다른 사람과의 데이터 공유)와 관련된 기술을 개발하는 데 중점을 둡니다. 또한 UI/UX 기술을 사용하여 효과적인 클라우드 네이티브 시각화를 와이어프레임으로 제작하고 클라우드 네이티브 데이터 시각화 도구를 사용하여 데이터 세트를 탐색하고, 보고서를 작성할 뿐 아니라 의사 결정 및 협업을 촉진하는 대시보드를 빌드하는 경험을 쌓을 수 있습니다.
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 다섯 번째 과정입니다. 이 과정에서는 전체 데이터 수명 주기 프로젝트에 중점을 둔 실습형 캡스톤 프로젝트의 1~4번째 과정에서 배운 기초 지식과 기술을 종합하여 적용합니다. 클라우드 기반 도구를 사용하여 데이터 인사이트를 효과적으로 확보, 저장, 처리, 분석, 시각화, 전달하는 방법을 실습합니다. 과정을 마치면 학습자는 여러 소스의 데이터를 효과적으로 구조화하고, 다양한 이해관계자에게 솔루션을 제시하고, 클라우드 기반 소프트웨어를 사용하여 데이터 인사이트를 시각화하는 역량을 보여주는 프로젝트를 완료하게 됩니다. 또한 이력서를 업데이트하고 면접 기법을 연습하면서 입사 지원 및 면접을 준비합니다.
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 두 번째 과정입니다. 이 과정에서는 데이터를 어떻게 구조화하고 조직화하는지 살펴봅니다. 데이터 레이크하우스 아키텍처 및 BigQuery, Google Cloud Storage, Dataproc과 같은 클라우드 구성요소를 활용하여 대규모 데이터 세트를 효율적으로 저장, 분석, 처리하는 방법을 직접 경험해 봅니다.
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 첫 번째 과정입니다. 이 과정에서는 클라우드 데이터 분석의 분야를 정의하고 데이터 획득, 저장, 처리, 시각화와 관련된 클라우드 데이터 분석가의 역할과 책임을 설명합니다. BigQuery, Cloud Storage와 같은 Google Cloud 기반 도구의 아키텍처와 이러한 도구를 사용하여 데이터를 효과적으로 구조화하여 표시하고 보고하는 방법을 살펴봅니다.
이 과정에서는 Vertex AI Feature Store 사용의 이점, ML 모델의 정확성을 개선하는 방법, 가장 유용한 특성을 만드는 데이터 열을 찾는 방법을 살펴봅니다. 이 과정에는 BigQuery ML, Keras, TensorFlow를 사용한 특성 추출에 관한 콘텐츠와 실습도 포함되어 있습니다.
생성형 AI 에이전트: 조직 혁신'은 Gen AI Leader 학습 과정의 다섯 번째이자 마지막 과정입니다. 이 과정에서는 조직이 어떻게 커스텀 생성형 AI 에이전트를 사용해 특정 비즈니스 과제를 해결할 수 있는지 살펴봅니다. 모델, 추론 루프, 도구와 같은 에이전트의 구성요소를 살펴보며 기본적인 생성형 AI 에이전트를 빌드하는 실무형 실습을 진행합니다.
'생성형 AI 앱: 업무 혁신'은 생성형 AI 리더 학습 과정의 네 번째 과정입니다. 이 과정에서는 Workspace를 위한 Gemini, NotebookLM 등 Google의 생성형 AI 애플리케이션을 소개합니다. 그라운딩, 검색 증강 생성, 효과적인 프롬프트 작성, 자동화된 워크플로 구축 등의 개념을 안내합니다.
'생성형 AI: 환경 살펴보기'는 생성형 AI 리더 학습 과정의 세 번째 과정입니다. 생성형 AI는 업무 방식을 비롯해 주변 세계와 상호작용하는 방식에 변화를 일으키고 있습니다. 리더로서 생성형 AI를 활용하여 실질적인 비즈니스 성과를 얻으려면 어떻게 해야 할까요? 이 과정에서는 생성형 AI 솔루션 빌드의 다양한 계층, Google Cloud 제품, 솔루션을 선택할 때 고려해야 할 요소를 살펴봅니다.
'생성형 AI: 기본 개념 이해'는 생성형 AI 리더 학습 과정의 두 번째 과정입니다. 이 과정에서는 생성형 AI의 기본 개념을 이해하기 위해 AI, ML, 생성형 AI의 차이점을 살펴보고 다양한 데이터 유형에서 생성형 AI로 어떻게 비즈니스 과제를 해결할 수 있는지 알아봅니다. 파운데이션 모델의 제한사항과 책임감 있고 안전한 AI 개발 및 배포의 주요 과제를 해결할 수 있도록 Google Cloud 전략에 관한 인사이트도 제공합니다.
'생성형 AI: 챗봇 그 이상의 가치'는 생성형 AI 리더 학습 과정의 첫 번째 과정이며 요구되는 기본 요건이 없습니다. 이 과정은 챗봇에 대한 기본적인 이해를 넘어 조직을 위한 생성형 AI의 진정한 잠재력을 살펴보는 것을 목표로 합니다. 생성형 AI의 강력한 기능을 활용하는 데 중요한 파운데이션 모델 및 프롬프트 엔지니어링과 같은 개념을 살펴봅니다. 또한 조직을 위한 성공적인 생성형 AI 전략을 개발할 때 고려해야 할 중요한 사항도 안내합니다.
This course explores the Geographic Information Systems (GIS), GIS Visualization, and machine learning enhancements to BigQuery.
This course explores how to implement a streaming analytics solution using Dataflow and BigQuery.
This course explores how to leverage Looker to create data experiences and gain insights with modern business intelligence (BI) and reporting.
This course explores how to implement a streaming analytics solution using Pub/Sub.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataflow.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Cloud Data Fusion.
This course explores the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataproc.
This course identifies best practices for migrating data warehouses to BigQuery and the key skills required to perform successful migration.
Welcome to Optimize in BigQuery, where we map Enterprise Data Warehouse concepts and components to BigQuery and Google data services with a focus on optimization.
Welcome to Design in BigQuery, where we map Enterprise Data Warehouse concepts and components to BigQuery and Google data services with a focus on schema design.
이 과정에서는 AI 개인 정보 보호 및 안전에 관한 중요한 주제를 소개합니다. Google Cloud 제품과 오픈소스 도구를 사용하여 AI 개인 정보 보호 및 안전 권장사항을 구현하는 실용적인 방법과 도구를 살펴봅니다.
This course discusses the key elements of Google's Data Warehouse solution portfolio and strategy.
이 과정에서는 AI 해석 가능성과 투명성의 개념을 소개합니다. 개발자와 엔지니어에게 AI 투명성이 얼마나 중요한지를 설명합니다. 데이터와 AI 모델 모두에서 해석 가능성과 투명성을 구현하는 데 도움이 되는 실용적인 방법과 도구를 살펴봅니다.
이 과정에서는 책임감 있는 AI라는 개념과 AI 원칙을 소개합니다. 공정성과 편향을 실질적으로 식별하고 AI/ML 실무에서 편향을 완화하는 기법을 알아봅니다. Google Cloud 제품과 오픈소스 도구를 사용하여 책임감 있는 AI 권장사항을 구현하는 실용적인 방법과 도구를 살펴봅니다.
생성형 AI 애플리케이션은 대규모 언어 모델(LLM)이 발명되기 전에는 불가능에 가까웠던 새로운 사용자 경험을 만들 수 있습니다. 어떻게 하면 애플리케이션 개발자가 생성형 AI를 사용해 Google Cloud에서 강력한 대화형 앱을 빌드할 수 있을까요? 이 과정에서는 생성형 AI 애플리케이션에 대해 알아보고 프롬프트 설계 및 검색 증강 생성(RAG)을 사용해 LLM 기반의 강력한 애플리케이션을 빌드하는 방법을 학습합니다. 생성형 AI 애플리케이션에 사용할 수 있는 프로덕션 레디 아키텍처를 살펴보고 LLM 및 RAG 기반 채팅 애플리케이션을 빌드합니다.
이 과정은 머신러닝 실무자에게 생성형 AI 모델과 예측형 AI 모델을 평가하는 데 필요한 도구, 기술, 권장사항을 제공합니다. 모델 평가는 프로덕션 단계의 ML 시스템이 안정적이고 정확하고 성능이 우수한 결과를 제공할 수 있게 하는 중요한 분야입니다. 강의 참가자는 다양한 평가 측정항목, 방법, 각각 다른 모델 유형과 작업에 적합한 애플리케이션에 대해 깊이 있게 이해할 수 있습니다. 이 과정에서는 생성형 AI 모델의 고유한 문제를 강조하고 이를 효과적으로 해결하기 위한 전략을 소개합니다. 강의 참가자는 Google Cloud의 Vertex AI Platform을 활용해 모델 선택, 최적화, 지속적인 모니터링을 위한 견고한 평가 프로세스를 구현하는 방법을 알아볼 수 있습니다.
이 과정에서는 생성형 AI 모델을 배포하고 관리할 때 MLOps팀이 직면하는 고유한 과제를 파악하는 데 필요한 지식과 도구를 제공하고 Vertex AI가 어떻게 AI팀이 MLOps 프로세스를 간소화하고 생성형 AI 프로젝트에서 성공을 거둘 수 있도록 지원하는지 살펴봅니다.
이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
이 과정은 데이터 준비부터 모델 배포와 모니터링까지 전체 머신러닝 워크플로를 위한 통합 플랫폼을 제공하는 Jupyter 노트북 기반 환경인 Vertex AI Notebooks를 소개합니다. 이 과정에서는 (1) 다양한 유형의 Vertex AI Notebooks와 그 특징, (2) Vertex AI Notebooks를 만들고 관리하는 방법을 다룹니다.
이 과정에서는 데이터-AI 워크플로를 지원하는 AI 기반 기능 모음인 BigQuery의 Gemini에 관해 살펴봅니다. 이러한 기능에는 데이터 탐색 및 준비, 코드 생성 및 문제 해결, 워크플로 탐색 및 시각화 등이 있습니다. 이 과정은 개념 설명, 실제 사용 사례, 실무형 실습을 통해 데이터 실무자가 생산성을 향상하고 개발 파이프라인의 속도를 높이는 데 도움이 됩니다.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
이 과정에서는 생성형 AI 모델과 상호작용하고 비즈니스 아이디어의 프로토타입을 제작하여 프로덕션으로 출시할 수 있는 도구인 Vertex AI Studio를 소개합니다. 몰입감 있는 사용 사례, 흥미로운 강의, 실무형 실습을 통해 프롬프트부터 프로덕션에 이르는 수명 주기를 살펴보고 Vertex AI Studio를 Gemini 멀티모달 애플리케이션, 프롬프트 설계, 프롬프트 엔지니어링, 모델 조정에 활용하는 방법을 알아봅니다. 이 과정의 목표는 Vertex AI Studio로 프로젝트에서 생성형 AI의 잠재력을 활용하는 것입니다.
기업에서 인공지능과 머신러닝의 사용이 계속 증가함에 따라 책임감 있는 빌드의 중요성도 커지고 있습니다. 대부분의 기업은 책임감 있는 AI를 실천하기가 말처럼 쉽지 않습니다. 조직에서 책임감 있는 AI를 운영하는 방법에 관심이 있다면 이 과정이 도움이 될 것입니다. 이 과정에서 책임감 있는 AI를 위해 현재 Google Cloud가 기울이고 있는 노력, 권장사항, Google Cloud가 얻은 교훈을 알아보면 책임감 있는 AI 접근 방식을 구축하기 위한 프레임워크를 수립할 수 있을 것입니다.
책임감 있는 AI란 무엇이고 이것이 왜 중요하며 Google에서는 어떻게 제품에 책임감 있는 AI를 구현하고 있는지 설명하는 입문용 마이크로 학습 과정입니다. Google의 7가지 AI 원칙도 소개합니다.
A Business Leader in Generative AI can articulate the capabilities of core cloud Generative AI products and services and understand how they benefit organizations. This course provides an overview of the types of opportunities and challenges that companies often encounter in their digital transformation journey and how they can leverage Google Cloud's generative AI products to overcome these challenges.
Organizations of all sizes are embracing the power and flexibility of the cloud to transform how they operate. However, managing and scaling cloud resources effectively can be a complex task. Scaling with Google Cloud Operations explores the fundamental concepts of modern operations, reliability, and resilience in the cloud, and how Google Cloud can help support these efforts. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
As organizations move their data and applications to the cloud, they must address new security challenges. The Trust and Security with Google Cloud course explores the basics of cloud security, the value of Google Cloud's multilayered approach to infrastructure security, and how Google earns and maintains customer trust in the cloud. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
Artificial intelligence (AI) and machine learning (ML) represent an important evolution in information technologies that are quickly transforming a wide range of industries. “Innovating with Google Cloud Artificial Intelligence” explores how organizations can use AI and ML to transform their business processes. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
Many traditional enterprises use legacy systems and applications that can't stay up-to-date with modern customer expectations. Business leaders often have to choose between maintaining their aging IT systems or investing in new products and services. "Modernize Infrastructure and Applications with Google Cloud" explores these challenges and offers solutions to overcome them by using cloud technology. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
Cloud technology can bring great value to an organization, and combining the power of cloud technology with data has the potential to unlock even more value and create new customer experiences. “Exploring Data Transformation with Google Cloud” explores the value data can bring to an organization and ways Google Cloud can make data useful and accessible. Part of the Cloud Digital Leader learning path, this course aims to help individuals grow in their role and build the future of their business.
There's much excitement about cloud technology and digital transformation, but often many unanswered questions. For example: What is cloud technology? What does digital transformation mean? How can cloud technology help your organization? Where do you even begin? If you've asked yourself any of these questions, you're in the right place. This course provides an overview of the types of opportunities and challenges that companies often encounter in their digital transformation journey. If you want to learn about cloud technology so you can excel in your role and help build the future of your business, then this introductory course on digital transformation is for you. This course is part of the Cloud Digital Leader learning path.
이 과정에서는 생성형 AI 프로젝트와 예측형 AI 프로젝트를 모두 개발하는 데 중점을 두고 Google Cloud의 AI 및 머신러닝(ML) 기능을 소개합니다. 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 다양한 기술, 제품, 도구를 살펴보고, 데이터 과학자, AI 개발자, ML 엔지니어가 대화형 실습을 통해 전문성을 강화할 수 있도록 지원합니다.
This is the second of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll explore how data is structured and organized. You’ll gain hands-on experience with the data lakehouse architecture and cloud components like BigQuery, Google Cloud Storage, and DataProc to efficiently store, analyze, and process large datasets.
이 과정은 학습자가 프로페셔널 머신러닝 엔지니어(PMLE) 자격증 시험을 준비하는 학습 계획을 수립하는 데 도움을 줍니다. 학습자는 시험에서 다루는 분야의 범위를 살펴보고 자신의 시험 준비 상태를 평가한 다음 개별 학습 계획을 세웁니다.
이 과정에서는 Google Cloud의 데이터 엔지니어링, 데이터 엔지니어의 역할과 책임, 그리고 이러한 요소가 Google Cloud 제공 서비스와 어떻게 연결되는지에 대해 알아봅니다. 또한 데이터 엔지니어링 과제를 해결하는 방법에 대해서도 배우게 됩니다.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
Google 데이터 클라우드로 데이터 공유하기 기술 배지 과정을 완료하여 기술 배지 를 획득하세요.이 과정에서는 고객이 분석 사용 사례에 사용할 수 있는 독점 데이터 세트를 보유한 Google Cloud 데이터 공유 파트너와 함께 실무 경험을 쌓을 수 있습니다. 고객은 이 데이터를 구독하고, 자체 플랫폼 내에서 쿼리하고, 자체 데이터 세트로 보강하고, 고객 대면 대시보드에 시각화 도구를 사용합니다.
중급 Google Cloud에서 Cloud 보안 기본사항 구현하기 기술 배지 과정을 완료하여 Identity and Access Management(IAM)로 역할 생성 및 할당, 서비스 계정 생성 및 관리, 가상 프라이빗 클라우드(VPC) 네트워크에서 비공개 연결 사용 설정, IAP(Identity-Aware Proxy)를 사용한 애플리케이션 액세스 제한, Cloud Key Management Service(KMS)를 사용한 키와 암호화된 데이터 관리, 비공개 Kubernetes 클러스터 생성과 관련된 기술 역량을 입증하세요.
This skill badge course aims to unlock the power of data visualization and business intelligence reporting with Looker, and gain hands-on experience through labs.
Vertex AI에서 머신러닝 솔루션 빌드 및 배포하기 과정을 완료하여 중급 기술 배지를 획득하세요. 이 과정에서는 Google Cloud의 Vertex AI Platform, AutoML, 커스텀 학습 서비스를 사용해 머신러닝 모델을 학습, 평가, 조정, 설명, 배포하는 방법을 알아봅니다. 이 기술배지 과정은 전문 데이터 과학자 및 머신러닝 엔지니어를 대상으로 합니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받게 됩니다.
Pub/Sub 시작하기 기술 배지 과정을 완료하고 기술 배지를 획득하세요. 이 과정에서는 Cloud 콘솔을 통해 Pub/Sub를 사용하는 방법을 배우고, Cloud Scheduler 작업을 통해 효율성을 높이는 방법과 Pub/Sub Lite를 사용하여 높은 볼륨의 이벤트 수집에 드는 비용을 절감할 수 있는 경우를 배우게 됩니다.
Looker 시작하기 기술 배지 과정을 완료하고 기술 배지를 획득하세요. 이 과정에서는 Looker Studio와 Looker를 사용하여 데이터를 분석, 시각화, 선별하는 방법을 알아봅니다.
초급 Dataplex 시작하기 기술 배지 과정을 완료하여 Dataplex 애셋 생성, 관점 유형 생성, Dataplex의 항목에 관점 적용과 관련된 기술 역량을 입증하세요.
Cloud Storage 시작하기 기술 배지 과정을 완료하고 기술 배지를 획득하세요. 이 과정에서는 Cloud Storage 버킷을 만드는 방법, Cloud Storage 명령줄을 사용하는 방법, 버킷 잠금을 사용하여 버킷의 객체를 보호하는 방법을 알아봅니다.
Cloud Storage에서 스트리밍 데이터 레이크 만들기 과정을 완료하고 기술 배지를 획득하세요. 이 과정에서는 Google Cloud에서 Pub/Sub, Dataflow, Cloud Storage를 사용해 스트리밍 데이터 레이크를 만드는 방법을 알아봅니다.
초급 Cloud Storage에서 안전한 데이터 레이크 만들기 기술 배지 과정을 완료하여 Cloud Storage 버킷 보안 및 구성, Gemini를 사용한 텍스트 생성, IAM 액세스 제어 관리, 데이터 거버넌스를 위한 Dataplex 레이크 설정 등의 작업을 수행할 수 있습니다.
Cloud Storage, Cloud Functions, Cloud Pub/Sub는 모두 데이터를 저장, 처리, 관리하는 데 사용할 수 있는 Google Cloud Platform 서비스입니다. 세 가지 서비스를 모두 활용하여 다양한 데이터 기반 애플리케이션을 만들 수 있습니다. 이 기술 배지 과정에서는 Cloud Storage를 사용하여 이미지를 저장하고, Cloud Functions를 사용하여 이미지를 처리하고, Cloud Pub/Sub를 사용하여 이미지를 다른 애플리케이션으로 보냅니다.
Cloud Storage, Cloud Functions, Cloud Pub/Sub는 모두 데이터를 저장, 처리, 관리하는 데 사용할 수 있는 Google Cloud Platform 서비스입니다. 세 가지 서비스를 모두 활용하여 다양한 데이터 기반 애플리케이션을 만들 수 있습니다. 이 기술 배지 과정에서는 Cloud Storage를 사용하여 이미지를 저장하고, Cloud Functions를 사용하여 이미지를 처리하고, Cloud Pub/Sub를 사용하여 이미지를 다른 애플리케이션으로 보냅니다.
API를 사용하여 Cloud Storage 작업 초급 기술 배지 과정을 완료하여 Cloud Storage 리소스 작업에 Cloud Storage API를 포함한 여러 API를 사용하는 기술을 입증하세요.
Google Cloud Compute 기본 퀘스트를 완료하고 기술 배지를 획득하세요. 퀘스트에서는 Compute Engine을 사용하여 가상 머신(VM), 영구 디스크, 웹 서버로 작업하는 방법을 학습합니다.
BigLake 데이터의 메타데이터 및 검색 기능 강화 기술 배지 과정을 완료하여 BigQuery, BigLake, Dataplex Universal Catalog에 대한 기술 역량을 입증하세요. BigLake 테이블을 만들고 테이블 데이터의 메타데이터 관리 및 검색을 강화합니다.
BigQuery로 스트리밍 분석 과정을 완료하여 기술 배지를 획득하세요. 이 과정에서는 Pub/Sub, Dataflow, BigQuery를 함께 사용하여 데이터를 스트리밍하고 분석할 수 있습니다.
초급 BigLake 데이터 보호 기술 배지 과정을 완료하여 Dataplex 내에서 IAM, BigQuery, BigLake, Data Catalog를 사용해 BigLake 테이블을 만들고 보호하는 기술 역량을 입증하세요.
초급 Sensitive Data Protection 시작하기 기술 배지 과정을 완료하여 Sensitive Data Protection 서비스(Cloud Data Loss Prevention API 포함)를 사용해 Google Cloud의 민감한 정보를 검사, 수정, 익명화하는 기술을 입증할 수 있습니다.
초급 Google Cloud의 Monitoring 기술 배지 과정을 완료하여 Cloud Monitoring 도구로 Google Cloud의 리소스를 모니터링하는 기술을 입증할 수 있습니다.
초급 Apps Script를 활용하여 BigQuery 데이터와 Google Workspace 통합하기 기술 배지 과정을 완료하여 AppSheet를 통해 Workspace 제품을 BigQuery에 연결하는 기술 역량을 입증하세요.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
This skill badge aims to evaluate a partner's ability to migrate data from Cloudera to Google Cloud Platform. Learners will gain hands-on experience through labs and achieve comprehensive knowledge and practical skills for migrating data from Cloudera to Google Cloud Platform.
This is the fifth of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll combine and apply the foundational knowledge and skills from courses 1-4 in a hands-on Capstone project that focuses on the full data lifecycle project. You’ll practice using cloud-based tools to acquire, store, process, analyze, visualize, and communicate data insights effectively. By the end of the course, you’ll have completed a project demonstrating their proficiency in effectively structuring data from multiple sources, presenting solutions to varied stakeholders, and visualizing data insights using cloud-based software. You’ll also update your resume and practice interview techniques to help prepare for applying and interviewing for jobs.
This is the fourth of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll focus on developing skills in the five key stages of visualizing data in the cloud: storytelling, planning, exploring data, building visualizations, and sharing data with others. You’ll also gain experience using UI/UX skills to wireframe impactful, cloud-native visualizations and work with cloud-native data visualization tools to explore datasets, create reports, and build dashboards that drive decisions and foster collaboration.
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
This is the third of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll begin by getting an overview of the data journey, from collection to insights. You’ll then learn how to use SQL to transform raw data into a usable format. Next, you’ll learn how to transform high volumes of data with a data pipeline. Finally, you’ll gain experience applying transformation strategies to real data sets to solve business needs.
초급 Looker에서 LookML 객체 빌드 기술 배지 과정을 완료하여 새로운 측정기준 및 측정값, 뷰, 파생 테이블을 빌드하고, 요구사항에 따라 측정 필터 및 유형을 설정하고, 측정기준과 측정값을 업데이트하고, Explore를 빌드 및 미세 조정하고, 기존 Explore에 뷰를 조인하고, 비즈니스 요구사항에 따라 생성할 LookML 객체를 결정하는 기술 역량을 입증할 수 있습니다.
중급 Looker에서 데이터 모델 관리하기 기술 배지 과정을 완료하여 다음 기술을 입증하세요. LookML 프로젝트 상태 유지하기, 데이터 검증을 위한 SQL Runner 활용하기, LookML 권장사항 적용하기, 성능을 위한 쿼리 및 보고 최적화하기, 영구 파생 테이블 및 캐싱 정책 구현하기
이 과정에서는 Looker에서 고급 LookML 개념을 적용하는 실무를 직접 경험해 봅니다. Liquid를 사용하여 동적 측정기준과 측정항목을 맞춤설정 및 생성하고 동적 SQL 파생 테이블 및 맞춤설정된 기본 파생 테이블을 만들고 확장을 사용하여 LookML 코드를 모듈화하는 방법을 알아봅니다.
초급 Looker 대시보드 및 보고서를 위해 데이터 준비하기 기술 배지 과정을 완료하면 데이터를 필터링, 정렬, 피벗팅하고, 다른 Looker Explore의 결과를 병합하고, 함수 및 연산자를 사용해 데이터 분석 및 시각화를 위한 Looker 대시보드 및 보고서를 빌드하는 기술 역량을 입증할 수 있습니다.
This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.
본 과정은 데이터 분석 작업에 BigQuery를 사용하는 방법을 배우고자 하는 데이터 분석가를 대상으로 고안되었습니다. 동영상, 실습, 데모를 통해 BigQuery에서 데이터를 수집, 변환, 쿼리하여 비즈니스 의사 결정에 도움이 되는 인사이트를 도출하는 방법을 논의하는 다양한 주제를 다룹니다.
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
초급 과정에서는 Google Cloud에서 데이터 분석 워크플로와 데이터를 탐색, 분석, 시각화하여 이해관계자와 결과물을 공유하는 데 활용할 수 있는 도구에 대해 학습합니다. 이 과정에서는 우수사례를 실무형 실습, 강의, 퀴즈/데모와 함께 활용해 원시 데이터 세트에서 데이터를 정리하여 효과적인 시각화 및 대시보드를 만드는 방법을 설명합니다. 이미 데이터를 활용하고 있고 Google Cloud를 효과적으로 활용하는 방법을 알고 싶거나 경력을 발전시키고 싶은 학습자라면 이 과정으로 학습을 시작해 보세요. 업무에서 데이터 분석을 수행하거나 활용하는 거의 모든 학습자에게 도움이 될 수 있습니다.
중급 BigQuery ML로 ML 모델 만들기 기술 배지 과정을 완료하면 BigQuery ML로 머신러닝 모델을 만들고 평가하여 데이터 예측을 수행하는 기술 역량을 입증할 수 있습니다.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
중급 BigQuery에서 예측 데이터 분석 수행 기술 배지 과정을 완료하여 CSV 및 JSON 파일을 가져와 BigQuery에서 데이터 세트를 만들고, BigQuery ML을 사용하여 축구 이벤트 데이터로 기대 득점 모델을 학습하고 월드컵 골의 인상도를 평가하는 등 고급 SQL 분석 개념을 갖추고 BigQuery를 활용하는 기술 역량을 입증할 수 있습니다.
초급 Dataplex로 데이터 메시 빌드하기 기술 배지 과정을 완료하여, Dataplex를 통해 데이터 메시를 빌드해 Google Cloud에서 데이터 보안, 거버넌스, 탐색을 활용하는 역량을 입증하세요. Dataplex에서 애셋에 태그를 지정하고, IAM 역할을 할당하고, 데이터 품질을 평가하는 기술을 연습하고 테스트할 수 있습니다.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.
Excited to follow your favorite soccer/football stars on their next quest? Use GenAIus Travel Guides to learn how to interact with chat applications, master prompt engineering, understand the importance of context in AI, and work with Generative AI. Earn an exclusive Google Cloud Generative AI Credential and showcase your new skills! No prior experience needed!
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
This is the first of five courses in the Google Cloud Data Analytics Certificate. In this course, you’ll define the field of cloud data analysis and describe roles and responsibilities of a cloud data analyst as they relate to data acquisition, storage, processing, and visualization. You’ll explore the architecture of Google Cloud-based tools, like BigQuery and Cloud Storage, and how they are used to effectively structure, present, and report data.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
Today, developers need all the tools to shine. Artifact Registry is your one-stop shop for storing and managing your code. Learn how to start building your dream code and earn a Google Cloud Credential along the way!- No prior experience needed!
Today's fast-paced digital world needs security experts. Become one by mastering the fine points of security and compliance in the Cloud! Boost your skillset with a Google Cloud Credential- No prior experience required!
Hey there! You're invited to game on with the Arcade Trivia for May Week 4! Play throughout the month and boost your cloud learning journey. Every week, we'll release a new set of questions to test your knowledge of Google Cloud Platform. Get started now and earn the May Trivia Week 4 badge!
Discover the craft of turning data into actionable insights and earn a Google Cloud Credential along the way! No prior experience needed!
초급 BigQuery 데이터에서 인사이트 도출 기술 배지 과정을 완료하여 SQL 쿼리 작성, 공개 테이블 쿼리, BigQuery로 샘플 데이터 로드, BigQuery의 쿼리 검사기를 통한 일반적인 문법 오류 문제 해결, BigQuery 데이터를 연결해 Looker Studio에서 보고서를 생성하는 작업과 관련된 기술 역량을 입증하세요.
Hey there! You're invited to game on with the Arcade Trivia for May Week 3! Play throughout the month and boost your cloud learning journey. Every week, we'll release a new set of questions to test your knowledge of Google Cloud Platform. Get started now and earn the May Trivia Week 3 badge!
Hey there! You're invited to game on with the Arcade Trivia for May Week 2! Play throughout the month and boost your cloud learning journey. Every week, we'll release a new set of questions to test your knowledge of Google Cloud Platform. Get started now and earn the May Trivia Week 2 badge!
Hey there! You're invited to game on with the Arcade Trivia for May Week 1! Play throughout the month and boost your cloud learning journey. Every week, we'll release a new set of questions to test your knowledge of Google Cloud Platform. Get started now and earn the May Trivia Week 1 badge!
Google Cloud Certifications provide a tangible way for you to demonstrate your skills to potential or current employers. These certifications incorporate performance-based questions, testing your hands-on expertise through practical tasks. Begin your journey towards becoming a Google Certified Professional with the help of the Arcade Cert Zone. Be one of the first 20 people to complete the challenge and earn a 100% discount voucher for your next Google Cloud Digital Leader Examination. Welcome!
TensorFlow is an open source software library for high performance numerical computation that's great for writing models that can train and run on platforms ranging from your laptop to a fleet of servers in the Cloud to an edge device. This quest takes you beyond the basics of using predefined models and teaches you how to build, train and deploy your own on Google Cloud.
SQL만으로 몇 시간이 아닌 몇 분 만에 머신러닝 모델을 빌드하고 싶으신가요? BigQuery ML은 데이터 분석가가 기존 SQL 도구와 기술을 사용하여 머신러닝 모델을 만들고, 학습시키고, 평가하고, 예측할 수 있게 하여 머신러닝을 범용화합니다. 이 실습 시리즈에서는 다양한 모델 유형을 실험하고 좋은 모델을 만드는 요소를 알아봅니다.
In this series of labs you will learn how to use BigQuery to analyze NCAA basketball data with SQL. Build a Machine Learning Model to predict the outcomes of NCAA March Madness basketball tournament games.
Want to turn your marketing data into insights and build dashboards? Bring all of your data into one place for large-scale analysis and model building. Get repeatable, scalable, and valuable insights into your data by learning how to query it and using BigQuery. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Organizations around the world rely on Apache Kafka to integrate existing systems in real time and build a new class of event streaming applications that unlock new business opportunities. Google and Confluent are in a partnership to deliver the best event streaming service based on Apache Kafka and to build event driven applications and big data pipelines on Google Cloud Platform. In this game, you will first learn how to deploy and create a streaming data pipeline with Apache Kafka. You will then perform hand-on labs on the different functionalities of the Confluent Platform including deploying and running Apache Kafka on GKE and developing a Streaming Microservices Application.
Get hands-on practice with Google Cloud’s fundamental tools and services.You will compete with your peers to see who can finish this game with the most points. Speed and accuracy will be used to calculate your scores — earn points by completing the labs accurately and bonus points for speed! Be sure to click “End” where you’re done with each lab to be rewarded your points. All players who complete all of the labs will be awarded with this game badge. The access code for this game will be- "5a-devjam"
This quest offers hands-on practice with Cloud Data Fusion, a cloud-native, code-free, data integration platform. ETL Developers, Data Engineers and Analysts can greatly benefit from the pre-built transformations and connectors to build and deploy their pipelines without worrying about writing code. This Quest starts with a quickstart lab that familiarises learners with the Cloud Data Fusion UI. Learners then get to try running batch and realtime pipelines as well as using the built-in Wrangler plugin to perform some interesting transformations on data.
Data Catalog is deprecated and will be discontinued on January 30, 2026. You can still complete this course if you want to. For steps to transition your Data Catalog users, workloads, and content to Dataplex Catalog, see Transition from Data Catalog to Dataplex Catalog (https://cloud.google.com/dataplex/docs/transition-to-dataplex-catalog). Data Catalog is a fully managed and scalable metadata management service that empowers organizations to quickly discover, understand, and manage all of their data. In this quest you will start small by learning how to search and tag data assets and metadata with Data Catalog. After learning how to build your own tag templates that map to BigQuery table data, you will learn how to build MySQL, PostgreSQL, and SQLServer to Data Catalog Connectors.
Google Cloud 네트워크 설정 과정을 완료하고 기술 배지를 획득하세요. 이 실습에서는 Google Cloud Platform에서 기본적인 네트워킹 작업을 수행하는 방법을 알아봅니다. 커스텀 네트워크를 만들고 서브넷 방화벽 규칙을 추가한 다음 VM을 만들고 VM이 서로 통신할 때의 지연 시간을 테스트합니다.
Google Cloud 네트워크 개발 과정을 완료하고 기술 배지를 획득하세요. 이 과정에서는 IAM 역할 탐색 및 프로젝트 액세스 권한 추가/삭제, VPC 네트워크 생성, Compute Engine VM 배포 및 모니터링, SQL 쿼리 작성, Compute Engine에서 VM 배포 및 모니터링, Kubernetes를 여러 배포 접근 방식과 함께 사용하여 애플리케이션을 배포하는 등의 다양한 애플리케이션 배포 및 모니터링 방법을 배울 수 있습니다.
Using large scale computing power to recognize patterns and "read" images is one of the foundational technologies in AI, from self-driving cars to facial recognition. The Google Cloud Platform provides world class speed and accuracy via systems that can utilized by simply calling APIs. With these and a host of other APIs, GCP has a tool for just about any machine learning job. In this introductory quest, you will get hands-on practice with machine learning as it applies to image processing by taking labs that will enable you to label images, detect faces and landmarks, as well as extract, analyze, and translate text from within images.
Google Cloud 앱 개발 환경 설정 과정을 완료하여 기술 배지를 획득하세요. Cloud Storage, Identity and Access Management, Cloud Functions, Pub/Sub의 기본 기능을 사용하여 스토리지 중심 클라우드 인프라를 구축하고 연결하는 방법을 배울 수 있습니다.
이 과정은 Google Cloud 기본 개념 과정 이상의 지식을 얻기 위해 실무형 실습을 찾는 초보 클라우드 개발자에게 도움이 됩니다. 실습을 통해 Cloud Storage와 Monitoring 및 Cloud Functions 등 기타 주요 애플리케이션 서비스를 자세히 살펴보며 실무 경험을 쌓게 됩니다. 모든 Google Cloud 이니셔티브에 적용할 수 있는 유용한 기술을 개발할 수 있습니다.
중급 Google Cloud에서 DevOps 워크플로 구현 기술 배지 과정을 완료하여 Cloud Source Repositories로 Git 저장소 만들기, Google Kubernetes Engine(GKE)에서 배포 실행, 관리, 확장, 그리고 컨테이너 이미지 빌드 및 GKE로의 배포를 자동화하는 CI/CD 파이프라인 설계 등에 관한 기술을 입증하세요.
중급 Google Cloud에서 Kubernetes 애플리케이션 배포하기 기술 배지 과정을 완료하여 Docker 컨테이너 이미지 구성 및 빌드, Google Kubernetes Engine(GKE) 클러스터 생성 및 관리, kubectl을 활용한 효율적인 클러스터 관리, 강력한 지속적 배포(CD) 관행으로 Kubernetes 애플리케이션 배포를 위한 기술을 갖추었음을 입증하세요.
Obtain a competitive advantage through DevOps. DevOps is an organizational and cultural movement that aims to increase software delivery velocity, improve service reliability, and build shared ownership among software stakeholders. In this course you will learn how to use Google Cloud to improve the speed, stability, availability, and security of your software delivery capability. DevOps Research and Assessment has joined Google Cloud. How does your team measure up? Take this five question multiple-choice quiz and find out!
이 초급 과정에서는 다른 과정과 차별화된 실습을 제공합니다. 이 과정은 IT 전문가에게 Google Cloud 공인 어소시에이트 클라우드 엔지니어 자격증 시험에서 다루는 주제와 서비스에 대한 실무형 실습을 제공하도록 선별되었습니다. IAM, 네트워킹, Kubernetes Engine 배포 등에 대해 다루며 Google Cloud 지식을 테스트해 볼 수 있는 구체적인 실습으로 구성되어 있습니다. 이러한 실습만으로도 기술과 역량을 향상시킬 수 있지만 시험 가이드 및 함께 제공되는 다른 준비용 리소스도 검토해 보시기 바랍니다.
Cloud SQL is a fully managed database service that stands out from its peers due to high performance, seamless integration, and impressive scalability. In this quest you will receive hands-on practice with the basics of Cloud SQL and quickly progress to advanced features, which you will apply to production frameworks and application environments. From creating instances and querying data with SQL, to building Deployment Manager scripts and connecting Cloud SQL instances with applications run on GKE containers, this quest will give you the knowledge and experience needed so you can start integrating this service right away.
초급 BigQuery 데이터에서 인사이트 도출 기술 배지 과정을 완료하여 SQL 쿼리 작성, 공개 테이블 쿼리, BigQuery로 샘플 데이터 로드, BigQuery의 쿼리 검사기를 통한 일반적인 문법 오류 문제 해결, BigQuery 데이터를 연결해 Looker Studio에서 보고서를 생성하는 작업과 관련된 기술 역량을 입증하세요.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Looking to build or optimize your data warehouse? Learn best practices to Extract, Transform, and Load your data into Google Cloud with BigQuery. In this series of interactive labs you will create and optimize your own data warehouse using a variety of large-scale BigQuery public datasets. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of this quest to receive an exclusive Google Cloud digital badge.
Want to learn the core SQL and visualization skills of a Data Analyst? Interested in how to write queries that scale to petabyte-size datasets? Take the BigQuery for Analyst Quest and learn how to query, ingest, optimize, visualize, and even build machine learning models in SQL inside of BigQuery.
Google Cloud에서 Machine Learning API 사용하기 과정을 완료하여 고급 기술 배지를 획득하세요. 이 과정에서는 Cloud Vision API, Cloud Translation API, Cloud Natural Language API와 같은 머신러닝 및 AI 기술의 기본 기능을 알아봅니다.
This is the first of two Quests of hands-on labs is derived from the exercises from the book Data Science on Google Cloud Platform, 2nd Edition by Valliappa Lakshmanan, published by O'Reilly Media, Inc. In this first Quest, covering up through chapter 8, you are given the opportunity to practice all aspects of ingestion, preparation, processing, querying, exploring and visualizing data sets using Google Cloud tools and services.
중급 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용하여 머신러닝 모델을 빌드하는 기술 역량을 입증할 수 있습니다.
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
Big data, machine learning, and scientific data? It sounds like the perfect match. In this advanced-level quest, you will get hands-on practice with GCP services like Big Query, Dataproc, and Tensorflow by applying them to use cases that employ real-life, scientific data sets. By getting experience with tasks like earthquake data analysis and satellite image aggregation, Scientific Data Processing will expand your skill set in big data and machine learning so you can start tackling your own problems across a spectrum of scientific disciplines.
It's no secret that machine learning is one of the fastest growing fields in tech, and Google Cloud has been instrumental in furthering its development. With a host of APIs, Google Cloud has a tool for just about any machine learning job. In this advanced-level course, you will get hands-on practice with machine learning APIs by taking labs like Detect Labels, Faces, and Landmarks in Images with the Cloud Vision API. Looking for a hands-on challenge lab to demonstrate your skills and validate your knowledge? Enroll in and finish the additional challenge lab at the end of this quest to receive an exclusive Google Cloud digital badge.
초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요.
이 중급 과정에서는 Google Cloud에서 강력한 일괄 데이터 파이프라인을 설계, 빌드, 최적화하는 방법을 알아봅니다. 기본적인 데이터 처리를 넘어, 시의적절한 비즈니스 인텔리전스와 중요한 보고에 필수적인 대규모 데이터 변환과 효율적인 워크플로 조정에 대해 살펴봅니다. Apache Beam용 Dataflow와 Apache Spark용 서버리스(Dataproc Serverless)를 사용하여 구현을 실습하고, 파이프라인 안정성과 운영 우수성을 보장하기 위해 데이터 품질, 모니터링, 알림에 대한 중요한 고려사항을 다룹니다. 데이터 웨어하우징, ETL/ELT, SQL, Python, Google Cloud 개념에 대한 기본적인 지식이 있으면 좋습니다.
빅데이터, 머신러닝, 인공지능은 오늘날 인기 있는 컴퓨팅 관련 주제이지만 매우 전문화된 분야이기 때문에 초급용 자료를 구하기 어렵습니다. 다행히도 Google Cloud는 이러한 분야에서 사용자 친화적인 서비스를 제공하며 초급 과정을 통해 학습자에게 BigQuery, Cloud Speech API, Video Intelligence와 같은 도구를 사용해 시작할 기회를 제공합니다.
초급 Compute Engine에서 Cloud Load Balancing 구현하기 기술 배지 과정을 완료하여 Compute Engine에서 가상 머신 만들기 및 배포, 네트워크 및 애플리케이션 부하 분산기 구성과 관련된 기술 역량을 입증하세요.
이 초급 과정에서는 Google Cloud의 기본 도구 및 서비스를 직접 사용해 보는 실무형 실습을 진행합니다. 선택사항으로 제공되는 동영상에서는 실습에서 다룬 개념을 자세히 살펴보고 복습합니다. Google Cloud 필수 정보는 Google Cloud 학습자에게 추천되는 첫 번째 과정입니다. 클라우드에 대한 사전 지식이 거의 없거나 전혀 없더라도 첫 Google Cloud 프로젝트에 적용할 수 있는 실무 경험을 쌓을 수 있습니다. Cloud Shell 명령어 작성, 첫 번째 가상 머신 배포, Kubernetes Engine에서의 애플리케이션 실행, 부하 분산 등 Google Cloud 필수 정보에서는 플랫폼의 기본 기능을 소개합니다.
머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.
이 과정에서는 스트리밍 데이터 파이프라인을 빌드할 때 직면하는 실제 과제를 해결하기 위해 실습을 진행합니다. Google Cloud 제품을 사용하여 지속적이고 무제한적인 데이터를 관리하는 데 중점을 둡니다.
데이터 레이크와 데이터 웨어하우스를 사용하는 기존 접근방식은 효과적일 수 있지만, 특히 대규모 엔터프라이즈 환경에서는 단점이 있습니다. 이 과정에서는 데이터 레이크하우스의 개념과 데이터 레이크하우스를 만드는 데 사용되는 Google Cloud 제품을 소개합니다. 레이크하우스 아키텍처는 개방형 표준 데이터 소스를 사용하며 데이터 레이크와 데이터 웨어하우스의 장점을 결합하여 많은 단점을 해결합니다.
이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.