Behrad Behravesh
회원 가입일: 2025
실버 리그
24712포인트
회원 가입일: 2025
중급 Google Cloud에서 Cloud 보안 기본사항 구현하기 기술 배지 과정을 완료하여 Identity and Access Management(IAM)로 역할 생성 및 할당, 서비스 계정 생성 및 관리, 가상 프라이빗 클라우드(VPC) 네트워크에서 비공개 연결 사용 설정, IAP(Identity-Aware Proxy)를 사용한 애플리케이션 액세스 제한, Cloud Key Management Service(KMS)를 사용한 키와 암호화된 데이터 관리, 비공개 Kubernetes 클러스터 생성과 관련된 기술 역량을 입증하세요.
이 과정은 Google Cloud 기본 개념 과정 이상의 지식을 얻기 위해 실무형 실습을 찾는 초보 클라우드 개발자에게 도움이 됩니다. 실습을 통해 Cloud Storage와 Monitoring 및 Cloud Functions 등 기타 주요 애플리케이션 서비스를 자세히 살펴보며 실무 경험을 쌓게 됩니다. 모든 Google Cloud 이니셔티브에 적용할 수 있는 유용한 기술을 개발할 수 있습니다.
이 과정에서는 Google Cloud의 데이터 엔지니어링, 데이터 엔지니어의 역할과 책임, 그리고 이러한 요소가 Google Cloud 제공 서비스와 어떻게 연결되는지에 대해 알아봅니다. 또한 데이터 엔지니어링 과제를 해결하는 방법에 대해서도 배우게 됩니다.
이 과정에서는 데이터-AI 워크플로를 지원하는 AI 기반 기능 모음인 BigQuery의 Gemini에 관해 살펴봅니다. 이러한 기능에는 데이터 탐색 및 준비, 코드 생성 및 문제 해결, 워크플로 탐색 및 시각화 등이 있습니다. 이 과정은 개념 설명, 실제 사용 사례, 실무형 실습을 통해 데이터 실무자가 생산성을 향상하고 개발 파이프라인의 속도를 높이는 데 도움이 됩니다.
초급 BigQuery 데이터에서 인사이트 도출 기술 배지 과정을 완료하여 SQL 쿼리 작성, 공개 테이블 쿼리, BigQuery로 샘플 데이터 로드, BigQuery의 쿼리 검사기를 통한 일반적인 문법 오류 문제 해결, BigQuery 데이터를 연결해 Looker Studio에서 보고서를 생성하는 작업과 관련된 기술 역량을 입증하세요.
중급 Looker에서 데이터 모델 관리하기 기술 배지 과정을 완료하여 다음 기술을 입증하세요. LookML 프로젝트 상태 유지하기, 데이터 검증을 위한 SQL Runner 활용하기, LookML 권장사항 적용하기, 성능을 위한 쿼리 및 보고 최적화하기, 영구 파생 테이블 및 캐싱 정책 구현하기
이 과정에서는 Looker에서 고급 LookML 개념을 적용하는 실무를 직접 경험해 봅니다. Liquid를 사용하여 동적 측정기준과 측정항목을 맞춤설정 및 생성하고 동적 SQL 파생 테이블 및 맞춤설정된 기본 파생 테이블을 만들고 확장을 사용하여 LookML 코드를 모듈화하는 방법을 알아봅니다.
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.
This course provides an introduction to Looker Studio’s powerful features for data visualization and reporting. Learn to transform raw data into insightful reports by mastering various visualization options, connecting to diverse data sources, and implementing interactive controls such as filters. Explore data blending techniques to combine information from multiple sources and unlock deeper insights. Through hands-on exercises you'll gain the skills to create compelling, dynamic reports that effectively communicate data-driven stories.
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
초급 Looker 대시보드 및 보고서를 위해 데이터 준비하기 기술 배지 과정을 완료하면 데이터를 필터링, 정렬, 피벗팅하고, 다른 Looker Explore의 결과를 병합하고, 함수 및 연산자를 사용해 데이터 분석 및 시각화를 위한 Looker 대시보드 및 보고서를 빌드하는 기술 역량을 입증할 수 있습니다.
In this introductory course, you'll learn how Looker can help you explore, analyze, and visualize your data to drive better decisions. Through a combination of video lectures and demos, you'll discover how to connect to various data sources, build interactive dashboards, and perform effective data analysis. Whether you're a data analyst, BI analyst, data scientist or business user, this course will equip you with the foundational knowledge to start using Looker effectively, regardless of your background.
이 과정은 BigQuery에서 생성형 AI 작업에 AI/ML 모델을 사용하는 방법을 보여줍니다. 고객 관계 관리와 관련된 실제 사용 사례를 통해 Gemini 모델로 비즈니스 문제를 해결하는 워크플로를 설명합니다. 이해를 돕기 위해 SQL 쿼리와 Python 노트북을 사용하는 코딩 솔루션을 단계별로 안내합니다.
이 과정에서는 TensorFlow 및 Keras를 사용한 ML 모델 빌드, ML 모델의 정확성 개선, 사용 사례 확장을 위한 ML 모델 작성에 대해 다룹니다.
이 과정에서는 Vertex AI Feature Store 사용의 이점, ML 모델의 정확성을 개선하는 방법, 가장 유용한 특성을 만드는 데이터 열을 찾는 방법을 살펴봅니다. 이 과정에는 BigQuery ML, Keras, TensorFlow를 사용한 특성 추출에 관한 콘텐츠와 실습도 포함되어 있습니다.
중급 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용하여 머신러닝 모델을 빌드하는 기술 역량을 입증할 수 있습니다.
중급 BigQuery ML로 ML 모델 만들기 기술 배지 과정을 완료하면 BigQuery ML로 머신러닝 모델을 만들고 평가하여 데이터 예측을 수행하는 기술 역량을 입증할 수 있습니다.
이 과정은 데이터 준비부터 모델 배포와 모니터링까지 전체 머신러닝 워크플로를 위한 통합 플랫폼을 제공하는 Jupyter 노트북 기반 환경인 Vertex AI Notebooks를 소개합니다. 이 과정에서는 (1) 다양한 유형의 Vertex AI Notebooks와 그 특징, (2) Vertex AI Notebooks를 만들고 관리하는 방법을 다룹니다.
초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요.
이 과정에서는 생성형 AI 프로젝트와 예측형 AI 프로젝트를 모두 개발하는 데 중점을 두고 Google Cloud의 AI 및 머신러닝(ML) 기능을 소개합니다. 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 다양한 기술, 제품, 도구를 살펴보고, 데이터 과학자, AI 개발자, ML 엔지니어가 대화형 실습을 통해 전문성을 강화할 수 있도록 지원합니다.
이 과정은 학습자가 프로페셔널 머신러닝 엔지니어(PMLE) 자격증 시험을 준비하는 학습 계획을 수립하는 데 도움을 줍니다. 학습자는 시험에서 다루는 분야의 범위를 살펴보고 자신의 시험 준비 상태를 평가한 다음 개별 학습 계획을 세웁니다.
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 다섯 번째 과정입니다. 이 과정에서는 전체 데이터 수명 주기 프로젝트에 중점을 둔 실습형 캡스톤 프로젝트의 1~4번째 과정에서 배운 기초 지식과 기술을 종합하여 적용합니다. 클라우드 기반 도구를 사용하여 데이터 인사이트를 효과적으로 확보, 저장, 처리, 분석, 시각화, 전달하는 방법을 실습합니다. 과정을 마치면 학습자는 여러 소스의 데이터를 효과적으로 구조화하고, 다양한 이해관계자에게 솔루션을 제시하고, 클라우드 기반 소프트웨어를 사용하여 데이터 인사이트를 시각화하는 역량을 보여주는 프로젝트를 완료하게 됩니다. 또한 이력서를 업데이트하고 면접 기법을 연습하면서 입사 지원 및 면접을 준비합니다.
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 네 번째 과정입니다. 이 과정에서 학습자는 클라우드에서 데이터를 시각화하는 5가지 핵심 단계(스토리텔링, 계획, 데이터 탐색, 시각화 구축, 다른 사람과의 데이터 공유)와 관련된 기술을 개발하는 데 중점을 둡니다. 또한 UI/UX 기술을 사용하여 효과적인 클라우드 네이티브 시각화를 와이어프레임으로 제작하고 클라우드 네이티브 데이터 시각화 도구를 사용하여 데이터 세트를 탐색하고, 보고서를 작성할 뿐 아니라 의사 결정 및 협업을 촉진하는 대시보드를 빌드하는 경험을 쌓을 수 있습니다.
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 세 번째 과정입니다. 이 과정에서는 먼저 데이터 수집부터 인사이트 도출까지의 데이터 여정을 개괄적으로 살펴봅니다. 그런 다음 SQL을 사용하여 원시 데이터를 사용 가능한 형식으로 변환하는 방법을 알아봅니다. 다음으로 데이터 파이프라인을 사용하여 대량의 데이터를 변환하는 방법을 배웁니다. 마지막으로 실제 데이터 세트에 변환 전략을 적용하여 비즈니스 요구사항을 해결하는 경험을 쌓게 됩니다.
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 두 번째 과정입니다. 이 과정에서는 데이터를 어떻게 구조화하고 조직화하는지 살펴봅니다. 데이터 레이크하우스 아키텍처 및 BigQuery, Google Cloud Storage, Dataproc과 같은 클라우드 구성요소를 활용하여 대규모 데이터 세트를 효율적으로 저장, 분석, 처리하는 방법을 직접 경험해 봅니다.
Google Cloud 데이터 애널리틱스 자격증의 5개 과정 중 첫 번째 과정입니다. 이 과정에서는 클라우드 데이터 분석의 분야를 정의하고 데이터 획득, 저장, 처리, 시각화와 관련된 클라우드 데이터 분석가의 역할과 책임을 설명합니다. BigQuery, Cloud Storage와 같은 Google Cloud 기반 도구의 아키텍처와 이러한 도구를 사용하여 데이터를 효과적으로 구조화하여 표시하고 보고하는 방법을 살펴봅니다.
본 과정은 데이터 분석 작업에 BigQuery를 사용하는 방법을 배우고자 하는 데이터 분석가를 대상으로 고안되었습니다. 동영상, 실습, 데모를 통해 BigQuery에서 데이터를 수집, 변환, 쿼리하여 비즈니스 의사 결정에 도움이 되는 인사이트를 도출하는 방법을 논의하는 다양한 주제를 다룹니다.
초급 과정에서는 Google Cloud에서 데이터 분석 워크플로와 데이터를 탐색, 분석, 시각화하여 이해관계자와 결과물을 공유하는 데 활용할 수 있는 도구에 대해 학습합니다. 이 과정에서는 우수사례를 실무형 실습, 강의, 퀴즈/데모와 함께 활용해 원시 데이터 세트에서 데이터를 정리하여 효과적인 시각화 및 대시보드를 만드는 방법을 설명합니다. 이미 데이터를 활용하고 있고 Google Cloud를 효과적으로 활용하는 방법을 알고 싶거나 경력을 발전시키고 싶은 학습자라면 이 과정으로 학습을 시작해 보세요. 업무에서 데이터 분석을 수행하거나 활용하는 거의 모든 학습자에게 도움이 될 수 있습니다.