Massimo Simonetta
회원 가입일: 2021
브론즈 리그
32010포인트
회원 가입일: 2021
이 과정에서는 Google Cloud의 생성형 AI 기반 파트너인 Gemini가 고객 데이터를 분석하고 제품 판매를 예측하는 데 어떤 도움이 되는지 알아봅니다. BigQuery에서 고객 데이터를 사용해 신규 고객을 식별, 분류, 개발하는 방법도 다룹니다. 실무형 실습을 통해 Gemini로 데이터 분석 및 머신러닝 워크플로가 얼마나 개선되는지 경험할 수 있습니다. Duet AI의 이름이 Google의 차세대 모델인 Gemini로 변경되었습니다.
초급 Vertex AI의 프롬프트 설계 기술 배지를 완료하여 Vertex AI 내 프롬프트 엔지니어링, 이미지 분석, 멀티모달 생성형 기술과 관련된 기술 역량을 입증하세요. 효과적인 프롬프트를 만들고 생성형 AI 출력을 안내하며 실제 마케팅 분야 시나리오에 Gemini 모델을 적용하는 방법을 알아보세요.
초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요.
Vertex AI에서 머신러닝 솔루션 빌드 및 배포하기 과정을 완료하여 중급 기술 배지를 획득하세요. 이 과정에서는 Google Cloud의 Vertex AI Platform, AutoML, 커스텀 학습 서비스를 사용해 머신러닝 모델을 학습, 평가, 조정, 설명, 배포하는 방법을 알아봅니다. 이 기술배지 과정은 전문 데이터 과학자 및 머신러닝 엔지니어를 대상으로 합니다. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받게 됩니다.
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
이 과정에서는 TensorFlow 및 Keras를 사용한 ML 모델 빌드, ML 모델의 정확성 개선, 사용 사례 확장을 위한 ML 모델 작성에 대해 다룹니다.
이 과정에서는 Vertex AI Feature Store 사용의 이점, ML 모델의 정확성을 개선하는 방법, 가장 유용한 특성을 만드는 데이터 열을 찾는 방법을 살펴봅니다. 이 과정에는 BigQuery ML, Keras, TensorFlow를 사용한 특성 추출에 관한 콘텐츠와 실습도 포함되어 있습니다.
이 과정에서는 생성형 AI 프로젝트와 예측형 AI 프로젝트를 모두 개발하는 데 중점을 두고 Google Cloud의 AI 및 머신러닝(ML) 기능을 소개합니다. 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 다양한 기술, 제품, 도구를 살펴보고, 데이터 과학자, AI 개발자, ML 엔지니어가 대화형 실습을 통해 전문성을 강화할 수 있도록 지원합니다.
이 과정에서는 Google Cloud에서 프로덕션 ML 시스템 배포, 평가, 모니터링, 운영을 위한 MLOps 도구와 권장사항을 소개합니다. MLOps는 프로덕션에서 ML 시스템을 배포, 테스트, 모니터링, 자동화하는 방법론입니다. 머신러닝 엔지니어링 전문가들은 배포된 모델의 지속적인 개선과 평가를 위해 도구를 사용합니다. 이들이 협력하거나 때론 그 역할을 하는 데이터 과학자는 고성능 모델을 빠르고 정밀하게 배포할 수 있도록 모델을 개발합니다.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
중급 BigQuery ML을 사용한 예측 모델링을 위한 데이터 엔지니어링 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용하여 머신러닝 모델을 빌드하는 기술 역량을 입증할 수 있습니다.
중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
이 과정에서는 스트리밍 데이터 파이프라인을 빌드할 때 직면하는 실제 과제를 해결하기 위해 실습을 진행합니다. Google Cloud 제품을 사용하여 지속적이고 무제한적인 데이터를 관리하는 데 중점을 둡니다.
머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.
이 중급 과정에서는 Google Cloud에서 강력한 일괄 데이터 파이프라인을 설계, 빌드, 최적화하는 방법을 알아봅니다. 기본적인 데이터 처리를 넘어, 시의적절한 비즈니스 인텔리전스와 중요한 보고에 필수적인 대규모 데이터 변환과 효율적인 워크플로 조정에 대해 살펴봅니다. Apache Beam용 Dataflow와 Apache Spark용 서버리스(Dataproc Serverless)를 사용하여 구현을 실습하고, 파이프라인 안정성과 운영 우수성을 보장하기 위해 데이터 품질, 모니터링, 알림에 대한 중요한 고려사항을 다룹니다. 데이터 웨어하우징, ETL/ELT, SQL, Python, Google Cloud 개념에 대한 기본적인 지식이 있으면 좋습니다.
데이터 레이크와 데이터 웨어하우스를 사용하는 기존 접근방식은 효과적일 수 있지만, 특히 대규모 엔터프라이즈 환경에서는 단점이 있습니다. 이 과정에서는 데이터 레이크하우스의 개념과 데이터 레이크하우스를 만드는 데 사용되는 Google Cloud 제품을 소개합니다. 레이크하우스 아키텍처는 개방형 표준 데이터 소스를 사용하며 데이터 레이크와 데이터 웨어하우스의 장점을 결합하여 많은 단점을 해결합니다.
기업에서 인공지능과 머신러닝의 사용이 계속 증가함에 따라 책임감 있는 빌드의 중요성도 커지고 있습니다. 대부분의 기업은 책임감 있는 AI를 실천하기가 말처럼 쉽지 않습니다. 조직에서 책임감 있는 AI를 운영하는 방법에 관심이 있다면 이 과정이 도움이 될 것입니다. 이 과정에서 책임감 있는 AI를 위해 현재 Google Cloud가 기울이고 있는 노력, 권장사항, Google Cloud가 얻은 교훈을 알아보면 책임감 있는 AI 접근 방식을 구축하기 위한 프레임워크를 수립할 수 있을 것입니다.
이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.
이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.
이 과정은 기계 번역, 텍스트 요약, 질의 응답과 같은 시퀀스-투-시퀀스(Seq2Seq) 작업에 널리 사용되는 강력한 머신러닝 아키텍처인 인코더-디코더 아키텍처에 대한 개요를 제공합니다. 인코더-디코더 아키텍처의 기본 구성요소와 이러한 모델의 학습 및 서빙 방법에 대해 알아봅니다. 해당하는 실습 둘러보기에서는 TensorFlow에서 시를 짓는 인코더-디코더 아키텍처를 처음부터 간단하게 구현하는 코딩을 해봅니다.
이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.
Introduction to Generative AI, Introduction to Large Language Models, Introduction to Responsible AI 과정을 완료하고 기술 배지를 획득하세요. 최종 퀴즈를 풀어보고 생성형 AI의 기본 개념을 제대로 이해했는지 확인해 보세요. 기술 배지는 Google Cloud 제품 및 서비스에 대한 지식을 숙지한 사람에게 Google Cloud에서 발급하는 디지털 배지입니다. 프로필을 공개하고 기술 배지를 소셜 미디어 프로필에 추가하여 공유하세요.
책임감 있는 AI란 무엇이고 이것이 왜 중요하며 Google에서는 어떻게 제품에 책임감 있는 AI를 구현하고 있는지 설명하는 입문용 마이크로 학습 과정입니다. Google의 7가지 AI 원칙도 소개합니다.
이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
이 과정에서는 먼저 데이터에 관해 논의하면서 데이터 품질을 개선하고 탐색적 데이터 분석을 수행하는 방법을 알아봅니다. Vertex AI AutoML과 코드를 한 줄도 작성하지 않고 ML 모델을 빌드하고, 학습시키고, 배포하는 방법을 설명합니다. 학습자는 Big Query ML의 이점을 이해할 수 있습니다. 그런 다음, 머신러닝(ML) 모델 최적화 방법과 일반화 및 샘플링으로 커스텀 학습용 ML 모델 품질을 평가하는 방법을 다룹니다.
Google Cloud에서 머신러닝을 구현하기 위한 권장사항에는 어떤 것이 있을까요? Vertex AI란 무엇이고, 이 플랫폼을 사용하여 코드는 한 줄도 작성하지 않고 AutoML 머신러닝 모델을 빠르게 빌드, 학습, 배포하려면 어떻게 해야 할까요? 머신러닝이란 무엇이며 어떤 종류의 문제를 해결할 수 있을까요? Google은 머신러닝을 조금 다른 방식으로 바라봅니다. Google이 머신러닝과 관련하여 중요하게 생각하는 것은 관리형 데이터 세트를 위한 통합 플랫폼과 특징 저장소를 제공하고, 코드를 작성하지 않고도 머신러닝 모델을 빌드, 학습, 배포할 방법을 제공하고, 데이터에 라벨을 지정하고, TensorFlow, scikit-learn, Pytorch, R 등과 같은 프레임워크를 사용하여 Workbench 노트북을 만들 수 있도록 지원하는 것입니다. Google의 Vertex AI 플랫폼에는 커스텀 모델을 학습시키고, 구성요소 파이프라인을 빌드하고, 온라인 및 일괄 예측을 실행하는 기능이 포함되어 있습니다. 후보 사용 사례를 머신러닝으로 구동되도록 변환하는 5단계를 살펴보고, 단계를 건너뛰지 않는 것이 중요한 이유를 알아봅니다. 마지막으로, 머신러닝이 증폭시킬 수 있는 편향과 이를 인식할 방법을 살펴봅니다.
이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.
이 초급 과정에서는 Google Cloud의 기본 도구 및 서비스를 직접 사용해 보는 실무형 실습을 진행합니다. 선택사항으로 제공되는 동영상에서는 실습에서 다룬 개념을 자세히 살펴보고 복습합니다. Google Cloud 필수 정보는 Google Cloud 학습자에게 추천되는 첫 번째 과정입니다. 클라우드에 대한 사전 지식이 거의 없거나 전혀 없더라도 첫 Google Cloud 프로젝트에 적용할 수 있는 실무 경험을 쌓을 수 있습니다. Cloud Shell 명령어 작성, 첫 번째 가상 머신 배포, Kubernetes Engine에서의 애플리케이션 실행, 부하 분산 등 Google Cloud 필수 정보에서는 플랫폼의 기본 기능을 소개합니다.