Gastón Echenique
회원 가입일: 2022
실버 리그
28571포인트
회원 가입일: 2022
생성형 AI 에이전트: 조직 혁신'은 Gen AI Leader 학습 과정의 다섯 번째이자 마지막 과정입니다. 이 과정에서는 조직이 어떻게 커스텀 생성형 AI 에이전트를 사용해 특정 비즈니스 과제를 해결할 수 있는지 살펴봅니다. 모델, 추론 루프, 도구와 같은 에이전트의 구성요소를 살펴보며 기본적인 생성형 AI 에이전트를 빌드하는 실무형 실습을 진행합니다.
'생성형 AI 앱: 업무 혁신'은 생성형 AI 리더 학습 과정의 네 번째 과정입니다. 이 과정에서는 Workspace를 위한 Gemini, NotebookLM 등 Google의 생성형 AI 애플리케이션을 소개합니다. 그라운딩, 검색 증강 생성, 효과적인 프롬프트 작성, 자동화된 워크플로 구축 등의 개념을 안내합니다.
'생성형 AI: 환경 살펴보기'는 생성형 AI 리더 학습 과정의 세 번째 과정입니다. 생성형 AI는 업무 방식을 비롯해 주변 세계와 상호작용하는 방식에 변화를 일으키고 있습니다. 리더로서 생성형 AI를 활용하여 실질적인 비즈니스 성과를 얻으려면 어떻게 해야 할까요? 이 과정에서는 생성형 AI 솔루션 빌드의 다양한 계층, Google Cloud 제품, 솔루션을 선택할 때 고려해야 할 요소를 살펴봅니다.
'생성형 AI: 기본 개념 이해'는 생성형 AI 리더 학습 과정의 두 번째 과정입니다. 이 과정에서는 생성형 AI의 기본 개념을 이해하기 위해 AI, ML, 생성형 AI의 차이점을 살펴보고 다양한 데이터 유형에서 생성형 AI로 어떻게 비즈니스 과제를 해결할 수 있는지 알아봅니다. 파운데이션 모델의 제한사항과 책임감 있고 안전한 AI 개발 및 배포의 주요 과제를 해결할 수 있도록 Google Cloud 전략에 관한 인사이트도 제공합니다.
'생성형 AI: 챗봇 그 이상의 가치'는 생성형 AI 리더 학습 과정의 첫 번째 과정이며 요구되는 기본 요건이 없습니다. 이 과정은 챗봇에 대한 기본적인 이해를 넘어 조직을 위한 생성형 AI의 진정한 잠재력을 살펴보는 것을 목표로 합니다. 생성형 AI의 강력한 기능을 활용하는 데 중요한 파운데이션 모델 및 프롬프트 엔지니어링과 같은 개념을 살펴봅니다. 또한 조직을 위한 성공적인 생성형 AI 전략을 개발할 때 고려해야 할 중요한 사항도 안내합니다.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
이 과정은 머신러닝 실무자에게 생성형 AI 모델과 예측형 AI 모델을 평가하는 데 필요한 도구, 기술, 권장사항을 제공합니다. 모델 평가는 프로덕션 단계의 ML 시스템이 안정적이고 정확하고 성능이 우수한 결과를 제공할 수 있게 하는 중요한 분야입니다. 강의 참가자는 다양한 평가 측정항목, 방법, 각각 다른 모델 유형과 작업에 적합한 애플리케이션에 대해 깊이 있게 이해할 수 있습니다. 이 과정에서는 생성형 AI 모델의 고유한 문제를 강조하고 이를 효과적으로 해결하기 위한 전략을 소개합니다. 강의 참가자는 Google Cloud의 Vertex AI Platform을 활용해 모델 선택, 최적화, 지속적인 모니터링을 위한 견고한 평가 프로세스를 구현하는 방법을 알아볼 수 있습니다.
이 과정에서는 생성형 AI 모델을 배포하고 관리할 때 MLOps팀이 직면하는 고유한 과제를 파악하는 데 필요한 지식과 도구를 제공하고 Vertex AI가 어떻게 AI팀이 MLOps 프로세스를 간소화하고 생성형 AI 프로젝트에서 성공을 거둘 수 있도록 지원하는지 살펴봅니다.
이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
이 과정은 데이터 준비부터 모델 배포와 모니터링까지 전체 머신러닝 워크플로를 위한 통합 플랫폼을 제공하는 Jupyter 노트북 기반 환경인 Vertex AI Notebooks를 소개합니다. 이 과정에서는 (1) 다양한 유형의 Vertex AI Notebooks와 그 특징, (2) Vertex AI Notebooks를 만들고 관리하는 방법을 다룹니다.
이 과정에서는 Google Cloud에서 프로덕션 ML 시스템을 배포, 평가, 모니터링, 운영하기 위한 MLOps 도구와 권장사항을 소개합니다. MLOps는 프로덕션에서 ML 시스템을 배포, 테스트, 모니터링, 자동화하는 방법론입니다. 학습자는 SDK 레이어에서 Vertex AI Feature Store의 스트리밍 수집을 사용하여 실습을 진행하게 됩니다.
이 과정에서는 생성형 AI 프로젝트와 예측형 AI 프로젝트를 모두 개발하는 데 중점을 두고 Google Cloud의 AI 및 머신러닝(ML) 기능을 소개합니다. 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 다양한 기술, 제품, 도구를 살펴보고, 데이터 과학자, AI 개발자, ML 엔지니어가 대화형 실습을 통해 전문성을 강화할 수 있도록 지원합니다.
이 과정은 학습자가 프로페셔널 머신러닝 엔지니어(PMLE) 자격증 시험을 준비하는 학습 계획을 수립하는 데 도움을 줍니다. 학습자는 시험에서 다루는 분야의 범위를 살펴보고 자신의 시험 준비 상태를 평가한 다음 개별 학습 계획을 세웁니다.
이 과정에서는 Google Cloud에서 프로덕션 ML 시스템 배포, 평가, 모니터링, 운영을 위한 MLOps 도구와 권장사항을 소개합니다. MLOps는 프로덕션에서 ML 시스템을 배포, 테스트, 모니터링, 자동화하는 방법론입니다. 머신러닝 엔지니어링 전문가들은 배포된 모델의 지속적인 개선과 평가를 위해 도구를 사용합니다. 이들이 협력하거나 때론 그 역할을 하는 데이터 과학자는 고성능 모델을 빠르고 정밀하게 배포할 수 있도록 모델을 개발합니다.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Google Kubernetes Engine 시작하기 과정에 오신 것을 환영합니다. 애플리케이션과 하드웨어 인프라 사이에 위치하는 소프트웨어 레이어인 Kubernetes에 관심이 있으시다면 잘 찾아오셨습니다. Google Kubernetes Engine을 사용하면 Kubernetes를 Google Cloud에서 관리형 서비스로 사용할 수 있습니다. 이 과정의 목표는 흔히 GKE로 불리는 Google Kubernetes Engine의 기본사항을 소개하고 Google Cloud에서 애플리케이션을 컨테이너화하고 실행하는 방법을 설명하는 것입니다. 이 과정에서는 먼저 Google Cloud에 대해 기본적인 사항을 소개한 후 이어서 컨테이너 및 Kubernetes, Kubernetes 아키텍처, Kubernetes 작업에 대해 간략히 설명합니다.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
이 과정에서는 스트리밍 데이터 파이프라인을 빌드할 때 직면하는 실제 과제를 해결하기 위해 실습을 진행합니다. Google Cloud 제품을 사용하여 지속적이고 무제한적인 데이터를 관리하는 데 중점을 둡니다.
중급 BigQuery로 데이터 웨어하우스 빌드 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요.
초급 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요.
데이터 레이크와 데이터 웨어하우스를 사용하는 기존 접근방식은 효과적일 수 있지만, 특히 대규모 엔터프라이즈 환경에서는 단점이 있습니다. 이 과정에서는 데이터 레이크하우스의 개념과 데이터 레이크하우스를 만드는 데 사용되는 Google Cloud 제품을 소개합니다. 레이크하우스 아키텍처는 개방형 표준 데이터 소스를 사용하며 데이터 레이크와 데이터 웨어하우스의 장점을 결합하여 많은 단점을 해결합니다.