Khelan Desai
회원 가입일: 2025
다이아몬드 리그
5609포인트
회원 가입일: 2025
생성형 AI로 사용자에게 더 나은 검색 경험을 제공하여 웹사이트의 탐색 경험을 향상합니다. 이 과정에서는 사용자가 웹사이트의 콘텐츠를 발견할 수 있도록 Vertex AI Search를 통해 생성형 검색 경험을 웹사이트 사용자에게 제공하는 방법을 알아봅니다. 웹사이트 편집자는 생성형 AI를 사용하여 제안을 통해 콘텐츠를 신속하고 효율적으로 번역하고 개선하는 방법을 배울 수 있습니다.
생성형 AI 애플리케이션은 대규모 언어 모델(LLM)이 발명되기 전에는 불가능에 가까웠던 새로운 사용자 경험을 만들 수 있습니다. 어떻게 하면 애플리케이션 개발자가 생성형 AI를 사용해 Google Cloud에서 강력한 대화형 앱을 빌드할 수 있을까요? 이 과정에서는 생성형 AI 애플리케이션에 대해 알아보고 프롬프트 설계 및 검색 증강 생성(RAG)을 사용해 LLM 기반의 강력한 애플리케이션을 빌드하는 방법을 학습합니다. 생성형 AI 애플리케이션에 사용할 수 있는 프로덕션 레디 아키텍처를 살펴보고 LLM 및 RAG 기반 채팅 애플리케이션을 빌드합니다.
이 과정에서는 Google Cloud의 생성형 AI 기반 파트너인 Gemini가 Google 제품 및 서비스를 사용해 애플리케이션을 개발, 테스트, 배포, 관리하는 데 어떤 도움이 되는지 알아봅니다. Gemini의 도움을 받아 웹 애플리케이션을 개발 및 빌드하고, 애플리케이션의 오류를 수정하고, 테스트를 개발하고, 데이터를 쿼리하는 방법을 배웁니다. 실무형 실습을 통해 Gemini로 소프트웨어 개발 수명 주기(SDLC)가 얼마나 개선되는지 경험할 수 있습니다. Duet AI의 이름이 Google의 차세대 모델인 Gemini로 변경되었습니다.
이 과정에서는 Google Cloud의 생성형 AI 기반 공동작업 도구인 Gemini가 개발자의 애플리케이션 빌드에 어떤 도움이 되는지 알아봅니다. Gemini에 프롬프트를 입력하여 코드에 대한 설명을 얻고 Google Cloud 서비스를 추천받고 애플리케이션의 코드를 생성하는 방법을 배울 수 있습니다. 실무형 실습을 통해 Gemini로 애플리케이션 개발 워크플로가 얼마나 개선되는지 경험할 수 있습니다. Duet AI의 이름이 Google의 차세대 모델인 Gemini로 변경되었습니다.
'AI 인프라: 네트워킹 기술' 과정에 오신 것을 환영합니다. 이 과정에서는 Google Cloud의 지연 시간이 짧은 고대역폭 인프라를 활용하여 AI 시스템의 모든 구성요소 간 데이터 전송 및 통신을 최적화하는 방법을 배우게 됩니다. 이 과정을 마치면 데이터 수집 및 학습부터 추론에 이르기까지 전체 AI 파이프라인에서 네트워킹이 수행하는 중요한 역할을 이해하고, 워크로드를 최대 속도로 실행할 수 있는 최적의 방법을 적용할 수 있게 됩니다.
이 과정에서는 AI 및 고성능 컴퓨팅(HPC) 워크로드에 특화된 Google Cloud의 스토리지 솔루션에 대해 종합적으로 다룹니다. ML 수명 주기의 각 단계에 적절한 스토리지를 선택하는 방법을 알아봅니다. 학습 중 I/O 성능을 최적화하는 방법, 데이터 준비를 위해 대규모 데이터 세트를 관리하는 방법, 짧은 지연 시간으로 모델 아티팩트를 서빙하는 방법도 살펴봅니다. 실제 사례와 데모를 통해 AI 혁신을 가속화하는 견고한 스토리지 솔루션을 설계하는 데 필요한 전문성을 확보하게 됩니다.
This course provides a comprehensive guide to deploying, managing, and optimizing AI and high-performance computing (HPC) workloads on Google Cloud. Through a series of lessons and practical demonstrations, you’ll explore diverse deployment strategies, ranging from highly customizable environments using Google Compute Engine (GCE) to managed solutions like Google Kubernetes Engine (GKE). Specifically, you’ll learn how to create clusters and deploy GKE for inference.
Cloud TPU 과정에 오신 것을 환영합니다. 다양한 시나리오에서 TPU의 장단점을 살펴보고 여러 TPU 가속기를 비교하여 적합한 것을 선택하는 데 도움을 드리겠습니다. 이 과정을 통해 AI 모델의 성능과 효율성을 극대화하는 전략을 배우고 유연한 머신러닝 워크플로에 있어 GPU/TPU 상호 운용성이 얼마나 중요한지 이해하게 될 것입니다. 흥미로운 콘텐츠와 실용적인 데모를 통해 TPU를 효과적으로 활용하는 방법을 단계별로 안내해 드리겠습니다.
AI를 뒷받침하는 강력한 하드웨어가 궁금하신가요? 이 모듈에서는 성능 최적화된 AI 컴퓨터를 분석하고 그 중요성을 알려드립니다. CPU, GPU, TPU가 어떻게 AI 태스크를 초고속으로 처리하는지, 각각의 고유한 특징은 무엇인지, 그리고 AI 소프트웨어에서 이를 최대한 활용하는 방법을 살펴보겠습니다. 이 과정을 마치면 AI 프로젝트에 적합한 GPU를 선택하는 방법을 정확히 알게 되어 AI 워크로드를 처리할 때 현명한 결정을 내릴 수 있게 됩니다.
AI 하이퍼컴퓨터를 시작할 준비가 되셨나요? 이 과정에서는 AI 하이퍼컴퓨터를 쉽게 시작할 수 있도록 도와드립니다. AI 하이퍼컴퓨터에 대한 기본사항을 다루고 AI 하이퍼컴퓨터가 AI의 AI 워크로드 처리에 어떤 도움을 주는지 살펴봅니다. GPU, TPU, CPU 등 하이퍼컴퓨터 내부의 다양한 구성요소와 니즈에 맞는 적절한 배포 방식을 선택하는 방법을 알아봅니다.
이 과정에서는 Vertex AI Agent Builder, Gemini Enterprise, 대화형 에이전트, 에이전트 개발 키트를 포함해 Google Cloud의 에이전트 플랫폼에 대한 포괄적인 개요를 제공합니다. 학습자는 각 제품의 고유한 기능을 이해하고, 특정 사용 사례에 가장 적합한 솔루션을 구별하며, 검색 및 채팅 애플리케이션 제작에 필요한 기초 지식을 습득하게 됩니다.
이 과정에서는 생성형 AI 모델과 상호작용하고 비즈니스 아이디어의 프로토타입을 제작하여 프로덕션으로 출시할 수 있는 도구인 Vertex AI Studio를 소개합니다. 몰입감 있는 사용 사례, 흥미로운 강의, 실무형 실습을 통해 프롬프트부터 프로덕션에 이르는 수명 주기를 살펴보고 Vertex AI Studio를 Gemini 멀티모달 애플리케이션, 프롬프트 설계, 프롬프트 엔지니어링, 모델 조정에 활용하는 방법을 알아봅니다. 이 과정의 목표는 Vertex AI Studio로 프로젝트에서 생성형 AI의 잠재력을 활용하는 것입니다.