Cloud TPU 과정에 오신 것을 환영합니다. 다양한 시나리오에서 TPU의 장단점을 살펴보고 여러 TPU 가속기를 비교하여 적합한 것을 선택하는 데 도움을 드리겠습니다. 이 과정을 통해 AI 모델의 성능과 효율성을 극대화하는 전략을 배우고 유연한 머신러닝 워크플로에 있어 GPU/TPU 상호 운용성이 얼마나 중요한지 이해하게 될 것입니다. 흥미로운 콘텐츠와 실용적인 데모를 통해 TPU를 효과적으로 활용하는 방법을 단계별로 안내해 드리겠습니다.
AI 하이퍼컴퓨터를 시작할 준비가 되셨나요? 이 과정에서는 AI 하이퍼컴퓨터를 쉽게 시작할 수 있도록 도와드립니다. AI 하이퍼컴퓨터에 대한 기본사항을 다루고 AI 하이퍼컴퓨터가 AI의 AI 워크로드 처리에 어떤 도움을 주는지 살펴봅니다. GPU, TPU, CPU 등 하이퍼컴퓨터 내부의 다양한 구성요소와 니즈에 맞는 적절한 배포 방식을 선택하는 방법을 알아봅니다.
AI를 뒷받침하는 강력한 하드웨어가 궁금하신가요? 이 모듈에서는 성능 최적화된 AI 컴퓨터를 분석하고 그 중요성을 알려드립니다. CPU, GPU, TPU가 어떻게 AI 태스크를 초고속으로 처리하는지, 각각의 고유한 특징은 무엇인지, 그리고 AI 소프트웨어에서 이를 최대한 활용하는 방법을 살펴보겠습니다. 이 과정을 마치면 AI 프로젝트에 적합한 GPU를 선택하는 방법을 정확히 알게 되어 AI 워크로드를 처리할 때 현명한 결정을 내릴 수 있게 됩니다.
'생성형 AI: 기본 개념 이해'는 생성형 AI 리더 학습 과정의 두 번째 과정입니다. 이 과정에서는 생성형 AI의 기본 개념을 이해하기 위해 AI, ML, 생성형 AI의 차이점을 살펴보고 다양한 데이터 유형에서 생성형 AI로 어떻게 비즈니스 과제를 해결할 수 있는지 알아봅니다. 파운데이션 모델의 제한사항과 책임감 있고 안전한 AI 개발 및 배포의 주요 과제를 해결할 수 있도록 Google Cloud 전략에 관한 인사이트도 제공합니다.
이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.