anshuman kumar
회원 가입일: 2023
실버 리그
2248포인트
회원 가입일: 2023
AI를 뒷받침하는 강력한 하드웨어가 궁금하신가요? 이 모듈에서는 성능 최적화된 AI 컴퓨터를 분석하고 그 중요성을 알려드립니다. CPU, GPU, TPU가 어떻게 AI 태스크를 초고속으로 처리하는지, 각각의 고유한 특징은 무엇인지, 그리고 AI 소프트웨어에서 이를 최대한 활용하는 방법을 살펴보겠습니다. 이 과정을 마치면 AI 프로젝트에 적합한 GPU를 선택하는 방법을 정확히 알게 되어 AI 워크로드를 처리할 때 현명한 결정을 내릴 수 있게 됩니다.
AI 하이퍼컴퓨터를 시작할 준비가 되셨나요? 이 과정에서는 AI 하이퍼컴퓨터를 쉽게 시작할 수 있도록 도와드립니다. AI 하이퍼컴퓨터에 대한 기본사항을 다루고 AI 하이퍼컴퓨터가 AI의 AI 워크로드 처리에 어떤 도움을 주는지 살펴봅니다. GPU, TPU, CPU 등 하이퍼컴퓨터 내부의 다양한 구성요소와 니즈에 맞는 적절한 배포 방식을 선택하는 방법을 알아봅니다.
이 과정에서는 Google Cloud의 생성형 AI 기반 도우미인 Gemini가 관리자의 인프라 프로비저닝을 어떻게 도와주는지 알아봅니다. 인프라에 관해 설명하고, GKE 클러스터를 배포하고, 기존 인프라를 업데이트하도록 Gemini에 프롬프트를 입력하는 방법을 배울 수 있습니다. 또한 실무형 실습을 통해 Gemini가 GKE 배포 워크플로를 어떻게 개선하는지 경험할 수 있습니다. Duet AI의 이름이 Google의 차세대 모델인 Gemini로 변경되었습니다.
이 과정에서는 Google의 이식 가능한 UI 툴킷인 Flutter를 사용하여 앱을 개발하고, 앱에 Google의 생성형 AI 모델 제품군인 Gemini를 통합하는 방법을 알아봅니다. AI 에이전트와 애플리케이션을 빌드하고 관리할 수 있는 Google 플랫폼인 Vertex AI Agent Builder도 사용해 봅니다.
이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.