Palak Choudhary
회원 가입일: 2025
다이아몬드 리그
13992포인트
회원 가입일: 2025
AI 에이전트는 기존의 대규모 언어 모델(LLM)을 뛰어넘는 중대한 변화입니다. AI 에이전트는 단순히 텍스트 기반 솔루션을 생성하는 데 그치지 않고, 자율적으로 행동하여 솔루션을 실행할 수도 있습니다. 이 과정에서는 AI 에이전트에 대한 기본사항, LLM API와의 차이점, 실제로 AI 에이전트가 더하는 가치를 소개합니다. Google의 에이전트 백서를 바탕으로 한 이 과정은 에이전트 코드를 처음 작성하기 전에 필요한 이론적 토대를 제공하여 (단순한 텍스트 생성이 아닌) 자율적이고 목표 지향적인 행동의 관점에서 AI 시스템을 이해하고자 하는 개발자, 설계자, 기술 의사 결정권자에게 적합합니다. 커뮤니티 포럼에 참여하여 질문하고 토론하기
초급 Vertex AI의 프롬프트 설계 기술 배지를 완료하여 Vertex AI 내 프롬프트 엔지니어링, 이미지 분석, 멀티모달 생성형 기술과 관련된 기술 역량을 입증하세요. 효과적인 프롬프트를 만들고 생성형 AI 출력을 안내하며 실제 마케팅 분야 시나리오에 Gemini 모델을 적용하는 방법을 알아보세요.
'AI 인프라: 네트워킹 기술' 과정에 오신 것을 환영합니다. 이 과정에서는 Google Cloud의 지연 시간이 짧은 고대역폭 인프라를 활용하여 AI 시스템의 모든 구성요소 간 데이터 전송 및 통신을 최적화하는 방법을 배우게 됩니다. 이 과정을 마치면 데이터 수집 및 학습부터 추론에 이르기까지 전체 AI 파이프라인에서 네트워킹이 수행하는 중요한 역할을 이해하고, 워크로드를 최대 속도로 실행할 수 있는 최적의 방법을 적용할 수 있게 됩니다.
이 과정에서는 AI 및 고성능 컴퓨팅(HPC) 워크로드에 특화된 Google Cloud의 스토리지 솔루션에 대해 종합적으로 다룹니다. ML 수명 주기의 각 단계에 적절한 스토리지를 선택하는 방법을 알아봅니다. 학습 중 I/O 성능을 최적화하는 방법, 데이터 준비를 위해 대규모 데이터 세트를 관리하는 방법, 짧은 지연 시간으로 모델 아티팩트를 서빙하는 방법도 살펴봅니다. 실제 사례와 데모를 통해 AI 혁신을 가속화하는 견고한 스토리지 솔루션을 설계하는 데 필요한 전문성을 확보하게 됩니다.
This course provides a comprehensive guide to deploying, managing, and optimizing AI and high-performance computing (HPC) workloads on Google Cloud. Through a series of lessons and practical demonstrations, you’ll explore diverse deployment strategies, ranging from highly customizable environments using Google Compute Engine (GCE) to managed solutions like Google Kubernetes Engine (GKE). Specifically, you’ll learn how to create clusters and deploy GKE for inference.
Cloud TPU 과정에 오신 것을 환영합니다. 다양한 시나리오에서 TPU의 장단점을 살펴보고 여러 TPU 가속기를 비교하여 적합한 것을 선택하는 데 도움을 드리겠습니다. 이 과정을 통해 AI 모델의 성능과 효율성을 극대화하는 전략을 배우고 유연한 머신러닝 워크플로에 있어 GPU/TPU 상호 운용성이 얼마나 중요한지 이해하게 될 것입니다. 흥미로운 콘텐츠와 실용적인 데모를 통해 TPU를 효과적으로 활용하는 방법을 단계별로 안내해 드리겠습니다.
AI를 뒷받침하는 강력한 하드웨어가 궁금하신가요? 이 모듈에서는 성능 최적화된 AI 컴퓨터를 분석하고 그 중요성을 알려드립니다. CPU, GPU, TPU가 어떻게 AI 태스크를 초고속으로 처리하는지, 각각의 고유한 특징은 무엇인지, 그리고 AI 소프트웨어에서 이를 최대한 활용하는 방법을 살펴보겠습니다. 이 과정을 마치면 AI 프로젝트에 적합한 GPU를 선택하는 방법을 정확히 알게 되어 AI 워크로드를 처리할 때 현명한 결정을 내릴 수 있게 됩니다.
AI 하이퍼컴퓨터를 시작할 준비가 되셨나요? 이 과정에서는 AI 하이퍼컴퓨터를 쉽게 시작할 수 있도록 도와드립니다. AI 하이퍼컴퓨터에 대한 기본사항을 다루고 AI 하이퍼컴퓨터가 AI의 AI 워크로드 처리에 어떤 도움을 주는지 살펴봅니다. GPU, TPU, CPU 등 하이퍼컴퓨터 내부의 다양한 구성요소와 니즈에 맞는 적절한 배포 방식을 선택하는 방법을 알아봅니다.
Transform your understanding of customer service with this course on the Customer Engagement Suite (CES) and its powerful generative AI capabilities. You'll start by tracing the journey of contact centers, understanding how they've evolved and where gen AI is propelling them next. Then, you'll gain a deep understanding of the core building blocks within the CES solution, seeing how each component contributes to delivering exceptional customer experiences. The course concludes by exploring the robust business case for CES, along with practical use cases and the various user personas that benefit from this innovative solution.
Unleash Team Potential: Assess Learning Needs Using GenAI offers practical guidance on using generative AI to perform skill assessment and career development recommendations, thus empowering leaders to elevate team performance, foster talent growth, and bridge skill gaps to achieve success.
Unlock the power of generative AI to create intelligent, automated agents. After completing this course, you'll be equipped to develop a data store agent that can instantly answer complex questions by automatically extracting and synthesizing information from your websites, documents, or structured data. Say goodbye to static FAQs—your new agent will provide dynamic, accurate answers and even surface the original source URLs, all with a simple and rapid setup.
인공지능(AI)은 혁신적인 가능성을 제공하지만 새로운 보안 문제의 원인이 되기도 합니다. 이 과정에서는 보안 및 데이터 보호 리더가 조직 내에서 AI를 안전하게 관리하는 데 필요한 전략을 살펴봅니다. AI 관련 위험을 사전에 식별 및 완화하고, 민감한 정보를 보호하며, 규정을 준수하고, 복원력 높은 AI 인프라를 빌드하는 프레임워크를 학습합니다. 이러한 전략이 실제 시나리오에서 어떻게 적용되는지 살펴보기 위해 4가지 산업별 사례를 선별했습니다.
This video covers how to build a personalized "Work with Me" agent using Gemini Gems, which helps streamline foundational feedback and makes your meetings more strategic and efficient.
이 과정은 머신러닝 실무자에게 생성형 AI 모델과 예측형 AI 모델을 평가하는 데 필요한 도구, 기술, 권장사항을 제공합니다. 모델 평가는 프로덕션 단계의 ML 시스템이 안정적이고 정확하고 성능이 우수한 결과를 제공할 수 있게 하는 중요한 분야입니다. 강의 참가자는 다양한 평가 측정항목, 방법, 각각 다른 모델 유형과 작업에 적합한 애플리케이션에 대해 깊이 있게 이해할 수 있습니다. 이 과정에서는 생성형 AI 모델의 고유한 문제를 강조하고 이를 효과적으로 해결하기 위한 전략을 소개합니다. 강의 참가자는 Google Cloud의 Vertex AI Platform을 활용해 모델 선택, 최적화, 지속적인 모니터링을 위한 견고한 평가 프로세스를 구현하는 방법을 알아볼 수 있습니다.
이 과정에서는 생성형 AI 모델을 배포하고 관리할 때 MLOps팀이 직면하는 고유한 과제를 파악하는 데 필요한 지식과 도구를 제공하고 Vertex AI가 어떻게 AI팀이 MLOps 프로세스를 간소화하고 생성형 AI 프로젝트에서 성공을 거둘 수 있도록 지원하는지 살펴봅니다.
이 과정에서는 특별히 의료 전문가를 대상으로 최신 인공지능 혁신 기술인 생성형 AI와 이를 구동하는 대규모 언어 모델(LLM)을 자세히 설명합니다. 실제 의료 서비스 환경에서 생성형 AI를 활용하는 방법을 알아보고 목표에 맞게 효과적인 프롬프트를 작성하는 방법을 익히세요.
생성형 AI 에이전트: 조직 혁신'은 Gen AI Leader 학습 과정의 다섯 번째이자 마지막 과정입니다. 이 과정에서는 조직이 어떻게 커스텀 생성형 AI 에이전트를 사용해 특정 비즈니스 과제를 해결할 수 있는지 살펴봅니다. 모델, 추론 루프, 도구와 같은 에이전트의 구성요소를 살펴보며 기본적인 생성형 AI 에이전트를 빌드하는 실무형 실습을 진행합니다.
'생성형 AI 앱: 업무 혁신'은 생성형 AI 리더 학습 과정의 네 번째 과정입니다. 이 과정에서는 Workspace를 위한 Gemini, NotebookLM 등 Google의 생성형 AI 애플리케이션을 소개합니다. 그라운딩, 검색 증강 생성, 효과적인 프롬프트 작성, 자동화된 워크플로 구축 등의 개념을 안내합니다.
'생성형 AI: 환경 살펴보기'는 생성형 AI 리더 학습 과정의 세 번째 과정입니다. 생성형 AI는 업무 방식을 비롯해 주변 세계와 상호작용하는 방식에 변화를 일으키고 있습니다. 리더로서 생성형 AI를 활용하여 실질적인 비즈니스 성과를 얻으려면 어떻게 해야 할까요? 이 과정에서는 생성형 AI 솔루션 빌드의 다양한 계층, Google Cloud 제품, 솔루션을 선택할 때 고려해야 할 요소를 살펴봅니다.
'생성형 AI: 기본 개념 이해'는 생성형 AI 리더 학습 과정의 두 번째 과정입니다. 이 과정에서는 생성형 AI의 기본 개념을 이해하기 위해 AI, ML, 생성형 AI의 차이점을 살펴보고 다양한 데이터 유형에서 생성형 AI로 어떻게 비즈니스 과제를 해결할 수 있는지 알아봅니다. 파운데이션 모델의 제한사항과 책임감 있고 안전한 AI 개발 및 배포의 주요 과제를 해결할 수 있도록 Google Cloud 전략에 관한 인사이트도 제공합니다.
'생성형 AI: 챗봇 그 이상의 가치'는 생성형 AI 리더 학습 과정의 첫 번째 과정이며 요구되는 기본 요건이 없습니다. 이 과정은 챗봇에 대한 기본적인 이해를 넘어 조직을 위한 생성형 AI의 진정한 잠재력을 살펴보는 것을 목표로 합니다. 생성형 AI의 강력한 기능을 활용하는 데 중요한 파운데이션 모델 및 프롬프트 엔지니어링과 같은 개념을 살펴봅니다. 또한 조직을 위한 성공적인 생성형 AI 전략을 개발할 때 고려해야 할 중요한 사항도 안내합니다.
이 과정에서는 Google Cloud의 생성형 AI 기반 파트너인 Gemini가 Google 제품 및 서비스를 사용해 애플리케이션을 개발, 테스트, 배포, 관리하는 데 어떤 도움이 되는지 알아봅니다. Gemini의 도움을 받아 웹 애플리케이션을 개발 및 빌드하고, 애플리케이션의 오류를 수정하고, 테스트를 개발하고, 데이터를 쿼리하는 방법을 배웁니다. 실무형 실습을 통해 Gemini로 소프트웨어 개발 수명 주기(SDLC)가 얼마나 개선되는지 경험할 수 있습니다. Duet AI의 이름이 Google의 차세대 모델인 Gemini로 변경되었습니다.
기업에서 인공지능과 머신러닝의 사용이 계속 증가함에 따라 책임감 있는 빌드의 중요성도 커지고 있습니다. 대부분의 기업은 책임감 있는 AI를 실천하기가 말처럼 쉽지 않습니다. 조직에서 책임감 있는 AI를 운영하는 방법에 관심이 있다면 이 과정이 도움이 될 것입니다. 이 과정에서 책임감 있는 AI를 위해 현재 Google Cloud가 기울이고 있는 노력, 권장사항, Google Cloud가 얻은 교훈을 알아보면 책임감 있는 AI 접근 방식을 구축하기 위한 프레임워크를 수립할 수 있을 것입니다.
책임감 있는 AI란 무엇이고 이것이 왜 중요하며 Google에서는 어떻게 제품에 책임감 있는 AI를 구현하고 있는지 설명하는 입문용 마이크로 학습 과정입니다. Google의 7가지 AI 원칙도 소개합니다.
이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.