The AI Infra Enablement Series, is designed for expert AI Infra CE, FSA, and GCC professionals. It aims to provide deep technical content, architecting experience, and hands-on opportunities in building end-to-end solutions. The series will cover key areas such as Customer Stories, Accelerator Orchestration, TPU/GPU, AI Infra Storage, and AI Infra Observability. Participants will gain insights into troubleshooting, customer use cases, decision frameworks, and roadmap impacts for current and future deliveries in AI infrastructure. The goal is to equip attendees with the knowledge and skills to effectively develop customer solutions and navigate the fast-moving product portfolio in AI. You can find all of our courses and technical learning packs on go/trainingcatalog. Brought to you by the GCC Tech Enablement Team (gcc-enablement@). Share your request/feedback on go/learningpacks-feedback! When you complete this course, you can earn the badge displayed here! View all the badges yo…
This course provides an overview of Google's AI infrastructure offerings, distinguishing between Google-managed (Vertex AI, Cloud Run) and self-managed (GKE, GCE) solutions. It discusses various GPU/TPU consumption models like DWS, Spot, and Reservations, and highlights key differentiators of GKE for AI workloads, including Cluster Director, AI Inference Gateway, and Custom Compute Classes. It also touches upon identifying customer personas and use cases for each product. Learning Objectives Articulate the fundamental technical concepts underpinning modern cloud infrastructure and AI workloads. Differentiate between various cloud runtimes beyond Kubernetes, and explain their respective strengths and use cases. Identify and describe the capabilities of Google Compute Engine (GCE) resources, specifically TPUs and GPUs, for accelerating computational tasks. Design and propose practical AI infrastructure solutions, including inference workloads, supported by relevant use cases and imple…
Welcome to the "AI Infrastructure: Networking Techniques" course. In this course, you'll learn to leverage Google Cloud's high-bandwidth, low-latency infrastructure to optimize data transfer and communication between all the components of your AI system. By the end, you'll grasp the critical role networking plays across the entire AI pipeline from data ingestion and training to inference and be able to apply best practices to ensure your workloads run at maximum speed.
이 과정에서는 AI 및 고성능 컴퓨팅(HPC) 워크로드에 특화된 Google Cloud의 스토리지 솔루션에 대해 종합적으로 다룹니다. ML 수명 주기의 각 단계에 적절한 스토리지를 선택하는 방법을 알아봅니다. 학습 중 I/O 성능을 최적화하는 방법, 데이터 준비를 위해 대규모 데이터 세트를 관리하는 방법, 짧은 지연 시간으로 모델 아티팩트를 서빙하는 방법도 살펴봅니다. 실제 사례와 데모를 통해 AI 혁신을 가속화하는 견고한 스토리지 솔루션을 설계하는 데 필요한 전문성을 확보하게 됩니다.
This course provides a comprehensive guide to deploying, managing, and optimizing AI and high-performance computing (HPC) workloads on Google Cloud. Through a series of lessons and practical demonstrations, you’ll explore diverse deployment strategies, ranging from highly customizable environments using Google Compute Engine (GCE) to managed solutions like Google Kubernetes Engine (GKE). Specifically, you’ll learn how to create clusters and deploy GKE for inference.
This course is for developers interested in learning how to use TPUs for inference—from architecture to deployment, and how to solve common implementation challenges.
This course is designed for developers looking to build an optimized AI inference stack on Google Cloud. Whether you’re working with GPUs or TPUs, you’ll explore the fundamental components of an inference stack, learn design principles for maximizing performance and reliability, and explore practical techniques to take your workloads from 0 to 1.
In this challenge lab, you will demonstrate your ability to author agents using Agent Development Kit (ADK), deploy those agents to Agent Engine, and use them from a web app. Complete the challenge lab to earn a Google Cloud skill badge.
This lab tests your ability to develop a real-world Generative AI Q&A solution using a RAG framework. You will use Firestore as a vector database and deploy a Flask app as a user interface to query a food safety knowledge base.
Complete the Edit images with Imagen skill badge to demonstrate your skills with Imagen's mask modes and editing modes to edit images according to certain prompts. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
In this skill bagde, you will demonstrate your ability to use and compare models available in the Vertex AI Model Garden. You'll deploy a model to a Vertex AI Endpoint, query other models via their API, and use Vertex AI's Gen AI evaluation service to measure the performance of multiple models.
Complete the Extend Gemini with controlled generation and Tool use skill badge to demonstrate your proficiency in connecting models to external tools and APIs. This allows models to augment their knowledge, extend their capabilities and interact with external systems to take actions such as sending an email. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!"
Learn how to create Hybrid Search applications using Vertex AI Vertex Search to combine semantic searching with keyword search to return results based on both semantic meaning and keyword matching.
Learn how to build your own Retrieval-Augmented Generation (RAG) solutions for greater control and flexibility than out-of-the-box implementations. Create a custom RAG solution using Vertex AI APIs, vector stores, and the LangChain framework.
이 과정에서는 AI 할루시네이션을 완화하는 BigQuery의 검색 증강 생성(RAG) 솔루션을 살펴봅니다. 임베딩 만들기, 벡터 공간 검색, 개선된 응답 생성을 포함한 RAG 워크플로를 소개합니다. 또한 이 과정은 이러한 단계의 배경이 되는 개념을 설명하고 BigQuery를 통한 실질적인 구현 과정을 살펴봅니다. 이 과정을 마친 학습자는 BigQuery와 Gemini 및 임베딩 모델 같은 생성형 AI 모델을 사용하여 자신의 AI 할루시네이션 사용 사례를 해결하는 RAG 파이프라인을 빌드할 수 있게 됩니다.
Explore a variety of techniques for using Gemini to understand image, audio, video, and live-streaming media. You will discover how meaningful information can be extracted from each of these forms of media to use in media-rich applications.
This course dives into the world of media creation in Vertex AI using Nano Banana and Veo. Learn to design text and image-based prompts to produce high-quality, consistent images, and captivating, cinematic video clips. You'll also learn to refine generated assets using core editing functions. Finally, this course guides you through multi-tool workflow implementations for creative control and consistency, empowering you to transform images into video clips and leverage Gemini for prompt writing assistance and feedback.
With this course you will learn how to use different techniques to fine-tune Gemini. Model tuning is an effective way to customize large models like Gemini for your specific tasks. It's a key step to improve the model's quality and efficiency. This course will give an overview of model tuning, describe the tuning options available for Gemini, help you determine when each tuning option should be used and how to perform tuning.
Model Garden is a model library that helps you discover, test, and deploy models from Google and Google partners. Learn how to explore the available models and select the right ones for your use case. And how to deploy and interact with Model Garden models through the Google Cloud console and APIs.
An LLM-based application can process language in a way that resembles thought. But if you want to extend its capabilities to take actions by running other functions you have coded, you will need to use function calling. This can also be referred to as tool use. Additionally, you can give a model the ability to search Google or search a data store of documents to ground its responses. In other words, to base its answers on that information. In this course, you’ll explore these concepts.
Learn a variety of strategies and techniques to engineer effective prompts for generative models
Learn how to leverage Gemini multimodal capabilities to process and generate text, images, and audio and to integrate Gemini through APIs to perform tasks such as content creation and summarization.
Become an AI/ML Expert and Trusted Customer Advisor Are you a technical Cloud Googler ready to elevate your AI/ML expertise and become a go-to resource for customers? This on-demand learning pack captures the essence of the acclaimed AI/ML SME Academy, delivering advanced knowledge and practical insights to empower you in the dynamic world of artificial intelligence and machine learning. The typical participant is comfortable with AI/ML fundamentals and is looking to exercise and advance their knowledge to the next level. Topics covered in this academy AI Infrastructure - Platform overviews of TPU and GPU architectures, cluster provisioning and management, scaling training workloads using various technologies, and deploying ML models for inference at scale with different optimization techniques and frameworks. Agents - Connector architecture, custom connector development, indexing and search architectures, agentic architectures, communication patterns, agent lifecycle management, a…
Cloud TPU 과정에 오신 것을 환영합니다. 다양한 시나리오에서 TPU의 장단점을 살펴보고 여러 TPU 가속기를 비교하여 적합한 것을 선택하는 데 도움을 드리겠습니다. 이 과정을 통해 AI 모델의 성능과 효율성을 극대화하는 전략을 배우고 유연한 머신러닝 워크플로에 있어 GPU/TPU 상호 운용성이 얼마나 중요한지 이해하게 될 것입니다. 흥미로운 콘텐츠와 실용적인 데모를 통해 TPU를 효과적으로 활용하는 방법을 단계별로 안내해 드리겠습니다.
AI를 뒷받침하는 강력한 하드웨어가 궁금하신가요? 이 모듈에서는 성능 최적화된 AI 컴퓨터를 분석하고 그 중요성을 알려드립니다. CPU, GPU, TPU가 어떻게 AI 태스크를 초고속으로 처리하는지, 각각의 고유한 특징은 무엇인지, 그리고 AI 소프트웨어에서 이를 최대한 활용하는 방법을 살펴보겠습니다. 이 과정을 마치면 AI 프로젝트에 적합한 GPU를 선택하는 방법을 정확히 알게 되어 AI 워크로드를 처리할 때 현명한 결정을 내릴 수 있게 됩니다.
AI 하이퍼컴퓨터를 시작할 준비가 되셨나요? 이 과정에서는 AI 하이퍼컴퓨터를 쉽게 시작할 수 있도록 도와드립니다. AI 하이퍼컴퓨터에 대한 기본사항을 다루고 AI 하이퍼컴퓨터가 AI의 AI 워크로드 처리에 어떤 도움을 주는지 살펴봅니다. GPU, TPU, CPU 등 하이퍼컴퓨터 내부의 다양한 구성요소와 니즈에 맞는 적절한 배포 방식을 선택하는 방법을 알아봅니다.
Complete the Extend Gemini Enterprise Assistant Capabilities skill badge to demonstrate your ability to extend Gemini Enterprise assistant's capabilities with actions, grounding with Google Search, and a conversational agent. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Complete the Create media search and media recommendations applications with AI Applications skill badge to demonstrate your ability to create, configure, and access media search and recommendations applications using AI Applications. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Complete the Configure AI Applications to optimize search results skill badge to demonstrate your proficiency in configuring search results from AI Applications. You will be tasked with implementing search serving controls to boost and bury results, filter entries from search results and display metadata in your search interface. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Complete the Create and maintain Vertex AI Search data stores skill badge to demonstrate your proficiency in building various types of data stores used in Vertex AI Search applications. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Data stores represent a simple way to make content available to many types of generative AI applications, including search applications, recommendations engines, Gemini Enterprise apps, Agent Development Kit agents, and apps built with Google Gen AI or LangChain SDKs. Connect data from many sources include Cloud Storage, Google Drive, chat apps, mail apps, ticketing systems, third-party file storage providers, Salesforce, and many more.
Do you want to keep your users engaged by suggesting content they'll love? This course equips you with the skills to build a cutting-edge recommendations app using your own data with no prior machine learning knowledge. You learn to leverage AI Applications to build recommendation applications so that audiences can discover more personalized content, like what to watch or read next, with Google-quality results customized using optimization objectives.
NotebookLM is an AI-powered collaborator that helps you do your best thinking. After uploading your documents, NotebookLM becomes an instant expert in those sources so you can read, take notes, and collaborate with it to refine and organize your ideas. NotebookLM Pro gives you everything already included with NotebookLM, as well as higher utilization limits, access to premium features, and additional sharing options and analytics.
If you've worked with data, you know that some data is more reliable than other data. In this course, you'll learn a variety of techniques to present the most reliable or useful results to your users. Create serving controls to boost or bury search results. Rank search results to ensure that each query is answered by the most relevant data. If needed, tune your search engine. Learn to measure search results to ensure your search applications deliver the best possible results to each user. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
AI Applications provides built-in analytics for your Vertex AI Search and Gemini Enterprise apps. Learn what metrics are tracked and how to view them in this course. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
Initial deployment of Vertex AI Search and Gemini Enterprise apps takes only a few clicks, but getting the configurations right can elevate a deployment from a basic off-the-shelf app to an excellent custom search or recommendations experience. In this course, you'll learn more about the many ways you can customize and improve search, recommendations, and Gemini Enterprise apps. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
Complete the Build search and recommendations AI Applications skill badge to demonstrate your proficiency in deploying search and recommendation applications through AI Applications. Additionally, emphasis is placed on constructing a tailored Q&A system utilizing data stores. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
This course introduces AI Applications. You will learn about the types of apps that you can create using AI Applications, the high-level steps that its data stores automate for you, and what advanced features can be enabled for Search apps. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
이 과정에서는 Google Cloud에서 Terraform을 사용하는 방법을 소개합니다. 학습자는 Terraform을 사용하여 코드형 인프라를 구현하는 방법을 설명하고, Terraform의 주요 특징과 기능을 적용하여 Google Cloud 인프라를 생성하고 관리할 수 있게 됩니다. 또한 Terraform을 사용하여 Google Cloud 리소스를 빌드하고 관리하는 실무형 실습도 진행합니다.
직원들이 검색창 하나로 문서 스토리지, 이메일, 채팅, 티켓 시스템, 기타 데이터 소스에서 특정 정보를 찾을 수 있도록 설계된 강력한 도구인 Gemini Enterprise에는 Google의 전문적인 검색 및 AI 기술이 통합되어 있습니다. 또한 Gemini Enterprise 어시스턴트를 사용하면 브레인스토밍 및 조사는 물론 문서 개요를 작성하고 캘린더 일정에 동료를 초대하는 등의 작업에 도움이 되므로 직원들이 지식 관련 작업과 모든 종류의 협업을 빠르게 진행할 수 있습니다. (Gemini Enterprise의 이전 명칭은 Google Agentspace였으며, 이 과정에서 이전 제품 이름이 언급될 수 있습니다.)
이 과정에서는 Google Cloud의 생성형 AI 기반 도우미인 Gemini가 관리자의 인프라 프로비저닝을 어떻게 도와주는지 알아봅니다. 인프라에 관해 설명하고, GKE 클러스터를 배포하고, 기존 인프라를 업데이트하도록 Gemini에 프롬프트를 입력하는 방법을 배울 수 있습니다. 또한 실무형 실습을 통해 Gemini가 GKE 배포 워크플로를 어떻게 개선하는지 경험할 수 있습니다. Duet AI의 이름이 Google의 차세대 모델인 Gemini로 변경되었습니다.
이 과정에서는 엔지니어가 Google Cloud의 생성형 AI 기반 파트너인 Gemini의 도움을 받아 인프라를 관리하는 방법을 알아봅니다. 애플리케이션 로그를 찾고 이해하며, GKE 클러스터를 생성하고, 빌드 환경을 만드는 방법을 조사하도록 Gemini에 프롬프트를 입력하는 방법을 배울 수 있습니다. 실무형 실습을 통해 Gemini로 DevOps 워크플로가 얼마나 개선되는지 경험할 수 있습니다. Duet AI의 이름이 Google의 차세대 모델인 Gemini로 변경되었습니다.
Artificial Intelligence (AI) offers transformative possibilities, but it also introduces new security challenges. This course equips security and data protection leaders with strategies to securely manage AI within their organizations. Learn a framework for proactively identifying and mitigating AI-specific risks, protecting sensitive data, ensuring compliance, and building a resilient AI infrastructure. Pick use cases from four different industries to explore how these strategies apply in real-world scenarios.
This is an opportunity for Technical Cloud Googlers to enhance their TPU/GPU skills and knowledge through a deep dive program covering the following focus areas/ individual tracks: TPU/GPU Networking GKE Expertise Slurm Expertise TPU/GPU Storage Best Practices Common transformer/LLM frameworks (Huggingface/triton/etc) Monitoring and logging for TPU/GPU
이 과정에서는 AI 개인 정보 보호 및 안전에 관한 중요한 주제를 소개합니다. Google Cloud 제품과 오픈소스 도구를 사용하여 AI 개인 정보 보호 및 안전 권장사항을 구현하는 실용적인 방법과 도구를 살펴봅니다.
이 과정에서는 AI 해석 가능성과 투명성의 개념을 소개합니다. 개발자와 엔지니어에게 AI 투명성이 얼마나 중요한지를 설명합니다. 데이터와 AI 모델 모두에서 해석 가능성과 투명성을 구현하는 데 도움이 되는 실용적인 방법과 도구를 살펴봅니다.
이 과정에서는 책임감 있는 AI라는 개념과 AI 원칙을 소개합니다. 공정성과 편향을 실질적으로 식별하고 AI/ML 실무에서 편향을 완화하는 기법을 알아봅니다. Google Cloud 제품과 오픈소스 도구를 사용하여 책임감 있는 AI 권장사항을 구현하는 실용적인 방법과 도구를 살펴봅니다.
생성형 AI 애플리케이션은 대규모 언어 모델(LLM)이 발명되기 전에는 불가능에 가까웠던 새로운 사용자 경험을 만들 수 있습니다. 어떻게 하면 애플리케이션 개발자가 생성형 AI를 사용해 Google Cloud에서 강력한 대화형 앱을 빌드할 수 있을까요? 이 과정에서는 생성형 AI 애플리케이션에 대해 알아보고 프롬프트 설계 및 검색 증강 생성(RAG)을 사용해 LLM 기반의 강력한 애플리케이션을 빌드하는 방법을 학습합니다. 생성형 AI 애플리케이션에 사용할 수 있는 프로덕션 레디 아키텍처를 살펴보고 LLM 및 RAG 기반 채팅 애플리케이션을 빌드합니다.
이 과정에서는 Google Cloud에서 최신 ML 파이프라인 개발을 담당하는 ML 엔지니어와 트레이너로부터 유익한 지식을 배웁니다. 초반에 진행되는 몇 개 모듈에서는 Google의 TensorFlow 기반 프로덕션 머신러닝 플랫폼으로서 ML 파이프라인과 메타데이터를 관리할 수 있는 TensorFlow Extended(TFX)에 대해 다룹니다. 파이프라인 구성요소와 TFX를 사용한 파이프라인 조정을 알아봅니다. 지속적 통합과 지속적 배포를 통해 파이프라인을 자동화하는 방법과 ML 메타데이터를 관리하는 방법도 배웁니다. 그런 다음 주제를 전환하여 TensorFlow, PyTorch, scikit-learn, xgboost 등 여러 ML 프레임워크에서 ML 파이프라인을 자동화하고 재사용하는 방법을 설명합니다. 또한 Google Cloud의 또 다른 도구인 Cloud Composer를 사용하여 지속적 학습 파이프라인을 조정하는 방법도 알아봅니다. 마지막으로 MLflow를 사용하여 머신러닝의 전체 수명 주기를 관리하는 방법을 살펴봅니다.
이 과정은 머신러닝 실무자에게 생성형 AI 모델과 예측형 AI 모델을 평가하는 데 필요한 도구, 기술, 권장사항을 제공합니다. 모델 평가는 프로덕션 단계의 ML 시스템이 안정적이고 정확하고 성능이 우수한 결과를 제공할 수 있게 하는 중요한 분야입니다. 강의 참가자는 다양한 평가 측정항목, 방법, 각각 다른 모델 유형과 작업에 적합한 애플리케이션에 대해 깊이 있게 이해할 수 있습니다. 이 과정에서는 생성형 AI 모델의 고유한 문제를 강조하고 이를 효과적으로 해결하기 위한 전략을 소개합니다. 강의 참가자는 Google Cloud의 Vertex AI Platform을 활용해 모델 선택, 최적화, 지속적인 모니터링을 위한 견고한 평가 프로세스를 구현하는 방법을 알아볼 수 있습니다.
이 과정에서는 생성형 AI 모델을 배포하고 관리할 때 MLOps팀이 직면하는 고유한 과제를 파악하는 데 필요한 지식과 도구를 제공하고 Vertex AI가 어떻게 AI팀이 MLOps 프로세스를 간소화하고 생성형 AI 프로젝트에서 성공을 거둘 수 있도록 지원하는지 살펴봅니다.
이 과정에서는 프로덕션 환경에서 고성능 ML 시스템을 빌드하기 위한 구성요소와 권장사항을 자세히 살펴봅니다. 정적 학습, 동적 학습, 정적 추론, 동적 추론, 분산 TensorFlow, TPU 등 고성능 ML 시스템 빌드와 관련된 일반적인 고려사항을 다룹니다. 이 과정에서는 정확한 예측 능력 외에도 양질의 ML 시스템을 만드는 특성을 탐구하는 데 중점을 둡니다.
이 과정에서는 Vertex AI Feature Store 사용의 이점, ML 모델의 정확성을 개선하는 방법, 가장 유용한 특성을 만드는 데이터 열을 찾는 방법을 살펴봅니다. 이 과정에는 BigQuery ML, Keras, TensorFlow를 사용한 특성 추출에 관한 콘텐츠와 실습도 포함되어 있습니다.
기업에서 인공지능과 머신러닝의 사용이 계속 증가함에 따라 책임감 있는 빌드의 중요성도 커지고 있습니다. 대부분의 기업은 책임감 있는 AI를 실천하기가 말처럼 쉽지 않습니다. 조직에서 책임감 있는 AI를 운영하는 방법에 관심이 있다면 이 과정이 도움이 될 것입니다. 이 과정에서 책임감 있는 AI를 위해 현재 Google Cloud가 기울이고 있는 노력, 권장사항, Google Cloud가 얻은 교훈을 알아보면 책임감 있는 AI 접근 방식을 구축하기 위한 프레임워크를 수립할 수 있을 것입니다.
이 과정은 데이터 준비부터 모델 배포와 모니터링까지 전체 머신러닝 워크플로를 위한 통합 플랫폼을 제공하는 Jupyter 노트북 기반 환경인 Vertex AI Notebooks를 소개합니다. 이 과정에서는 (1) 다양한 유형의 Vertex AI Notebooks와 그 특징, (2) Vertex AI Notebooks를 만들고 관리하는 방법을 다룹니다.
이 과정에서는 생성형 AI 프로젝트와 예측형 AI 프로젝트를 모두 개발하는 데 중점을 두고 Google Cloud의 AI 및 머신러닝(ML) 기능을 소개합니다. 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 다양한 기술, 제품, 도구를 살펴보고, 데이터 과학자, AI 개발자, ML 엔지니어가 대화형 실습을 통해 전문성을 강화할 수 있도록 지원합니다.
이 과정은 학습자가 프로페셔널 머신러닝 엔지니어(PMLE) 자격증 시험을 준비하는 학습 계획을 수립하는 데 도움을 줍니다. 학습자는 시험에서 다루는 분야의 범위를 살펴보고 자신의 시험 준비 상태를 평가한 다음 개별 학습 계획을 세웁니다.
Google Cloud 앱 개발 환경 설정 과정을 완료하여 기술 배지를 획득하세요. Cloud Storage, Identity and Access Management, Cloud Functions, Pub/Sub의 기본 기능을 사용하여 스토리지 중심 클라우드 인프라를 구축하고 연결하는 방법을 배울 수 있습니다.
이 과정은 학습자가 Professional Cloud Architect(PCA) 자격증 시험을 준비하는 학습 계획을 수립하는 데 도움을 줍니다. 학습자는 시험에서 다루는 분야와 범위를 탐구하고. 본인의 시험 준비 상태를 평가하며, 개별 학습 계획을 수립합니다.
책임감 있는 AI란 무엇이고 이것이 왜 중요하며 Google에서는 어떻게 제품에 책임감 있는 AI를 구현하고 있는지 설명하는 입문용 마이크로 학습 과정입니다. Google의 7가지 AI 원칙도 소개합니다.
Earn a skill badge by completing the Deploy Google Cloud Framework Data Foundation for SAP quest. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge quest, and the final assessment challenge lab, to receive a skill badge that you can share with your network.
이 과정은 Transformer 아키텍처와 BERT(Bidirectional Encoder Representations from Transformers) 모델을 소개합니다. 셀프 어텐션 메커니즘 같은 Transformer 아키텍처의 주요 구성요소와 이 아키텍처가 BERT 모델 빌드에 사용되는 방식에 관해 알아봅니다. 또한 텍스트 분류, 질문 답변, 자연어 추론과 같이 BERT를 활용할 수 있는 다양한 작업에 대해서도 알아봅니다. 이 과정은 완료하는 데 대략 45분이 소요됩니다.
이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.
이 과정은 입문용 마이크로 학습 과정으로, 대규모 언어 모델(LLM)이란 무엇이고, LLM을 활용할 수 있는 사용 사례로는 어떤 것이 있으며, 프롬프트 조정을 사용해 LLM 성능을 개선하는 방법은 무엇인지 알아봅니다. 또한 자체 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
생성형 AI란 무엇이고 어떻게 사용하며 전통적인 머신러닝 방법과는 어떻게 다른지 설명하는 입문용 마이크로 학습 과정입니다. 직접 생성형 AI 앱을 개발하는 데 도움이 되는 Google 도구에 대해서도 다룹니다.
Google Cloud에서 머신러닝을 구현하기 위한 권장사항에는 어떤 것이 있을까요? Vertex AI란 무엇이고, 이 플랫폼을 사용하여 코드는 한 줄도 작성하지 않고 AutoML 머신러닝 모델을 빠르게 빌드, 학습, 배포하려면 어떻게 해야 할까요? 머신러닝이란 무엇이며 어떤 종류의 문제를 해결할 수 있을까요? Google은 머신러닝을 조금 다른 방식으로 바라봅니다. Google이 머신러닝과 관련하여 중요하게 생각하는 것은 관리형 데이터 세트를 위한 통합 플랫폼과 특징 저장소를 제공하고, 코드를 작성하지 않고도 머신러닝 모델을 빌드, 학습, 배포할 방법을 제공하고, 데이터에 라벨을 지정하고, TensorFlow, scikit-learn, Pytorch, R 등과 같은 프레임워크를 사용하여 Workbench 노트북을 만들 수 있도록 지원하는 것입니다. Google의 Vertex AI 플랫폼에는 커스텀 모델을 학습시키고, 구성요소 파이프라인을 빌드하고, 온라인 및 일괄 예측을 실행하는 기능이 포함되어 있습니다. 후보 사용 사례를 머신러닝으로 구동되도록 변환하는 5단계를 살펴보고, 단계를 건너뛰지 않는 것이 중요한 이유를 알아봅니다. 마지막으로, 머신러닝이 증폭시킬 수 있는 편향과 이를 인식할 방법을 살펴봅니다.
초급 AlloyDB 인스턴스 만들고 관리하기 기술 배지 과정을 완료하여 다음 기술을 입증하세요. AlloyDB 핵심 작업 및 태스크 수행하기, PostgreSQL에서 AlloyDB로 마이그레이션하기, AlloyDB 데이터베이스 관리하기, AlloyDB 열 기반 엔진을 사용하여 분석 쿼리 가속화하기
Google Kubernetes Engine으로 설계하기: 기초' 과정에서는 Google Cloud의 레이아웃 및 원리를 살펴본 후 소프트웨어 컨테이너를 생성 및 관리하는 방법과 Kubernetes 아키텍처에 대해 알아봅니다.
머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.
이 과정에서는 스트리밍 데이터 파이프라인을 빌드할 때 직면하는 실제 과제를 해결하기 위해 실습을 진행합니다. Google Cloud 제품을 사용하여 지속적이고 무제한적인 데이터를 관리하는 데 중점을 둡니다.
이 중급 과정에서는 Google Cloud에서 강력한 일괄 데이터 파이프라인을 설계, 빌드, 최적화하는 방법을 알아봅니다. 기본적인 데이터 처리를 넘어, 시의적절한 비즈니스 인텔리전스와 중요한 보고에 필수적인 대규모 데이터 변환과 효율적인 워크플로 조정에 대해 살펴봅니다. Apache Beam용 Dataflow와 Apache Spark용 서버리스(Dataproc Serverless)를 사용하여 구현을 실습하고, 파이프라인 안정성과 운영 우수성을 보장하기 위해 데이터 품질, 모니터링, 알림에 대한 중요한 고려사항을 다룹니다. 데이터 웨어하우징, ETL/ELT, SQL, Python, Google Cloud 개념에 대한 기본적인 지식이 있으면 좋습니다.
데이터 레이크와 데이터 웨어하우스를 사용하는 기존 접근방식은 효과적일 수 있지만, 특히 대규모 엔터프라이즈 환경에서는 단점이 있습니다. 이 과정에서는 데이터 레이크하우스의 개념과 데이터 레이크하우스를 만드는 데 사용되는 Google Cloud 제품을 소개합니다. 레이크하우스 아키텍처는 개방형 표준 데이터 소스를 사용하며 데이터 레이크와 데이터 웨어하우스의 장점을 결합하여 많은 단점을 해결합니다.
This course helps learners prepare for the Professional Cloud Security Engineer (PCSE) Certification exam. Learners will be exposed to and engage with exam topics through a series of lectures, diagnostic questions, and knowledge checks. After completing this course, learners will have a personalized workbook that will guide them through the rest of their certification readiness journey.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
이 속성 주문형 과정에서는 참가자에게 Google Cloud에서 제공하는 포괄적이고 유연한 인프라 및 플랫폼 서비스를 소개합니다. 참가자는 동영상 강의, 데모, 실무형 실습이 결합된 이 과정을 통해 안전한 네트워크 상호 연결, 부하 분산, 자동 확장, 인프라 자동화, 관리형 서비스가 포함된 솔루션 요소를 살펴보고 배포할 수 있습니다.
이 속성 주문형 과정은 참가자에게 Google Cloud에서 제공하는 포괄적이고 유연한 인프라 및 플랫폼 서비스를 Compute Engine을 중심으로 소개합니다. 참가자는 동영상 강의, 데모, 실무형 실습을 통해 네트워크, 시스템, 애플리케이션 서비스와 같은 인프라 구성요소를 포함한 솔루션 요소를 탐색하고 배포해 볼 수 있습니다. 또한 이 과정에서는 고객 제공 암호화 키, 보안 및 액세스 관리, 할당량 및 요금 청구, 리소스 모니터링 등 실용적인 솔루션을 배포하는 방법에 대해서도 설명합니다.
중급 Google Kubernetes Engine 비용 최적화 기술 배지 과정을 완료하여 멀티 테넌트 클러스터의 생성 및 관리, 리소스 사용량의 네임스페이스별 모니터링, 효율을 위한 클러스터 및 포드 자동 확장 구성, 최적의 리소스 배포를 위한 부하 분산 설정, 애플리케이션 상태와 비용 효율을 위한 활성 프로브 및 준비 프로브 구현 작업과 관련된 기술 역량을 입증하세요.
Google Cloud 네트워크 설정 과정을 완료하고 기술 배지를 획득하세요. 이 실습에서는 Google Cloud Platform에서 기본적인 네트워킹 작업을 수행하는 방법을 알아봅니다. 커스텀 네트워크를 만들고 서브넷 방화벽 규칙을 추가한 다음 VM을 만들고 VM이 서로 통신할 때의 지연 시간을 테스트합니다.
Google Cloud 네트워크 개발 과정을 완료하고 기술 배지를 획득하세요. 이 과정에서는 IAM 역할 탐색 및 프로젝트 액세스 권한 추가/삭제, VPC 네트워크 생성, Compute Engine VM 배포 및 모니터링, SQL 쿼리 작성, Compute Engine에서 VM 배포 및 모니터링, Kubernetes를 여러 배포 접근 방식과 함께 사용하여 애플리케이션을 배포하는 등의 다양한 애플리케이션 배포 및 모니터링 방법을 배울 수 있습니다.
Google Cloud의 로깅, 모니터링, 모니터링 가능성에 관한 2부로 된 과정에 오신 것을 환영합니다. Google Cloud의 핵심 운영 도구는 크게 두 가지 카테고리로 나뉩니다. 운영 중심 구성요소와 애플리케이션 성능 관리 도구입니다. 이 과정에서는 Google Cloud의 로깅 및 모니터링에서는 로깅, 모니터링, 서비스 모니터링을 포함한 운영 중심 구성요소를 다룹니다. 이 과정을 수강한 후에는 Google Cloud의 모니터링 가능성(2부)을 완료하여 사용 가능한 애플리케이션 성능 관리 도구에 관해 알아보시기 바랍니다.
이 과정에서는 학습자가 검증된 설계 패턴을 사용하여 Google Cloud에서 고도로 안정적이고 효율적인 솔루션을 빌드하는 데 필요한 역량을 기를 수 있습니다. 'Google Compute Engine으로 설계하기' 또는 'Google Kubernetes Engine으로 설계하기' 과정에서 이어지는 내용이며, 학습자가 두 과정에서 다루는 기술을 실무에서 사용해 본 경험이 있다는 전제로 진행됩니다. 학습자는 프레젠테이션, 설계 활동, 실무형 실습을 통해 고도로 안정적이고 안전하고 비용 효율적이며 가용성이 높은 Google Cloud 배포를 설계하는 데 필요한 비즈니스 요구사항과 기술 요구사항을 정의하고 이 사이의 적절한 균형을 유지하는 방법을 익힐 수 있습니다.
이 과정은 학습자가 Professional Cloud Architect(PCA) 자격증 시험을 준비하는 학습 계획을 수립하는 데 도움을 줍니다. 학습자는 시험에서 다루는 분야와 범위를 탐구하고. 본인의 시험 준비 상태를 평가하며, 개별 학습 계획을 수립합니다.
이 속성 주문형 과정은 참가자에게 Google Cloud에서 제공하는 포괄적이고 유연한 인프라 및 플랫폼 서비스를 Compute Engine을 중심으로 소개합니다. 참가자는 동영상 강의, 데모, 실무형 실습을 통해 네트워크, 가상 머신, 애플리케이션 서비스와 같은 인프라 구성요소를 포함한 솔루션 요소를 탐색하고 배포해 볼 수 있습니다. Console과 Cloud Shell을 통해 Google Cloud를 사용하는 방법을 학습합니다. 또한 클라우드 설계자의 역할, 인프라 설계 접근 방식은 물론 Virtual Private Cloud(VPC), 프로젝트, 네트워크, 서브네트워크, IP 주소, 경로, 방화벽 규칙을 사용한 가상 네트워킹 구성에 대해 알아봅니다.
Google Cloud 기초: 핵심 인프라 과정은 Google Cloud 사용에 관한 중요한 개념 및 용어를 소개합니다. 이 과정에서는 동영상 및 실무형 실습을 통해 중요한 리소스 및 정책 관리 도구와 함께 Google Cloud의 다양한 컴퓨팅 및 스토리지 서비스를 살펴보고 비교합니다.
Google Kubernetes Engine 시작하기 과정에 오신 것을 환영합니다. 애플리케이션과 하드웨어 인프라 사이에 위치하는 소프트웨어 레이어인 Kubernetes에 관심이 있으시다면 잘 찾아오셨습니다. Google Kubernetes Engine을 사용하면 Kubernetes를 Google Cloud에서 관리형 서비스로 사용할 수 있습니다. 이 과정의 목표는 흔히 GKE로 불리는 Google Kubernetes Engine의 기본사항을 소개하고 Google Cloud에서 애플리케이션을 컨테이너화하고 실행하는 방법을 설명하는 것입니다. 이 과정에서는 먼저 Google Cloud에 대해 기본적인 사항을 소개한 후 이어서 컨테이너 및 Kubernetes, Kubernetes 아키텍처, Kubernetes 작업에 대해 간략히 설명합니다.
Google Cloud 앱 개발 환경 설정 과정을 완료하여 기술 배지를 획득하세요. Cloud Storage, Identity and Access Management, Cloud Functions, Pub/Sub의 기본 기능을 사용하여 스토리지 중심 클라우드 인프라를 구축하고 연결하는 방법을 배울 수 있습니다.