Kevin Zhang
Date d'abonnement : 2022
Ligue d'Or
57269 points
Date d'abonnement : 2022
The AI Infra Enablement Series, is designed for expert AI Infra CE, FSA, and GCC professionals. It aims to provide deep technical content, architecting experience, and hands-on opportunities in building end-to-end solutions. The series will cover key areas such as Customer Stories, Accelerator Orchestration, TPU/GPU, AI Infra Storage, and AI Infra Observability. Participants will gain insights into troubleshooting, customer use cases, decision frameworks, and roadmap impacts for current and future deliveries in AI infrastructure. The goal is to equip attendees with the knowledge and skills to effectively develop customer solutions and navigate the fast-moving product portfolio in AI. You can find all of our courses and technical learning packs on go/trainingcatalog. Brought to you by the GCC Tech Enablement Team (gcc-enablement@). Share your request/feedback on go/learningpacks-feedback! When you complete this course, you can earn the badge displayed here! View all the badges yo…
This course provides an overview of Google's AI infrastructure offerings, distinguishing between Google-managed (Vertex AI, Cloud Run) and self-managed (GKE, GCE) solutions. It discusses various GPU/TPU consumption models like DWS, Spot, and Reservations, and highlights key differentiators of GKE for AI workloads, including Cluster Director, AI Inference Gateway, and Custom Compute Classes. It also touches upon identifying customer personas and use cases for each product. Learning Objectives Articulate the fundamental technical concepts underpinning modern cloud infrastructure and AI workloads. Differentiate between various cloud runtimes beyond Kubernetes, and explain their respective strengths and use cases. Identify and describe the capabilities of Google Compute Engine (GCE) resources, specifically TPUs and GPUs, for accelerating computational tasks. Design and propose practical AI infrastructure solutions, including inference workloads, supported by relevant use cases and imple…
Welcome to the "AI Infrastructure: Networking Techniques" course. In this course, you'll learn to leverage Google Cloud's high-bandwidth, low-latency infrastructure to optimize data transfer and communication between all the components of your AI system. By the end, you'll grasp the critical role networking plays across the entire AI pipeline from data ingestion and training to inference and be able to apply best practices to ensure your workloads run at maximum speed.
Dans ce cours, vous découvrirez en détail les solutions de stockage disponibles sur Google Cloud, spécialement conçues pour les charges de travail d'IA et de calcul haute performance (HPC). Vous apprendrez à choisir le stockage adapté à chaque étape du cycle de vie du ML. Vous découvrirez comment optimiser les performances d'E/S pendant l'entraînement, à gérer des ensembles de données massifs pour la préparation des données et à livrer les artefacts du modèle avec une faible latence. Grâce à des exemples et à des démonstrations pratiques, vous acquerrez l'expertise nécessaire pour concevoir des solutions de stockage robustes qui accéléreront vos innovations en matière d'IA.
This course provides a comprehensive guide to deploying, managing, and optimizing AI and high-performance computing (HPC) workloads on Google Cloud. Through a series of lessons and practical demonstrations, you’ll explore diverse deployment strategies, ranging from highly customizable environments using Google Compute Engine (GCE) to managed solutions like Google Kubernetes Engine (GKE). Specifically, you’ll learn how to create clusters and deploy GKE for inference.
This course is for developers interested in learning how to use TPUs for inference—from architecture to deployment, and how to solve common implementation challenges.
This course is designed for developers looking to build an optimized AI inference stack on Google Cloud. Whether you’re working with GPUs or TPUs, you’ll explore the fundamental components of an inference stack, learn design principles for maximizing performance and reliability, and explore practical techniques to take your workloads from 0 to 1.
In this challenge lab, you will demonstrate your ability to author agents using Agent Development Kit (ADK), deploy those agents to Agent Engine, and use them from a web app. Complete the challenge lab to earn a Google Cloud skill badge.
This lab tests your ability to develop a real-world Generative AI Q&A solution using a RAG framework. You will use Firestore as a vector database and deploy a Flask app as a user interface to query a food safety knowledge base.
Complete the Edit images with Imagen skill badge to demonstrate your skills with Imagen's mask modes and editing modes to edit images according to certain prompts. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
In this skill bagde, you will demonstrate your ability to use and compare models available in the Vertex AI Model Garden. You'll deploy a model to a Vertex AI Endpoint, query other models via their API, and use Vertex AI's Gen AI evaluation service to measure the performance of multiple models.
Complete the Extend Gemini with controlled generation and Tool use skill badge to demonstrate your proficiency in connecting models to external tools and APIs. This allows models to augment their knowledge, extend their capabilities and interact with external systems to take actions such as sending an email. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!"
Learn how to create Hybrid Search applications using Vertex AI Vertex Search to combine semantic searching with keyword search to return results based on both semantic meaning and keyword matching.
Learn how to build your own Retrieval-Augmented Generation (RAG) solutions for greater control and flexibility than out-of-the-box implementations. Create a custom RAG solution using Vertex AI APIs, vector stores, and the LangChain framework.
Ce cours présente une solution de génération augmentée par récupération (RAG) dans BigQuery permettant de réduire les hallucinations de l'IA. Il décrit un workflow RAG qui couvre la création d'embeddings, la recherche dans un espace vectoriel et la génération de réponses améliorées. Il explique aussi les raisons conceptuelles derrière ces étapes et leur implémentation pratique avec BigQuery. À la fin du cours, les participants seront à même de créer un pipeline de RAG à l'aide de BigQuery et de modèles d'IA générative tels que Gemini, ainsi que des modèles d'embeddings pour traiter leurs propres cas d'hallucinations de l'IA.
Explore a variety of techniques for using Gemini to understand image, audio, video, and live-streaming media. You will discover how meaningful information can be extracted from each of these forms of media to use in media-rich applications.
This course dives into the world of media creation in Vertex AI using Nano Banana and Veo. Learn to design text and image-based prompts to produce high-quality, consistent images, and captivating, cinematic video clips. You'll also learn to refine generated assets using core editing functions. Finally, this course guides you through multi-tool workflow implementations for creative control and consistency, empowering you to transform images into video clips and leverage Gemini for prompt writing assistance and feedback.
With this course you will learn how to use different techniques to fine-tune Gemini. Model tuning is an effective way to customize large models like Gemini for your specific tasks. It's a key step to improve the model's quality and efficiency. This course will give an overview of model tuning, describe the tuning options available for Gemini, help you determine when each tuning option should be used and how to perform tuning.
Model Garden is a model library that helps you discover, test, and deploy models from Google and Google partners. Learn how to explore the available models and select the right ones for your use case. And how to deploy and interact with Model Garden models through the Google Cloud console and APIs.
An LLM-based application can process language in a way that resembles thought. But if you want to extend its capabilities to take actions by running other functions you have coded, you will need to use function calling. This can also be referred to as tool use. Additionally, you can give a model the ability to search Google or search a data store of documents to ground its responses. In other words, to base its answers on that information. In this course, you’ll explore these concepts.
Learn a variety of strategies and techniques to engineer effective prompts for generative models
Learn how to leverage Gemini multimodal capabilities to process and generate text, images, and audio and to integrate Gemini through APIs to perform tasks such as content creation and summarization.
Become an AI/ML Expert and Trusted Customer Advisor Are you a technical Cloud Googler ready to elevate your AI/ML expertise and become a go-to resource for customers? This on-demand learning pack captures the essence of the acclaimed AI/ML SME Academy, delivering advanced knowledge and practical insights to empower you in the dynamic world of artificial intelligence and machine learning. The typical participant is comfortable with AI/ML fundamentals and is looking to exercise and advance their knowledge to the next level. Topics covered in this academy AI Infrastructure - Platform overviews of TPU and GPU architectures, cluster provisioning and management, scaling training workloads using various technologies, and deploying ML models for inference at scale with different optimization techniques and frameworks. Agents - Connector architecture, custom connector development, indexing and search architectures, agentic architectures, communication patterns, agent lifecycle management, a…
Bienvenue dans le cours sur Cloud TPU. Nous allons explorer les avantages et les inconvénients des TPU dans différents scénarios et comparer différents accélérateurs de TPU pour vous aider à choisir celui qui vous convient le mieux. Vous découvrirez des stratégies pour optimiser les performances et l'efficacité de vos modèles d'IA et comprendrez l'importance de l'interopérabilité GPU/TPU pour des flux de travail d'apprentissage automatique flexibles. Grâce à des contenus attrayants et à des démonstrations pratiques, nous vous guiderons étape par étape pour exploiter efficacement les TPU.
Le matériel puissant qui se cache derrière l'IA vous intrigue ? Ce module décortique les ordinateurs à intelligence artificielle optimisés pour les performances et vous montre pourquoi ils sont si importants. Nous allons voir comment les CPU, les GPU et les TPU rendent les tâches d'IA extrêmement rapides, ce qui fait la spécificité de chacun, et comment les logiciels d'IA en tirent le meilleur parti. À la fin de ce module, vous saurez exactement comment sélectionner le GPU adapté à vos projets d'IA, ce qui vous permettra de faire des choix judicieux pour vos charges de travail d'IA.
Vous souhaitez utiliser AI Hypercomputer ? Ce cours est conçu pour vous aider à vous lancer. Nous aborderons les principes de base de cet outil et comment il aide l'IA dans ses charges de travail. Vous découvrirez les différents composants d'un hypercalculateur, tels que les GPU, les TPU et les CPU, et apprendrez à choisir la méthode de déploiement la mieux adaptée à vos besoins.
Complete the Extend Gemini Enterprise Assistant Capabilities skill badge to demonstrate your ability to extend Gemini Enterprise assistant's capabilities with actions, grounding with Google Search, and a conversational agent. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Complete the Create media search and media recommendations applications with AI Applications skill badge to demonstrate your ability to create, configure, and access media search and recommendations applications using AI Applications. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Complete the Configure AI Applications to optimize search results skill badge to demonstrate your proficiency in configuring search results from AI Applications. You will be tasked with implementing search serving controls to boost and bury results, filter entries from search results and display metadata in your search interface. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Complete the Create and maintain Vertex AI Search data stores skill badge to demonstrate your proficiency in building various types of data stores used in Vertex AI Search applications. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
Data stores represent a simple way to make content available to many types of generative AI applications, including search applications, recommendations engines, Gemini Enterprise apps, Agent Development Kit agents, and apps built with Google Gen AI or LangChain SDKs. Connect data from many sources include Cloud Storage, Google Drive, chat apps, mail apps, ticketing systems, third-party file storage providers, Salesforce, and many more.
Do you want to keep your users engaged by suggesting content they'll love? This course equips you with the skills to build a cutting-edge recommendations app using your own data with no prior machine learning knowledge. You learn to leverage AI Applications to build recommendation applications so that audiences can discover more personalized content, like what to watch or read next, with Google-quality results customized using optimization objectives.
NotebookLM is an AI-powered collaborator that helps you do your best thinking. After uploading your documents, NotebookLM becomes an instant expert in those sources so you can read, take notes, and collaborate with it to refine and organize your ideas. NotebookLM Pro gives you everything already included with NotebookLM, as well as higher utilization limits, access to premium features, and additional sharing options and analytics.
If you've worked with data, you know that some data is more reliable than other data. In this course, you'll learn a variety of techniques to present the most reliable or useful results to your users. Create serving controls to boost or bury search results. Rank search results to ensure that each query is answered by the most relevant data. If needed, tune your search engine. Learn to measure search results to ensure your search applications deliver the best possible results to each user. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
AI Applications provides built-in analytics for your Vertex AI Search and Gemini Enterprise apps. Learn what metrics are tracked and how to view them in this course. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
Initial deployment of Vertex AI Search and Gemini Enterprise apps takes only a few clicks, but getting the configurations right can elevate a deployment from a basic off-the-shelf app to an excellent custom search or recommendations experience. In this course, you'll learn more about the many ways you can customize and improve search, recommendations, and Gemini Enterprise apps. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
Complete the Build search and recommendations AI Applications skill badge to demonstrate your proficiency in deploying search and recommendation applications through AI Applications. Additionally, emphasis is placed on constructing a tailored Q&A system utilizing data stores. Please note that AI Applications was previously named Agent Builder, so you may encounter this older name within the lab content. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
This course introduces AI Applications. You will learn about the types of apps that you can create using AI Applications, the high-level steps that its data stores automate for you, and what advanced features can be enabled for Search apps. (Please note Gemini Enterprise was previously named Google Agentspace, there may be references to the previous product name in this course.)
Ce cours est une introduction à Terraform pour Google Cloud. Il permet aux participants de découvrir comment Terraform peut être utilisé pour implémenter une Infrastructure as Code, et comment appliquer certaines de ses fonctionnalités essentielles pour créer et gérer une infrastructure Google Cloud. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant et en gérant des ressources Google Cloud à l'aide de Terraform.
Combinez l'expertise de Google dans les domaines de la recherche et de l'IA grâce à Gemini Enterprise. Cet outil puissant est conçu pour aider les collaborateurs à trouver des informations précises dans des documents stockés, des e-mails, des conversations, des systèmes de suivi des demandes et d'autres sources de données, le tout grâce à une simple barre de recherche. L'assistant Gemini Enterprise peut également les aider à trouver des idées, faire des recherches, résumer des documents et exécuter des tâches comme inviter des collègues à un événement d'agenda pour faciliter la collaboration et l'exploitation des connaissances. (Veuillez noter que Gemini Enterprise s'appelait auparavant Google Agentspace ; il se peut donc que ce cours contienne des références à l'ancien nom du produit.)
Dans ce cours, vous découvrirez comment Gemini, un collaborateur de Google Cloud optimisé par l'IA générative, aide les administrateurs à provisionner l'infrastructure. Vous apprendrez à demander à Gemini d'expliquer l'infrastructure, de déployer les clusters GKE et de mettre à jour l'infrastructure existante. À l'aide d'un atelier pratique, vous verrez en quoi Gemini améliore le workflow de déploiement GKE. Duet AI a été renommé "Gemini", notre modèle nouvelle génération.
Dans ce cours, vous découvrirez comment Gemini, un collaborateur de Google Cloud optimisé par l'IA générative, aide les ingénieurs à gérer l'infrastructure. Vous apprendrez à demander à Gemini de trouver et comprendre les journaux d'application, de créer un cluster GKE et d'étudier comment créer un environnement de compilation. À l'aide d'un atelier pratique, vous verrez en quoi Gemini améliore le workflow DevOps. Duet AI a été renommé Gemini, notre modèle nouvelle génération.
Artificial Intelligence (AI) offers transformative possibilities, but it also introduces new security challenges. This course equips security and data protection leaders with strategies to securely manage AI within their organizations. Learn a framework for proactively identifying and mitigating AI-specific risks, protecting sensitive data, ensuring compliance, and building a resilient AI infrastructure. Pick use cases from four different industries to explore how these strategies apply in real-world scenarios.
This is an opportunity for Technical Cloud Googlers to enhance their TPU/GPU skills and knowledge through a deep dive program covering the following focus areas/ individual tracks: TPU/GPU Networking GKE Expertise Slurm Expertise TPU/GPU Storage Best Practices Common transformer/LLM frameworks (Huggingface/triton/etc) Monitoring and logging for TPU/GPU
Ce cours présente des points importants au sujet de la confidentialité et de la sécurité de l'IA. Vous découvrirez des méthodes pratiques et des outils pour mettre en place des pratiques recommandées de confidentialité et de sécurité de l'IA à l'aide de produits Google Cloud et d'outils Open Source.
Ce cours présente les concepts d'interprétabilité et de transparence de l'IA. Il explique en quoi la transparence de l'IA est importante pour les développeurs et les ingénieurs. Il explore des méthodes et des outils pratiques permettant d'atteindre l'interprétabilité et la transparence des modèles d'IA et des données.
Ce cours présente le concept d'IA responsable et les principes associés. Il met en avant des techniques permettant d'identifier des données équitables ou biaisées, et de limiter les biais lors de l'utilisation de l'IA/du ML. Vous découvrirez des méthodes pratiques et des outils pour mettre en place de bonnes pratiques d'IA responsable à l'aide des produits Google Cloud et des outils Open Source.
Les applications d'IA générative peuvent créer de nouvelles expériences utilisateur qu'il était quasiment impossible d'obtenir avant l'invention des grands modèles de langage (LLM). En tant que développeur d'applications, comment pouvez-vous utiliser l'IA générative pour créer des applications interactives et performantes sur Google Cloud ? Dans ce cours, vous allez découvrir les applications d'IA générative, et comment vous pouvez utiliser la conception de requêtes et la génération augmentée par récupération (RAG) pour créer des applications performantes à l'aide de LLM. Vous allez vous familiariser avec une architecture prête pour la production qui peut être utilisée pour les applications d'IA générative, et vous allez créer une application de chat basée sur des LLM et sur le RAG.
Dans ce cours, vous profiterez de l'expérience d'ingénieurs et de formateurs en ML qui développent des pipelines de ML chez Google Cloud à l'aide de technologies de pointe. Les premiers modules porteront sur TensorFlow Extended (TFX), la plate-forme Google de machine learning de production basée sur TensorFlow et conçue pour gérer des pipelines et des métadonnées de ML. Vous explorerez les composants de pipelines et apprendrez à orchestrer des pipelines avec TFX. Vous verrez également comment automatiser vos pipelines au moyen d'une intégration et d'un déploiement continus, et comment gérer des métadonnées de ML. Ensuite, nous découvrirons comment automatiser et réutiliser des pipelines de ML sur plusieurs frameworks de ML tels que TensorFlow, PyTorch, scikit-learn et XGBoost. Vous apprendrez également à utiliser Cloud Composer, un autre outil Google Cloud, pour orchestrer vos pipelines d'entraînement continu. Enfin, nous verrons comment utiliser MLflow pour gérer l'ensemble du cycle d…
Ce cours apporte aux professionnels du machine learning les techniques, les bonnes pratiques et les outils essentiels pour évaluer les modèles d'IA prédictive et générative. L'évaluation des modèles est primordiale pour s'assurer que les systèmes de ML fournissent des résultats fiables, précis et de haut niveau en production. Les participants acquerront une connaissance approfondie de diverses métriques et méthodologies d'évaluation, ainsi que de leur application appropriée dans différents types de modèles et tâches. Le cours mettra l'accent sur les défis uniques posés par les modèles d'IA générative et proposera des stratégies pour les relever efficacement. Grâce à la plate-forme Vertex AI de Google Cloud, les participants apprendront à implémenter des processus d'évaluation rigoureux pour la sélection, l'optimisation et la surveillance continue des modèles.
Dans ce cours, vous allez acquérir les connaissances et les outils nécessaires pour identifier les problématiques uniques auxquelles les équipes MLOps sont confrontées lors du déploiement et de la gestion de modèles d'IA générative. Vous verrez également en quoi Vertex AI permet aux équipes d'IA de simplifier les processus MLOps et de faire aboutir leurs projets d'IA générative.
Dans ce cours, nous abordons en détail les composants et les bonnes pratiques de construction de systèmes de ML hautes performances dans des environnements de production. Nous verrons aussi certaines des considérations les plus courantes concernant la construction de ces systèmes, telles que l'entraînement statique, l'entraînement dynamique, l'inférence statique, l'inférence dynamique, les tâches TensorFlow distribuées et les TPU. Ce cours a pour objectif d'explorer les caractéristiques d'un bon système de ML, au-delà de sa capacité à effectuer des prédictions correctes.
Ce cours présente les avantages liés à l'utilisation de Vertex AI Feature Store, ainsi que la manière d'améliorer la précision des modèles de ML et de déterminer les colonnes de données présentant les caractéristiques les plus utiles. Ce cours inclut également du contenu et des ateliers portant sur l'ingénierie des caractéristiques à l'aide de BigQuery ML, Keras et TensorFlow.
Avec l'essor de l'utilisation de l'intelligence artificielle et du machine learning en entreprise, il est de plus en plus important de développer ces technologies de manière responsable. Pour beaucoup, le véritable défi réside dans la mise en pratique de l'IA responsable, qui s'avère bien plus complexe que dans la théorie. Si vous souhaitez découvrir comment opérationnaliser l'IA responsable dans votre organisation, ce cours est fait pour vous. Dans ce cours, vous allez apprendre comment Google Cloud procède actuellement, en s'appuyant sur des bonnes pratiques et les enseignements tirés, afin de vous fournir un framework pour élaborer votre propre approche d'IA responsable.
Ce cours est une introduction aux notebooks Vertex AI, des environnements basés sur des notebooks Jupyter qui proposent une plate-forme unifiée pour l'ensemble du workflow de machine learning, de la préparation des données jusqu'au déploiement et à la surveillance des modèles. Le cours aborde les sujets suivants : (1) Les différents types de notebooks Vertex AI et leurs fonctionnalités, et (2) comment en créer et les gérer.
Ce cours présente les fonctionnalités d'IA et de machine learning (ML) de Google Cloud, en mettant l'accent sur le développement de projets d'IA prédictive et générative. Il explore les différentes technologies, produits et outils disponibles tout au long du cycle de vie des données à l'IA, et permet aux data scientists, aux développeurs d'IA et aux ingénieurs en ML d'améliorer leur expertise grâce à des exercices interactifs.
Ce cours aide les participants à créer un plan de formation pour l'examen de certification afin de devenir ingénieur professionnel en machine learning (PMLE, Professional Machine Learning Engineer). Ils découvriront l'ampleur et le champ d'application des domaines abordés lors de l'examen. Ils détermineront s'ils sont prêts à passer l'examen et créeront leur propre plan de formation.
Suivez le cours Configurer un environnement de développement d'applications sur Google Cloud et obtenez un badge de compétence. Dans ce cours, vous apprendrez à créer et connecter une infrastructure cloud axée sur le stockage à l'aide des fonctionnalités de base des technologies suivantes Cloud Storage, Identity and Access Management, Cloud Functions et Pub/Sub.
Ce cours aide les participants à créer un plan de formation pour l'examen de certification qui permet de devenir Professional Cloud Architect. Ils découvriront l'ampleur et le champ d'application des domaines abordés lors de l'examen. Ils détermineront s'ils sont prêts à passer l'examen et créeront leur propre plan de formation.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA responsable, souligne son importance et décrit comment Google l'implémente dans ses produits. Il présente également les sept principes de l'IA de Google.
Earn a skill badge by completing the Deploy Google Cloud Framework Data Foundation for SAP quest. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge quest, and the final assessment challenge lab, to receive a skill badge that you can share with your network.
Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.
Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Quelles sont les bonnes pratiques pour implémenter le machine learning sur Google Cloud ? En quoi consiste la plate-forme Vertex AI et comment pouvez-vous l'utiliser pour créer, entraîner et déployer rapidement des modèles de machine learning AutoML sans écrire une seule ligne de code ? Qu'est-ce que le machine learning et quels types de problèmes permet-il de résoudre ? Google aborde le machine learning d'une façon particulière, qui consiste à fournir une plate-forme unifiée pour les ensembles de données gérés, ainsi qu'un magasin de caractéristiques et un moyen de créer, d'entraîner et de déployer des modèles de machine learning sans écrire une seule ligne de code. Il s'agit également de permettre aux utilisateurs d'étiqueter les données et de créer des notebooks Workbench à l'aide de frameworks tels que TensorFlow, Scikit Learn, Pytorch et R. Avec notre plate-forme Vertex AI, il est également possible d'entraîner des modèles personnalisés, de créer des pipelines de composants, …
Terminez le cours d'introduction Créer et gérer des instances AlloyDB pour recevoir un badge démontrant vos compétences dans les domaines suivants : effectuer les principales tâches et opérations AlloyDB, migrer de PostgreSQL vers AlloyDB, administrer une base de données AlloyDB et accélérer les requêtes analytiques à l'aide du moteur de données en colonnes AlloyDB.
Dans le cours "Concevoir une architecture avec Google Kubernetes Engine : principes de bases," nous allons vous présenter l'organisation et les principes de Google Cloud. Nous vous apprendrons ensuite à créer et gérer des conteneurs de logiciels, puis nous vous ferons découvrir l'architecture de Kubernetes.
Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.
Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.
Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.
Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.
Ce cours aide les participants à se préparer à l'examen de certification Professional Cloud Security Engineer. Les participants se familiariseront avec les sujets d'examen au moyen d'une série de cours, de questions de diagnostic et de contrôles des connaissances. Au terme de ce cours, ils disposeront d'un livret d'exercices personnalisé qui les guidera pour le reste de leur préparation à la certification.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.
Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Ce cours à la demande accéléré présente aux participants les services complets et flexibles d'infrastructure et de plate-forme offerts par Google Cloud. À travers un ensemble de cours vidéo, de démonstrations et d'ateliers pratiques, les participants explorent et déploient des éléments de solution, y compris l'interconnexion sécurisée de réseaux, l'équilibrage de charge, l'autoscaling, l'automatisation de l'infrastructure et les services gérés.
Ce cours accéléré à la demande présente aux participants l'infrastructure complète et flexible de Google Cloud Platform ainsi que les services de plate-forme fournis, en s'intéressant plus particulièrement à Compute Engine. À travers un ensemble de vidéos de présentation, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que les réseaux, les systèmes et les services applicatifs. Ce cours aborde également le déploiement de solutions pratiques, telles que les clés de chiffrement fournies par le client, la gestion de la sécurité et des accès, les quotas et la facturation, ainsi que la surveillance des ressources.
Terminez le cours intermédiaire Optimiser les coûts pour Google Kubernetes Engine pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et la gestion de clusters mutualisés, la surveillance de l'utilisation des ressources par espace de noms, la configuration de l'autoscaling des pods et des clusters pour accroître l'efficacité, la configuration de l'équilibrage de charge pour distribuer les ressources de façon optimale et l'implémentation des vérifications d'activité et d'aptitude pour garantir l'intégrité ainsi que la rentabilité des applications.
Suivez le cours Configurer un réseau Google Cloud et obtenez un badge de compétence. Vous allez apprendre à effectuer des tâches élémentaires de gestion de réseaux sur Google Cloud Platform : créer un réseau personnalisé, ajouter des règles de pare-feu de sous-réseau, puis créer des VM et tester la latence lorsqu'elles communiquent entre elles.
Suivez le cours Développer votre réseau Google Cloud et obtenez un badge de compétence. Dans ce cours, vous avez appris plusieurs façons de déployer et de surveiller des applications. Pour cela, vous avez vu comment parcourir les rôles IAM et ajouter/supprimer l'accès au projet, créer des réseaux VPC, déployer et surveiller des VM Compute Engine, rédiger des requêtes SQL, déployer et surveiller des VM dans Compute Engine, mais aussi comment déployer des applications à l'aide de Kubernetes avec plusieurs approches de déploiement.
Ce cours présente aux participants des techniques pour surveiller et améliorer les performances de l'infrastructure et des applications dans Google Cloud. À travers un ensemble de présentations, de démonstrations, d'ateliers pratiques et d'études de cas concrets, les participants se familiariseront avec la surveillance full stack, la gestion et l'analyse des journaux en temps réel, le débogage de code en production, le traçage des goulots d'étranglement affectant les performances des applications, et le profilage de l'utilisation du processeur et de la mémoire.
Ce cours permet aux participants d'apprendre à créer des solutions hautement fiables et efficaces sur Google Cloud en s'appuyant sur des modèles de conception éprouvés. Il s'inscrit dans la continuité des cours "Concevoir une architecture avec Google Compute Engine" et "Concevoir une architecture avec Google Kubernetes Engine" et demande une expérience pratique des technologies abordées dans chaque cours. À travers un ensemble de présentations, d'activités de conception et d'ateliers pratiques, les participants apprennent à définir des exigences techniques et commerciales, et à trouver un équilibre entre elles pour concevoir des déploiements Google Cloud hautement fiables et disponibles, sécurisés et économes.
Ce cours aide les participants à créer un plan de formation pour l'examen de certification qui permet de devenir Professional Cloud Architect. Ils découvriront l'ampleur et le champ d'application des domaines abordés lors de l'examen. Ils détermineront s'ils sont prêts à passer l'examen et créeront leur propre plan de formation.
Ce cours accéléré à la demande présente aux participants les services complets et flexibles d'infrastructure et de plate-forme offerts par Google Cloud, en s'intéressant plus particulièrement à Compute Engine. À travers un ensemble de cours vidéo, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que des réseaux, des machines virtuelles et des services d'applications. Vous découvrirez comment utiliser Google Cloud via la console et Cloud Shell. Vous en apprendrez également plus sur le rôle d'un architecte cloud, sur les approches de la conception d'infrastructure et sur la configuration de réseaux virtuels avec Virtual Private Cloud (VPC), les projets, les réseaux, les sous-réseaux, les adresses IP, les routes et les règles de pare-feu.
"Concepts fondamentaux de Google Cloud : infrastructure de base" présente les concepts et les termes à connaître pour utiliser Google Cloud. À travers des vidéos et des ateliers pratiques, il décrit et compare la plupart des services Google Cloud de calcul et de stockage, ainsi que des outils importants de gestion des ressources et des règles.
Bienvenue dans le cours "Premiers pas avec Google Kubernetes Engine". Si vous vous intéressez à Kubernetes, une couche logicielle située entre vos applications et votre infrastructure matérielle, vous êtes au bon endroit. Google Kubernetes Engine vous permet d'accéder à Kubernetes en tant que service géré sur Google Cloud. L'objectif de ce cours est de vous présenter les principes de base de Google Kubernetes Engine (GKE), et de vous apprendre à conteneuriser et exécuter des applications dans Google Cloud. Le cours commence par une introduction aux principes de base de Google Cloud, puis se poursuit par une présentation des conteneurs et de Kubernetes, de l'architecture de Kubernetes et des opérations Kubernetes.
Suivez le cours Configurer un environnement de développement d'applications sur Google Cloud et obtenez un badge de compétence. Dans ce cours, vous apprendrez à créer et connecter une infrastructure cloud axée sur le stockage à l'aide des fonctionnalités de base des technologies suivantes Cloud Storage, Identity and Access Management, Cloud Functions et Pub/Sub.