Earl Davis
Date d'abonnement : 2019
Ligue d'Argent
46775 points
Date d'abonnement : 2019
Ce cours permet aux participants d'apprendre à créer des solutions hautement fiables et efficaces sur Google Cloud en s'appuyant sur des modèles de conception éprouvés. Il s'inscrit dans la continuité des cours "Concevoir une architecture avec Google Compute Engine" et "Concevoir une architecture avec Google Kubernetes Engine" et demande une expérience pratique des technologies abordées dans chaque cours. À travers un ensemble de présentations, d'activités de conception et d'ateliers pratiques, les participants apprennent à définir des exigences techniques et commerciales, et à trouver un équilibre entre elles pour concevoir des déploiements Google Cloud hautement fiables et disponibles, sécurisés et économes.
Dans bien des services informatiques, il existe des divergences entre les avantages souhaités par les développeurs, à savoir l'agilité, et ceux des opérateurs, qui recherchent la stabilité. L'ingénierie de la fiabilité des sites (SRE) permet à Google d'aligner les mesures incitatives entre le développement et les opérations, et de proposer une assistance à la production critique. Adopter des pratiques techniques et culturelles de l'ingénierie SRE permet d'améliorer la collaboration entre les équipes métiers et informatiques. Ce cours présente les pratiques clés de l'ingénierie SRE façon Google, ainsi que le rôle déterminant que jouent les responsables IT et les chefs d'entreprise dans la réussite de son adoption au sein de leur organisation.
Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.
Ce cours aide les participants à créer un plan de formation pour l'examen de certification qui permet de devenir Professional Cloud Architect. Ils découvriront l'ampleur et le champ d'application des domaines abordés lors de l'examen. Ils détermineront s'ils sont prêts à passer l'examen et créeront leur propre plan de formation.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
This course enables system integrators and partners to understand the principles of automated migrations, plan legacy system migrations to Google Cloud leveraging G4 Platform, and execute a trial code conversion.
In this course, you'll use text embeddings for tasks like classification, outlier detection, text clustering and semantic search. You'll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) solutions, such as for question-answering systems, using Google Cloud's Vertex AI and Google Cloud databases.
This course explores Google Cloud technologies to create and generate embeddings. Embeddings are numerical representations of text, images, video and audio, and play a pivotal role in many tasks that involve the identification of similar items, like Google searches, online shopping recommendations, and personalized music suggestions. Specifically, you’ll use embeddings for tasks like classification, outlier detection, clustering and semantic search. You’ll combine semantic search with the text generation capabilities of an LLM to build Retrieval Augmented Generation (RAG) systems and question-answering solutions, on your own proprietary data using Google Cloud’s Vertex AI.
Avec ce cours, explorez les technologies de recherche, les outils et les applications optimisés par l'IA. Découvrez la recherche sémantique, qui utilise les embeddings vectoriels (ou "plongements vectoriels"), la recherche hybride, qui combine les approches sémantique et par mots-clés, et la génération augmentée par récupération (RAG), qui réduit les hallucinations générées par l'IA en agissant comme un agent ancré. Enfin, acquérez une expérience pratique de Vertex AI Vector Search afin de créer votre moteur de recherche intelligent.
Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.
This course explores the Geographic Information Systems (GIS), GIS Visualization, and machine learning enhancements to BigQuery.
This course explores how to implement a streaming analytics solution using Dataflow and BigQuery.
This course explores how to leverage Looker to create data experiences and gain insights with modern business intelligence (BI) and reporting.
This course explores how to implement a streaming analytics solution using Pub/Sub.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataflow.
This course continues to explore the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Cloud Data Fusion.
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
This course will help ML Engineers, Developers, and Data Scientists implement Large Language Models for Generative AI use cases with Vertex AI. The first two modules of this course contain links to videos and prerequisite course materials that will build your knowledge foundation in Generative AI. Please do not skip these modules. The advanced modules in this course assume you have completed these earlier modules.
Ce cours présente Vertex AI Studio, un outil permettant d'interagir avec des modèles d'IA générative, de prototyper des idées commerciales et de les envoyer en production. Au moyen d'un cas d'utilisation immersif, de leçons captivantes et d'un atelier pratique, vous allez découvrir le cycle de vie de la requête au produit. Vous apprendrez également à utiliser Vertex AI Studio pour les applications multimodales Gemini, la conception de requêtes, le prompt engineering (ingénierie des requêtes) et le réglage de modèles. L'objectif est de vous permettre d'exploiter tout le potentiel de l'IA générative dans vos projets avec Vertex AI Studio.
This course explores the implementation of data load and transformation pipelines for a BigQuery Data Warehouse using Dataproc.
Dans ce cours, vous allez apprendre à créer un modèle de sous-titrage d'images à l'aide du deep learning. Vous découvrirez les différents composants de ce type de modèle, comme l'encodeur et le décodeur, et comment l'entraîner et l'évaluer. À la fin du cours, vous serez en mesure de créer vos propres modèles de sous-titrage d'images et de les utiliser pour générer des sous-titres pour des images.
Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.
Ce cours offre un aperçu de l'architecture encodeur/décodeur, une architecture de machine learning performante souvent utilisée pour les tâches "seq2seq", telles que la traduction automatique, la synthèse de texte et les questions-réponses. Vous découvrirez quels sont les principaux composants de l'architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Dans le tutoriel d'atelier correspondant, vous utiliserez TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro.
Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.
Ce cours présente les modèles de diffusion, une famille de modèles de machine learning qui s'est récemment révélée prometteuse dans le domaine de la génération d'images. Les modèles de diffusion trouvent leur origine dans la physique, et plus précisément dans la thermodynamique. Au cours des dernières années, ils ont gagné en popularité dans la recherche et l'industrie. Ils sont à la base de nombreux modèles et outils Google Cloud avancés de génération d'images. Ce cours vous présente les bases théoriques des modèles de diffusion, et vous explique comment les entraîner et les déployer sur Vertex AI.
Avec l'essor de l'utilisation de l'intelligence artificielle et du machine learning en entreprise, il est de plus en plus important de développer ces technologies de manière responsable. Pour beaucoup, le véritable défi réside dans la mise en pratique de l'IA responsable, qui s'avère bien plus complexe que dans la théorie. Si vous souhaitez découvrir comment opérationnaliser l'IA responsable dans votre organisation, ce cours est fait pour vous. Dans ce cours, vous allez apprendre comment Google Cloud procède actuellement, en s'appuyant sur des bonnes pratiques et les enseignements tirés, afin de vous fournir un framework pour élaborer votre propre approche d'IA responsable.
This course identifies best practices for migrating data warehouses to BigQuery and the key skills required to perform successful migration.
Welcome to Optimize in BigQuery, where we map Enterprise Data Warehouse concepts and components to BigQuery and Google data services with a focus on optimization.
Welcome to Design in BigQuery, where we map Enterprise Data Warehouse concepts and components to BigQuery and Google data services with a focus on schema design.
This course discusses the key elements of Google's Data Warehouse solution portfolio and strategy.
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA responsable, souligne son importance et décrit comment Google l'implémente dans ses produits. Il présente également les sept principes de l'IA de Google.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours à la demande accéléré présente aux participants les services complets et flexibles d'infrastructure et de plate-forme offerts par Google Cloud. À travers un ensemble de cours vidéo, de démonstrations et d'ateliers pratiques, les participants explorent et déploient des éléments de solution, y compris l'interconnexion sécurisée de réseaux, l'équilibrage de charge, l'autoscaling, l'automatisation de l'infrastructure et les services gérés.
In this course, you apply your knowledge of classification models and embeddings to build a ML pipeline that functions as a recommendation engine. This is the fifth and final course of the Advanced Machine Learning on Google Cloud series.
This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.
This course describes different types of computer vision use cases and then highlights different machine learning strategies for solving these use cases. The strategies vary from experimenting with pre-built ML models through pre-built ML APIs and AutoML Vision to building custom image classifiers using linear models, deep neural network (DNN) models or convolutional neural network (CNN) models. The course shows how to improve a model's accuracy with augmentation, feature extraction, and fine-tuning hyperparameters while trying to avoid overfitting the data. The course also looks at practical issues that arise, for example, when one doesn't have enough data and how to incorporate the latest research findings into different models. Learners will get hands-on practice building and optimizing their own image classification models on a variety of public datasets in the labs they will work on.
Ce cours présente les outils et les bonnes pratiques MLOps pour déployer, évaluer, surveiller et exploiter des systèmes de ML en production sur Google Cloud. Le MLOps est une discipline axée sur le déploiement, le test, la surveillance et l'automatisation des systèmes de ML en production. Les ingénieurs en machine learning utilisent des outils pour améliorer et évaluer en permanence les modèles déployés. Ils collaborent avec des data scientists (ou peuvent occuper ce poste) qui développent des modèles permettant de déployer de manière rapide et rigoureuse les solutions de machine learning les plus performantes.
Dans ce cours, vous profiterez de l'expérience d'ingénieurs et de formateurs en ML qui développent des pipelines de ML chez Google Cloud à l'aide de technologies de pointe. Les premiers modules porteront sur TensorFlow Extended (TFX), la plate-forme Google de machine learning de production basée sur TensorFlow et conçue pour gérer des pipelines et des métadonnées de ML. Vous explorerez les composants de pipelines et apprendrez à orchestrer des pipelines avec TFX. Vous verrez également comment automatiser vos pipelines au moyen d'une intégration et d'un déploiement continus, et comment gérer des métadonnées de ML. Ensuite, nous découvrirons comment automatiser et réutiliser des pipelines de ML sur plusieurs frameworks de ML tels que TensorFlow, PyTorch, scikit-learn et XGBoost. Vous apprendrez également à utiliser Cloud Composer, un autre outil Google Cloud, pour orchestrer vos pipelines d'entraînement continu. Enfin, nous verrons comment utiliser MLflow pour gérer l'ensemble du cycle d…
Dans ce cours, nous abordons en détail les composants et les bonnes pratiques de construction de systèmes de ML hautes performances dans des environnements de production. Nous verrons aussi certaines des considérations les plus courantes concernant la construction de ces systèmes, telles que l'entraînement statique, l'entraînement dynamique, l'inférence statique, l'inférence dynamique, les tâches TensorFlow distribuées et les TPU. Ce cours a pour objectif d'explorer les caractéristiques d'un bon système de ML, au-delà de sa capacité à effectuer des prédictions correctes.
Ce cours présente une approche pratique du workflow de ML avec une étude de cas dans laquelle une équipe est confrontée à plusieurs exigences métier et cas d'utilisation de ML. Cette équipe doit comprendre quels outils sont nécessaires pour gérer et gouverner les données, et trouver la meilleure approche pour les prétraiter. On présente à cette équipe trois options de création de modèles de ML pour deux cas d'utilisation spécifiques. Ce cours explique pourquoi l'équipe tire parti des avantages d'AutoML, de BigQuery ML ou de l'entraînement personnalisé pour atteindre ses objectifs.
Ce cours présente les avantages liés à l'utilisation de Vertex AI Feature Store, ainsi que la manière d'améliorer la précision des modèles de ML et de déterminer les colonnes de données présentant les caractéristiques les plus utiles. Ce cours inclut également du contenu et des ateliers portant sur l'ingénierie des caractéristiques à l'aide de BigQuery ML, Keras et TensorFlow.
Ce cours porte sur la création de modèles de ML à l'aide de TensorFlow et Keras, l'amélioration de la précision des modèles de ML et l'écriture de modèles de ML pour une utilisation évolutive.
Le cours commence par une discussion sur les données : vous découvrirez comment améliorer leur qualité et effectuer des analyses exploratoires. Ensuite, nous vous présenterons Vertex AI AutoML et vous expliquerons comment créer, entraîner et déployer un modèle de machine learning (ML) sans écrire une ligne de code. Vous découvrirez également les avantages de BigQuery ML. Enfin, nous verrons comment optimiser un modèle de ML, et en quoi la généralisation ainsi que l'échantillonnage peuvent vous aider à évaluer la qualité des modèles de ML destinés à un entraînement personnalisé.
Quelles sont les bonnes pratiques pour implémenter le machine learning sur Google Cloud ? En quoi consiste la plate-forme Vertex AI et comment pouvez-vous l'utiliser pour créer, entraîner et déployer rapidement des modèles de machine learning AutoML sans écrire une seule ligne de code ? Qu'est-ce que le machine learning et quels types de problèmes permet-il de résoudre ? Google aborde le machine learning d'une façon particulière, qui consiste à fournir une plate-forme unifiée pour les ensembles de données gérés, ainsi qu'un magasin de caractéristiques et un moyen de créer, d'entraîner et de déployer des modèles de machine learning sans écrire une seule ligne de code. Il s'agit également de permettre aux utilisateurs d'étiqueter les données et de créer des notebooks Workbench à l'aide de frameworks tels que TensorFlow, Scikit Learn, Pytorch et R. Avec notre plate-forme Vertex AI, il est également possible d'entraîner des modèles personnalisés, de créer des pipelines de composants, …
Terminez le cours intermédiaire Créer une infrastructure avec Terraform sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : les principes d'Infrastructure as Code (IaC) avec Terraform, le provisionnement et la gestion des ressources Google Cloud avec des configurations Terraform, la gestion efficace des états (local et distant) et la modularisation du code Terraform à des fins de réutilisabilité et d'organisation.
Suivez le cours Configurer un environnement de développement d'applications sur Google Cloud et obtenez un badge de compétence. Dans ce cours, vous apprendrez à créer et connecter une infrastructure cloud axée sur le stockage à l'aide des fonctionnalités de base des technologies suivantes Cloud Storage, Identity and Access Management, Cloud Functions et Pub/Sub.
Ce cours accéléré à la demande présente aux participants l'infrastructure complète et flexible de Google Cloud Platform ainsi que les services de plate-forme fournis, en s'intéressant plus particulièrement à Compute Engine. À travers un ensemble de vidéos de présentation, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que les réseaux, les systèmes et les services applicatifs. Ce cours aborde également le déploiement de solutions pratiques, telles que les clés de chiffrement fournies par le client, la gestion de la sécurité et des accès, les quotas et la facturation, ainsi que la surveillance des ressources.
Ce cours accéléré à la demande présente aux participants les services complets et flexibles d'infrastructure et de plate-forme offerts par Google Cloud, en s'intéressant plus particulièrement à Compute Engine. À travers un ensemble de cours vidéo, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que des réseaux, des machines virtuelles et des services d'applications. Vous découvrirez comment utiliser Google Cloud via la console et Cloud Shell. Vous en apprendrez également plus sur le rôle d'un architecte cloud, sur les approches de la conception d'infrastructure et sur la configuration de réseaux virtuels avec Virtual Private Cloud (VPC), les projets, les réseaux, les sous-réseaux, les adresses IP, les routes et les règles de pare-feu.
"Concepts fondamentaux de Google Cloud : infrastructure de base" présente les concepts et les termes à connaître pour utiliser Google Cloud. À travers des vidéos et des ateliers pratiques, il décrit et compare la plupart des services Google Cloud de calcul et de stockage, ainsi que des outils importants de gestion des ressources et des règles.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.
Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.
Ce cours s'adresse particulièrement aux personnes qui travaillent dans les services technologiques ou financiers, et qui sont responsables de la gestion des coûts associés à Google Cloud. Vous apprendrez à configurer un compte de facturation, à organiser les ressources et à gérer les autorisations d'accès à la facturation. Dans les ateliers pratiques, vous découvrirez comment consulter votre facture, suivre vos coûts Google Cloud à l'aide de rapports de facturation, analyser vos données de facturation avec BigQuery ou Google Sheets, et créer des tableaux de bord de facturation personnalisés avec Looker Studio. Les liens mentionnés dans les vidéos sont accessibles dans le document Ressources supplémentaires.
This 1-week, accelerate course builds upon previous courses in the Data Engineering on Google Cloud Platform specialization. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn how to create and manage computing clusters to run Hadoop, Spark, Pig and/or Hive jobs on Google Cloud Platform. You will also learn how to access various cloud storage options from their compute clusters and integrate Google's machine learning capabilities into their analytics programs.
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.
Obtenez un badge de compétence en terminant le cours intermédiaire Créer et déployer des solutions de machine learning sur Vertex. Vous y apprendrez à utiliser la plate-forme Vertex AI de Google Cloud, AutoML et les services d'entraînement personnalisés pour entraîner, évaluer, régler, expliquer et déployer des modèles de machine learning. Ce cours, qui ouvre droit à un badge de compétence, est destiné aux data scientists et aux ingénieurs en machine learning. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.
Obtenez un badge de compétence avancé en suivant le cours Utiliser des API de machine learning sur Google Cloud, qui présente les fonctionnalités de base des technologies de machine learning et d'IA suivantes : l'API Cloud Vision, l'API Cloud Translation et l'API Cloud Natural Language.
Le cœur de Contact Center AI est son cœur de conversation, et ses interactions humaines redéfinissent les possibilités de conversations basées sur l'IA. Dans cette mission, vous apprendrez à créer un agent virtuel, à concevoir des flux de conversation votre agent virtuel et ajoutez une passerelle téléphonique à un agent virtuel. Terminez cette quête, y compris le Labo du défi à la fin, pour recevoir un badge numérique exclusif de Google Cloud. Le laboratoire de défi ne fournit pas d'étapes normatives, il nécessite la création de solutions avec un minimum de conseils et testera vos compétences en technologie Google Cloud.
Terminez le cours intermédiaire Optimiser les coûts pour Google Kubernetes Engine pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et la gestion de clusters mutualisés, la surveillance de l'utilisation des ressources par espace de noms, la configuration de l'autoscaling des pods et des clusters pour accroître l'efficacité, la configuration de l'équilibrage de charge pour distribuer les ressources de façon optimale et l'implémentation des vérifications d'activité et d'aptitude pour garantir l'intégrité ainsi que la rentabilité des applications.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.
Suivez le cours Développer votre réseau Google Cloud et obtenez un badge de compétence. Dans ce cours, vous avez appris plusieurs façons de déployer et de surveiller des applications. Pour cela, vous avez vu comment parcourir les rôles IAM et ajouter/supprimer l'accès au projet, créer des réseaux VPC, déployer et surveiller des VM Compute Engine, rédiger des requêtes SQL, déployer et surveiller des VM dans Compute Engine, mais aussi comment déployer des applications à l'aide de Kubernetes avec plusieurs approches de déploiement.
Earn a skill badge by completing the Explore Machine Learning Models with Explainable AI quest, where you will learn how to do the following using Explainable AI: build and deploy a model to an AI platform for serving (prediction), use the What-If Tool with an image recognition model, identify bias in mortgage data using the What-If Tool, and compare models using the What-If Tool to identify potential bias. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge quest and the final assessment challenge lab to receive a skill badge that you can share with your network.
Big data, machine learning et données scientifiques ? Il semble que ce soit la combinaison parfaite. Dans cette quête avancée, vous allez vous familiariser avec des services GCP tels que Big Query, Dataproc et Tensorflow, que vous appliquerez à des cas utilisant des ensembles de données scientifiques réelles. En vous faisant acquérir de l'expérience avec des tâches telles que l'analyse des données sismiques et l'agrégation d'images satellites, le traitement de données scientifiques développera vos compétences dans le domaine du Big data et du machine learning, et vous aidera à résoudre les problèmes que vous rencontrez dans différentes disciplines scientifiques.
Machine Learning is one of the most innovative fields in technology, and the Google Cloud Platform has been instrumental in furthering its development. With a host of APIs, Google Cloud has a tool for just about any machine learning job. In this advanced-level course, you will get hands-on practice with machine learning at scale and how to employ the advanced ML infrastructure available on Google Cloud.
TensorFlow is an open source software library for high performance numerical computation that's great for writing models that can train and run on platforms ranging from your laptop to a fleet of servers in the Cloud to an edge device. This quest takes you beyond the basics of using predefined models and teaches you how to build, train and deploy your own on Google Cloud.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
Dans ce cours, vous découvrirez la sécurité dans Kubernetes et Google Kubernetes Engine (GKE) (journaux et surveillance), ainsi que l'utilisation des services de stockage et de bases de données gérés Google Cloud à partir de GKE. Il s'agit du deuxième cours de la série "Concevoir une architecture avec Google Kubernetes Engine". Après l'avoir terminé, inscrivez-vous aux cours "Infrastructure Google Cloud fiable: conception et processus" ou "Hybrid Cloud Infrastructure Foundations with Anthos".
Le cours "Concevoir une architecture avec Google Kubernetes Engine : charges de travail" vous fera découvrir de manière très complète le développement d'applications cloud natives. Tout au long de votre formation, vous étudierez les opérations Kubernetes, la gestion des déploiements, la mise en réseau GKE et le stockage persistant. Il s'agit du premier cours de la série "Concevoir une architecture avec Google Kubernetes Engine". Après l'avoir terminé, inscrivez-vous au cours "Concevoir une architecture avec Google Kubernetes Engine : production".
Dans le cours "Concevoir une architecture avec Google Kubernetes Engine : principes de bases," nous allons vous présenter l'organisation et les principes de Google Cloud. Nous vous apprendrons ensuite à créer et gérer des conteneurs de logiciels, puis nous vous ferons découvrir l'architecture de Kubernetes.
Terminez le cours d'introduction Implémenter Cloud Load Balancing pour Compute Engine pour recevoir un badge démontrant vos compétences dans les domaines suivants : Créer et déployer des machines virtuelles dans Compute Engine Configurer des équilibreurs de charge réseau et d'application.
Kubernetes est le système d'orchestration de conteneurs le plus populaire, et Google Kubernetes Engine a été conçu spécifiquement pour les déploiements gérés de Kubernetes dans Google Cloud. Dans ce cours de niveau avancé, vous allez suivre des ateliers pratiques pour apprendre à configurer les images et les conteneurs Docker, ainsi qu'à déployer des applications Kubernetes Engine opérationnelles. Vous allez également acquérir les compétences nécessaires pour intégrer l'orchestration de conteneurs à votre propre workflow. Vous cherchez un atelier challenge pratique pour démontrer vos compétences et valider vos connaissances ? Suivez cet atelier challenge complémentaire après avoir terminé ce cours et le cours Déployer des applications Kubernetes sur Google Cloud pour recevoir un badge numérique Google Cloud exclusif.
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
Il n'a échappé à personne que le machine learning est une technologie très dynamique, et Google Cloud Platform a joué un rôle déterminant dans son développement. Doté d'une multitude d'API.
Aujourd'hui, le big data, le machine learning et l'intelligence artificielle sont des thèmes en vogue dans le domaine de l'informatique. Ce sont toutefois des disciplines pointues, pour lesquelles il n'est pas toujours simple de trouver des documents de référence. Heureusement, Google Cloud propose des services conviviaux dédiés, ainsi que ce cours d'introduction, pour vous aider à faire vos premiers pas avec des outils comme BigQuery, l'API Cloud Speech et Video Intelligence.
Cette quête fondamentale est unique parmi les autres offres Qwiklabs. Les ateliers ont été conçus pour former les professionnels de l'informatique aux thèmes et aux services figurant dans la certification Google Cloud.
Dans ce cours d'introduction, vous allez pouvoir vous familiariser avec les outils et services fondamentaux de Google Cloud. Des vidéos facultatives vous fourniront davantage de contexte et vous permettront de réviser les concepts abordés lors des ateliers pratiques. Ce premier cours sur les bases de Google Cloud est recommandé aux personnes qui s'intéressent à Google Cloud. Vous pouvez le suivre sans aucune connaissance (ou presque) du cloud et, à la fin, vous aurez acquis des compétences pratiques utiles pour lancer votre premier projet Google Cloud. De l'écriture de lignes de commande Cloud Shell au déploiement de votre première machine virtuelle en passant par l'exécution d'applications sur Kubernetes Engine ou avec l'équilibrage de charge, 'Les bases de Google Cloud' constitue une excellente introduction aux fonctionnalités de base de la plate-forme.