Ritesh Tarway
Date d'abonnement : 2020
Ligue de bronze
33095 points
Date d'abonnement : 2020
Les cours Google Cloud Computing Foundations sont destinés aux personnes ayant peu ou pas de connaissances ni d'expérience dans le cloud computing. Ils offrent un aperçu des concepts de base du cloud, du big data et du machine learning, et expliquent où et comment Google Cloud s'y intègre. À la fin de cette série de cours, les participants seront à même de définir ces concepts et auront acquis des compétences pratiques. Les cours doivent être suivis dans cet ordre : 1. Google Cloud Computing Foundations : principes de base du cloud computing 2. Google Cloud Computing Foundations : infrastructure dans Google Cloud 3. Google Cloud Computing Foundations : mise en réseau et sécurité dans Google Cloud 4. Google Cloud Computing Foundations : données, ML et IA dans Google Cloud Ce premier cours offre une vue d’ensemble du cloud computing, des façons d’utiliser Google Cloud et des différentes options de calcul.
In this course you will learn how to use several BigQuery ML features to improve retail use cases. Predict the demand for bike rentals in NYC with demand forecasting, and see how to use BigQuery ML for a classification task that predicts the likelihood of a website visitor making a purchase.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.
This course aims to upskill Google Cloud partners to perform specific tasks in rehosting applications from on-premise to Google Cloud. It also aims to re-platform applications to run in GKE. Learners will perform the tasks of Migrating MySQL, Angular, and Java applications from their on-premise machines to Google Cloud VM instances. Sample code will be used during the migration.
Terminez le cours intermédiaire Développer des applications sans serveur sur Cloud Run pour recevoir un badge démontrant vos compétences dans les domaines suivants : l'intégration de Cloud Run à Cloud Storage pour la gestion des données, la conception de systèmes asynchrones résilients à l'aide de Cloud Run et Pub/Sub, la construction de passerelles API REST reposant sur Cloud Run, et la création et le déploiement de services sur Cloud Run.
Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.
Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.
Terminez le cours intermédiaire Implémenter des pratiques de base pour la sécurité du cloud sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'attribution de rôles avec Identity and Access Management (IAM) ; la création et la gestion de comptes de service ; l'activation d'une connectivité privée sur les réseaux de cloud privé virtuel (VPC) ; la restriction de l'accès aux applications avec Identity-Aware Proxy ; la gestion des clés et des données chiffrées avec Cloud Key Management Service (KMS) ; et la création d'un cluster Kubernetes privé.
Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Twelve years ago Lily started the Pet Theory chain of veterinary clinics, and has been expanding rapidly. Now, Pet Theory is experiencing some growing pains: their appointment scheduling system is not able to handle the increased load, customers aren't receiving lab results reliably through email and text, and veteranerians are spending more time with insurance companies than with their patients. Lily wants to build a cloud-based system that scales better than the legacy solution and doesn't require lots of ongoing maintenance. The team has decided to go with serverless technology. For the labs in the Google Cloud Run Serverless Quest, you will read through a fictitious business scenario in each lab and assist the characters in implementing a serverless solution. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of this quest to receive an exclusive Google…
Terminez le cours intermédiaire Développer des applications sans serveur avec Firebase pour recevoir un badge démontrant vos compétences dans les domaines suivants : la conception et la création d'applications Web sans serveur avec Firebase, l'utilisation de Firestore pour gérer des bases de données, l'automatisation des processus de déploiement à l'aide de Cloud Build et l'intégration des fonctionnalités de l'Assistant Google dans vos applications.
Terminez le cours intermédiaire Déployer des applications Kubernetes sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : la configuration et la création d'images de conteneur Docker, la création et la gestion de clusters Google Kubernetes Engine (GKE), l'utilisation de kubectl pour gérer efficacement les clusters et le déploiement d'applications Kubernetes en appliquant des pratiques de livraison continue (CD) robustes.
Ce cours accéléré à la demande présente aux participants les services complets et flexibles d'infrastructure et de plate-forme offerts par Google Cloud, en s'intéressant plus particulièrement à Compute Engine. À travers un ensemble de cours vidéo, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que des réseaux, des machines virtuelles et des services d'applications. Vous découvrirez comment utiliser Google Cloud via la console et Cloud Shell. Vous en apprendrez également plus sur le rôle d'un architecte cloud, sur les approches de la conception d'infrastructure et sur la configuration de réseaux virtuels avec Virtual Private Cloud (VPC), les projets, les réseaux, les sous-réseaux, les adresses IP, les routes et les règles de pare-feu.
"Concepts fondamentaux de Google Cloud : infrastructure de base" présente les concepts et les termes à connaître pour utiliser Google Cloud. À travers des vidéos et des ateliers pratiques, il décrit et compare la plupart des services Google Cloud de calcul et de stockage, ainsi que des outils importants de gestion des ressources et des règles.
Good news! There’s a new updated version of this learning path available for you!Open the new Professional Cloud Network Engineer Certification Learning Path to begin, once you’ve selected the new path all your current progress will be reflected in the new version.
This quest of "Challenge Labs" gives the student preparing for the Google Cloud Certified Professional Cloud Architect certification hands-on practice with common business/technology solutions using Google Cloud architectures. Challenge Labs do not provide the "cookbook" steps, but require solutions to be built with minimal guidance, across many Google Cloud technologies. All labs have activity tracking, and in order to earn this badge you must score 100% in each lab. This quest is not easy and will put your Google Cloud technology skills to the test! Be aware that while practice with these labs will increase your knowledge and abilities, additional study, experience, and background in cloud architecture is recommended to prepare for this certification. Complete this quest to receive an exclusive Google Cloud digital badge.
Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.