Mettez en pratique vos connaissances sur les agents en créant, configurant et exécutant votre premier agent IA à l'aide d'Agent Development Kit (ADK) de Google. Dans ce cours pratique, vous configurerez un environnement de développement ADK complet, créerez des agents avec du code Python et une configuration YAML, et les exécuterez sur plusieurs interfaces. Vous découvrirez également les paramètres essentiels qui définissent le comportement de l'agent, en appliquant dans du code fonctionnel ce que vous avez appris dans le cours 1.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours est le premier sur les cinq que compte le certificat Google Cloud Data Analytics. Vous définirez le domaine de l'analyse de données cloud, et décrirez les rôles et responsabilités d'un analyste de données cloud dans l'acquisition, le stockage, le traitement et la visualisation des données. Vous étudierez l'architecture des outils Google Cloud tels que BigQuery et Cloud Storage, et verrez comment les utiliser efficacement pour structurer et présenter les données, ainsi que pour générer des rapports.
Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Terminez le cours d'introduction Dégager des insights des données BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : l'écriture de requêtes SQL, l'interrogation de tables publiques, le chargement d'exemples de données dans BigQuery, la résolution d'erreurs de syntaxe courantes avec l'outil de validation des requêtes de BigQuery et la création de rapports dans Looker Studio en se connectant aux données BigQuery.
Obtenez un badge de compétence en suivant le cours Analyse de flux dans BigQuery, où vous utiliserez Pub/Sub, Dataflow et BigQuery ensemble pour diffuser des données afin de les analyser.
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
Obtenez un badge de compétence en suivant le cours Partager des données avec Google Data Cloud. Vous pourrez ainsi acquérir une expérience pratique concernant les partenaires de partage de données Google Cloud, qui disposent d'ensembles de données propriétaires que les clients peuvent utiliser pour effectuer des analyses de données. Les clients s'abonnent à ces données et les interrogent dans leur propre plate-forme. Ils les enrichissent ensuite avec leurs propres ensembles de données et utilisent leurs outils de visualisation pour les tableaux de bord destinés à leur clientèle.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
This course consists of a series of labs, designed to provide the learner hands-on experience performing a variety of tasks pertaining to setup and maintenance of their Google VPC networks.
Terminez le cours intermédiaire Implémenter des pratiques de base pour la sécurité du cloud sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'attribution de rôles avec Identity and Access Management (IAM) ; la création et la gestion de comptes de service ; l'activation d'une connectivité privée sur les réseaux de cloud privé virtuel (VPC) ; la restriction de l'accès aux applications avec Identity-Aware Proxy ; la gestion des clés et des données chiffrées avec Cloud Key Management Service (KMS) ; et la création d'un cluster Kubernetes privé.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.
Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.
Race to the finish line with the Arcade June Speedrun and pick up valuable skills along with an exclusive Google Cloud Credential. Get hands-on experience with APIs, learn how to build a serverless app, and more! No prior experience needed.
Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.
Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.
Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.