Rejoindre Se connecter

Mario Caesar

Date d'abonnement : 2022

Ligue de Diamant

10710 points
Créer un maillage de données avec Dataplex Earned mars 17, 2026 EDT
Travailler avec des modèles Gemini dans BigQuery Earned mars 15, 2026 EDT
Traitement des données sans serveur avec Dataflow : opérations Earned mars 10, 2026 EDT
Booster la productivité avec Gemini dans BigQuery Earned mars 9, 2026 EDT
Traitement des données sans serveur avec Dataflow : développer des pipelines Earned mars 2, 2026 EST
Introduction à l'ingénierie des données sur Google Cloud Earned mars 2, 2026 EST
DEPRECATED Language, Speech, Text, & Translation with Google Cloud APIs Earned nov. 6, 2022 EST
Data Science on the Google Cloud Platform Earned nov. 4, 2022 EDT
Data Science sur la plateforme Google Cloud: Apprentissage automatique Earned nov. 2, 2022 EDT
Effectuer une analyse prédictive des données dans BigQuery Earned oct. 30, 2022 EDT
DEPRECATED Applying BigQuery ML's Classification, Regression, and Demand Forecasting for Retail Applications Earned oct. 30, 2022 EDT
API d'apprentissage automatique Earned oct. 30, 2022 EDT
Bases : Données, ML, IA Earned oct. 28, 2022 EDT
Créer des modèles de ML avec BigQuery ML Earned oct. 28, 2022 EDT
BigQuery pour le machine learning Earned oct. 28, 2022 EDT
Créer et déployer des solutions de machine learning sur Vertex Earned oct. 27, 2022 EDT
Préparer les données à utiliser pour les tableaux de bord et rapports Looker Earned oct. 26, 2022 EDT
Se préparer à devenir Professional Data Engineer Earned oct. 26, 2022 EDT
DEPRECATED BigQuery Basics for Data Analysts Earned oct. 20, 2022 EDT
Dégager des insights des données BigQuery Earned oct. 19, 2022 EDT
[DEPRECATED] Data Engineering Earned oct. 19, 2022 EDT
Ingénierie des données pour la modélisation prédictive avec BigQuery ML Earned oct. 19, 2022 EDT
Créer un entrepôt de données avec BigQuery Earned oct. 15, 2022 EDT
BigQuery for Data Warehousing Earned oct. 15, 2022 EDT
Préparer des données pour les API de ML sur Google Cloud Earned oct. 14, 2022 EDT
Traitement des données sans serveur avec Dataflow : principes de base Earned oct. 13, 2022 EDT
Créer des pipelines de flux de données sur Google Cloud Earned oct. 12, 2022 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Français Earned oct. 9, 2022 EDT
Créer des pipelines de données en batch sur Google Cloud Earned oct. 1, 2022 EDT
Créer des lacs de données et des entrepôts de données sur Google Cloud Earned sept. 24, 2022 EDT

Terminez le cours d'introduction Créer un maillage de données avec Dataplex pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création d'un maillage de données avec Dataplex pour faciliter la sécurité, la gouvernance et la découverte des données sur Google Cloud. Cela comprend l'ajout de tags à des éléments, l'attribution de rôles IAM et l'évaluation de la qualité des données dans Dataplex.

En savoir plus

Ce cours montre comment utiliser des modèles d'IA/de ML pour des tâches d'IA générative dans BigQuery. À travers un cas d'utilisation pratique faisant intervenir la gestion de la relation client, vous étudierez le workflow de résolution d'un problème métier à l'aide de modèles Gemini. Pour faciliter la compréhension, le cours fournit également des instructions détaillées tout au long du codage des solutions à l'aide de requêtes SQL et de Notebooks Python.

En savoir plus

Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.

En savoir plus

Ce cours présente Gemini dans BigQuery, une suite de fonctionnalités basées sur l'IA conçue pour faciliter le workflow "des données à l'IA". Ces fonctionnalités incluent l'exploration et la préparation des données, la génération et le dépannage de code, ainsi que la découverte et la visualisation du workflow. Au moyen d'explications conceptuelles, d'un cas d'utilisation concret et d'ateliers pratiques, le cours explique aux professionnels des données comment booster leur productivité et accélérer le pipeline de développement.

En savoir plus

Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.

En savoir plus

Dans ce cours, vous allez explorer l'ingénierie de données sur Google Cloud, les rôles et responsabilités des ingénieurs de données, et la façon dont ces éléments se retrouvent dans les offres Google Cloud. Vous apprendrez également à relever les défis liés à l'ingénierie de données.

En savoir plus

In this quest you will use a collection of Google APIs that are all related to language, and speech. You will use the Speech-to-Text API to transcribe an audio file into a text file, the Cloud Translation API to translate from one language to another, the Cloud Translation API to detect what language is being used and translate to a different language, the Natural Language API to classify text and analyze sentiment, and create synthetic speech.

En savoir plus

Cette quête est la première d'une série de deux comprenant des ateliers pratiques tirés d'exercices disponibles dans l'ouvrage Data Science on Google Cloud Platform de Valliappa Lakshmanan, publié par O'Reilly Media, Inc. Dans cette première quête, qui couvre les chapitres 1 à 8, vous découvrez tous les aspects de l'ingestion, de la préparation, du traitement, de l'interrogation, de l'exploration et de la visualisation des ensembles de données à l'aide des outils et des services de Google Cloud Platform.

En savoir plus

Il s'agit de la deuxième quête des ateliers dérivés des exercices du livre Data Science on Google Cloud Platform de Valliappa Lakshmanan, publié par O'Reilly Media, Inc. Dans cette seconde quête, qui couvre du chapitre neuf à la fin du livre, vous développez les compétences acquises lors de la première quête et exécutez des tâches de machine learning de A à Z avec des outils de pointe et des ensembles de données réels, le tout à l'aide des outils et services de Google Cloud Platform.

En savoir plus

Validez le cours intermédiaire Effectuer une analyse prédictive des données dans BigQuery pour recevoir un badge attestant de vos compétences dans les domaines suivants : créer des ensembles de données dans BigQuery en important des fichiers CSV et JSON ; utiliser des concepts d'analyse SQL sophistiqués dans BigQuery, y compris utiliser BigQuery ML pour entraîner un modèle de prédiction de buts à partir de données de rencontres de football et évaluer le caractère exceptionnel des buts marqués lors de la Coupe du monde.

En savoir plus

In this course you will learn how to use several BigQuery ML features to improve retail use cases. Predict the demand for bike rentals in NYC with demand forecasting, and see how to use BigQuery ML for a classification task that predicts the likelihood of a website visitor making a purchase.

En savoir plus

Il n'a échappé à personne que le machine learning est une technologie très dynamique, et Google Cloud Platform a joué un rôle déterminant dans son développement. Doté d'une multitude d'API.

En savoir plus

Aujourd'hui, le big data, le machine learning et l'intelligence artificielle sont des thèmes en vogue dans le domaine de l'informatique. Ce sont toutefois des disciplines pointues, pour lesquelles il n'est pas toujours simple de trouver des documents de référence. Heureusement, Google Cloud propose des services conviviaux dédiés, ainsi que ce cours d'introduction, pour vous aider à faire vos premiers pas avec des outils comme BigQuery, l'API Cloud Speech et Video Intelligence.

En savoir plus

Terminez le cours intermédiaire Créer des modèles de ML avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'évaluation de modèles de machine learning avec BigQuery ML pour générer des prédictions de données.

En savoir plus

Créer des modèles de machine learning en quelques minutes au lieu de plusieurs heures grâce à SQL, ça vous intéresse ? BigQuery ML démocratise le machine learning en permettant aux analystes de données de créer, d'entraîner et d'évaluer des modèles de ML, puis de les utiliser pour faire des prédictions, en s'appuyant sur leurs outils SQL et leurs connaissances actuelles dans ce langage. Dans cette série d'ateliers, vous allez essayer différents types de modèles et apprendre ce qui caractérise un bon modèle.

En savoir plus

Obtenez un badge de compétence en terminant le cours intermédiaire Créer et déployer des solutions de machine learning sur Vertex. Vous y apprendrez à utiliser la plate-forme Vertex AI de Google Cloud, AutoML et les services d'entraînement personnalisés pour entraîner, évaluer, régler, expliquer et déployer des modèles de machine learning. Ce cours, qui ouvre droit à un badge de compétence, est destiné aux data scientists et aux ingénieurs en machine learning. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.

En savoir plus

Terminez le cours d'introduction Préparer les données à utiliser pour les tableaux de bord et rapports Looker pour recevoir un badge démontrant vos compétences dans les domaines suivants : le filtrage, le tri et le croisement de données ; la fusion des résultats de différentes explorations Looker ; et l'utilisation de fonctions et d'opérateurs pour créer des tableaux de bord et des rapports Looker en vue de l'analyse et de la visualisation des données.

En savoir plus

Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.

En savoir plus

Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.

En savoir plus

Terminez le cours d'introduction Dégager des insights des données BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : l'écriture de requêtes SQL, l'interrogation de tables publiques, le chargement d'exemples de données dans BigQuery, la résolution d'erreurs de syntaxe courantes avec l'outil de validation des requêtes de BigQuery et la création de rapports dans Looker Studio en se connectant aux données BigQuery.

En savoir plus

This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.

En savoir plus

Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.

En savoir plus

Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.

En savoir plus

Vous voulez créer un entrepôt de données ou l'optimiser ? Découvrez les bonnes pratiques d'extraction, de transformation et de chargement des données dans Google Cloud avec BigQuery. Dans cette série d'ateliers interactifs, vous allez créer votre propre entrepôt de données et l'optimiser en utilisant différents ensembles de données publics à grande échelle de BigQuery. BigQuery est la base de données d'analyse à faible coût de Google, entièrement gérée et qui ne nécessite aucune opération (NoOps). Avec BigQuery, vous pouvez interroger des téraoctets de données sans avoir à gérer d'infrastructure ni faire appel à un administrateur de base de données. Basé sur le langage SQL et le modèle de paiement à l'usage, BigQuery vous permet de vous concentrer sur l'analyse des données pour en dégager des informations pertinentes.

En savoir plus

Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.

En savoir plus

Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.

En savoir plus

Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.

En savoir plus

Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.

En savoir plus

Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.

En savoir plus

Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.

En savoir plus