Rejoindre Se connecter

Bryan Au

Date d'abonnement : 2024

Ligue de Diamant

33975 points
Traitement des données sans serveur avec Dataflow : opérations Earned fév. 1, 2024 EST
Traitement des données sans serveur avec Dataflow : développer des pipelines Earned jan. 31, 2024 EST
Traitement des données sans serveur avec Dataflow : principes de base Earned jan. 24, 2024 EST
Smart Analytics, Machine Learning, and AI on Google Cloud - Français Earned jan. 24, 2024 EST
Créer des pipelines de flux de données sur Google Cloud Earned jan. 23, 2024 EST
Créer des pipelines de données en batch sur Google Cloud Earned jan. 22, 2024 EST
Créer des lacs de données et des entrepôts de données sur Google Cloud Earned jan. 16, 2024 EST
Google Cloud Big Data and Machine Learning Fundamentals - Français Earned jan. 15, 2024 EST
Se préparer à devenir Professional Data Engineer Earned jan. 12, 2024 EST
Appliquer les concepts avancés de LookML dans Looker Earned jan. 9, 2024 EST
Understanding LookML in Looker Earned jan. 9, 2024 EST
Créer des objets LookML dans Looker Earned jan. 9, 2024 EST
Préparer les données à utiliser pour les tableaux de bord et rapports Looker Earned jan. 8, 2024 EST
Developing Data Models with LookML Earned jan. 8, 2024 EST
Analyzing and Visualizing Data in Looker Earned jan. 8, 2024 EST
Introduction à l'analyse de données sur Google Cloud Earned jan. 5, 2024 EST

Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.

En savoir plus

Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.

En savoir plus

Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.

En savoir plus

Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.

En savoir plus

Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.

En savoir plus

Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.

En savoir plus

Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.

En savoir plus

Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.

En savoir plus

Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.

En savoir plus

Ce cours vous permettra d'acquérir une expérience pratique de l'application des concepts avancés de LookML dans Looker. Vous apprendrez à utiliser Liquid pour personnaliser et créer des dimensions et des mesures dynamiques, à créer des tables dérivées SQL dynamiques et natives personnalisées, et à utiliser extends pour modulariser votre code LookML.

En savoir plus

In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.

En savoir plus

Terminez le cours d'introduction Créer des objets LookML dans Looker pour recevoir un badge démontrant vos compétences dans les domaines suivants : créer des dimensions, des mesures, des vues et des tables dérivées ; définir des types de filtres et de mesures en fonction des exigences ; mettre à jour les dimensions et les mesures ; créer et affiner des explorations ; joindre des vues à des explorations existantes et choisir les objets LookML à créer en fonction des exigences métier.

En savoir plus

Terminez le cours d'introduction Préparer les données à utiliser pour les tableaux de bord et rapports Looker pour recevoir un badge démontrant vos compétences dans les domaines suivants : le filtrage, le tri et le croisement de données ; la fusion des résultats de différentes explorations Looker ; et l'utilisation de fonctions et d'opérateurs pour créer des tableaux de bord et des rapports Looker en vue de l'analyse et de la visualisation des données.

En savoir plus

This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.

En savoir plus

In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.

En savoir plus

Dans ce cours de niveau débutant, vous découvrirez le workflow d'analyse de données sur Google Cloud, ainsi que les outils que vous pouvez utiliser pour explorer, analyser et visualiser les données, et partager vos observations avec les personnes concernées. Grâce à une étude de cas, des ateliers pratiques, des leçons et des quiz/démos, ce cours vous montrera comment transformer des ensembles de données bruts en données exploitables dans des visualisations et des tableaux de bord percutants. Que vous travailliez déjà avec des données et souhaitiez apprendre à mettre Google Cloud pleinement à profit ou que vous cherchiez à progresser dans votre carrière, ce cours vous sera utile. La plupart des personnes qui effectuent ou utilisent des analyses de données dans leur travail en tireront des enseignements.

En savoir plus