Rejoindre Se connecter

Juan Manuel Martinez Carrillo

Date d'abonnement : 2019

Ligue de Diamant

16255 points
Understanding LookML in Looker Earned déc. 26, 2024 EST
Préparer les données à utiliser pour les tableaux de bord et rapports Looker Earned déc. 24, 2024 EST
Ingénierie des données pour la modélisation prédictive avec BigQuery ML Earned jan. 6, 2024 EST
Google Cloud Big Data and Machine Learning Fundamentals - Français Earned jan. 5, 2024 EST
Traitement des données sans serveur avec Dataflow : principes de base Earned déc. 29, 2023 EST
Créer un entrepôt de données avec BigQuery Earned déc. 29, 2023 EST
Créer des pipelines de flux de données sur Google Cloud Earned déc. 29, 2023 EST
Créer des pipelines de données en batch sur Google Cloud Earned déc. 18, 2023 EST
Créer des lacs de données et des entrepôts de données sur Google Cloud Earned oct. 16, 2023 EDT

In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.

En savoir plus

Terminez le cours d'introduction Préparer les données à utiliser pour les tableaux de bord et rapports Looker pour recevoir un badge démontrant vos compétences dans les domaines suivants : le filtrage, le tri et le croisement de données ; la fusion des résultats de différentes explorations Looker ; et l'utilisation de fonctions et d'opérateurs pour créer des tableaux de bord et des rapports Looker en vue de l'analyse et de la visualisation des données.

En savoir plus

Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.

En savoir plus

Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.

En savoir plus

Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.

En savoir plus

Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.

En savoir plus

Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.

En savoir plus

Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.

En savoir plus

Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.

En savoir plus