Rejoindre Se connecter

Axel Vargas

Date d'abonnement : 2025

Travailler avec des modèles Gemini dans BigQuery Earned fév. 25, 2026 EST
Booster la productivité avec Gemini dans BigQuery Earned fév. 24, 2026 EST
Créer des pipelines de données en batch sur Google Cloud Earned fév. 20, 2026 EST
Créer des pipelines de flux de données sur Google Cloud Earned fév. 6, 2026 EST
Créer des lacs de données et des entrepôts de données sur Google Cloud Earned jan. 21, 2026 EST
Introduction à l'ingénierie des données sur Google Cloud Earned mai 6, 2025 EDT
Créer un entrepôt de données avec BigQuery Earned avr. 30, 2025 EDT

Ce cours montre comment utiliser des modèles d'IA/de ML pour des tâches d'IA générative dans BigQuery. À travers un cas d'utilisation pratique faisant intervenir la gestion de la relation client, vous étudierez le workflow de résolution d'un problème métier à l'aide de modèles Gemini. Pour faciliter la compréhension, le cours fournit également des instructions détaillées tout au long du codage des solutions à l'aide de requêtes SQL et de Notebooks Python.

En savoir plus

Ce cours présente Gemini dans BigQuery, une suite de fonctionnalités basées sur l'IA conçue pour faciliter le workflow "des données à l'IA". Ces fonctionnalités incluent l'exploration et la préparation des données, la génération et le dépannage de code, ainsi que la découverte et la visualisation du workflow. Au moyen d'explications conceptuelles, d'un cas d'utilisation concret et d'ateliers pratiques, le cours explique aux professionnels des données comment booster leur productivité et accélérer le pipeline de développement.

En savoir plus

Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.

En savoir plus

Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.

En savoir plus

Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.

En savoir plus

Dans ce cours, vous allez explorer l'ingénierie de données sur Google Cloud, les rôles et responsabilités des ingénieurs de données, et la façon dont ces éléments se retrouvent dans les offres Google Cloud. Vous apprendrez également à relever les défis liés à l'ingénierie de données.

En savoir plus

Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.

En savoir plus