Rejoindre Se connecter

Vincent Messika

Date d'abonnement : 2022

Ligue d'Argent

2400 points
BigQuery for Marketing Analysts Earned nov. 17, 2022 EST
Creating New BigQuery Datasets and Visualizing Insights - Français Earned nov. 15, 2022 EST
Créer un entrepôt de données avec BigQuery Earned nov. 14, 2022 EST
Préparer des données pour les API de ML sur Google Cloud Earned oct. 18, 2022 EDT
Traitement des données sans serveur avec Dataflow : principes de base Earned oct. 13, 2022 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - Français Earned oct. 11, 2022 EDT
Créer des pipelines de flux de données sur Google Cloud Earned oct. 5, 2022 EDT
Créer des pipelines de données en batch sur Google Cloud Earned sept. 29, 2022 EDT
BigQuery pour le machine learning Earned sept. 28, 2022 EDT
Créer des lacs de données et des entrepôts de données sur Google Cloud Earned sept. 25, 2022 EDT

Vous souhaitez générer des insights à partir de vos données marketing et créer des tableaux de bord ? Réunissez toutes vos données au même endroit afin d'effectuer des analyses à grande échelle et de créer des modèles. Apprenez à utiliser BigQuery et à interroger vos données pour créer des insights utiles, reproductibles et évolutifs. BigQuery est la base de données d'analyse à faible coût de Google, entièrement gérée et qui ne nécessite aucune opération (NoOps). Avec BigQuery, vous pouvez interroger des téraoctets de données sans avoir à gérer d'infrastructure ni faire appel à un administrateur de base de données. Basé sur le langage SQL et le modèle de paiement à l'usage, BigQuery vous permet de vous concentrer sur l'analyse des données pour en dégager des informations pertinentes.

En savoir plus

Ceci est le deuxième cours de la série "Data to Insights". Ici, nous verrons comment ingérer de nouveaux ensembles de données externes dans BigQuery et les visualiser avec Looker Studio. Nous aborderons également des concepts SQL intermédiaires, tels que les jointures et les unions de plusieurs tables, qui vous permettront d'analyser les données de différentes sources. Remarque : Même si vous avez des connaissances en SQL, certaines spécificités de BigQuery (comme la gestion du cache de requêtes et des caractères génériques de table) peuvent ne pas vous être familières.Une fois que vous aurez terminé ce cours, inscrivez-vous au cours "Achieving Advanced Insights with BigQuery".

En savoir plus

Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.

En savoir plus

Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.

En savoir plus

Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.

En savoir plus

Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.

En savoir plus

Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.

En savoir plus

Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.

En savoir plus

Créer des modèles de machine learning en quelques minutes au lieu de plusieurs heures grâce à SQL, ça vous intéresse ? BigQuery ML démocratise le machine learning en permettant aux analystes de données de créer, d'entraîner et d'évaluer des modèles de ML, puis de les utiliser pour faire des prédictions, en s'appuyant sur leurs outils SQL et leurs connaissances actuelles dans ce langage. Dans cette série d'ateliers, vous allez essayer différents types de modèles et apprendre ce qui caractérise un bon modèle.

En savoir plus

Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.

En savoir plus