Rejoindre Se connecter

Bayu Mahdhani

Date d'abonnement : 2024

Ligue de Diamant

12300 points
Créer des modèles de ML avec BigQuery ML Earned déc. 29, 2024 EST
Effectuer une analyse prédictive des données dans BigQuery Earned déc. 25, 2024 EST
Créer un entrepôt de données avec BigQuery Earned déc. 12, 2024 EST
Créer et gérer des instances Bigtable Earned déc. 2, 2024 EST
Créer et gérer des instances Cloud Spanner Earned nov. 5, 2024 EST
Créer des lacs de données et des entrepôts de données sur Google Cloud Earned avr. 8, 2024 EDT
Ingénierie des données pour la modélisation prédictive avec BigQuery ML Earned avr. 3, 2024 EDT
Natural Language Processing on Google Cloud Earned mars 30, 2024 EDT

Terminez le cours intermédiaire Créer des modèles de ML avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'évaluation de modèles de machine learning avec BigQuery ML pour générer des prédictions de données.

En savoir plus

Validez le cours intermédiaire Effectuer une analyse prédictive des données dans BigQuery pour recevoir un badge attestant de vos compétences dans les domaines suivants : créer des ensembles de données dans BigQuery en important des fichiers CSV et JSON ; utiliser des concepts d'analyse SQL sophistiqués dans BigQuery, y compris utiliser BigQuery ML pour entraîner un modèle de prédiction de buts à partir de données de rencontres de football et évaluer le caractère exceptionnel des buts marqués lors de la Coupe du monde.

En savoir plus

Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.

En savoir plus

Terminez le cours d'introduction Créer et gérer des instances Bigtable pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création d'instances, la conception de schémas, l'interrogation de données et la réalisation de tâches d'administration dans Bigtable, y compris la surveillance des performances et la configuration de l'autoscaling et de la réplication de nœuds.

En savoir plus

Terminez le cours d'introduction Créer et gérer des instances Cloud Spanner pour recevoir un badge démontrant vos compétences dans les domaines suivants : créer des instances et des bases de données Cloud Spanner et interagir avec elles ; charger des bases de données Cloud Spanner à l'aide de différentes techniques ; sauvegarder des bases de données Cloud Spanner, définir des schémas et comprendre les plans de requête ; déployer une application Web moderne connectée à une instance Cloud Spanner.

En savoir plus

Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.

En savoir plus

Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.

En savoir plus

This course introduces the products and solutions to solve NLP problems on Google Cloud. Additionally, it explores the processes, techniques, and tools to develop an NLP project with neural networks by using Vertex AI and TensorFlow.

En savoir plus