Santiago Carrillo
Date d'abonnement : 2025
Ligue de Diamant
11289 points
Date d'abonnement : 2025
Combinez l'expertise de Google dans les domaines de la recherche et de l'IA grâce à Gemini Enterprise. Cet outil puissant est conçu pour aider les collaborateurs à trouver des informations précises dans des documents stockés, des e-mails, des conversations, des systèmes de suivi des demandes et d'autres sources de données, le tout grâce à une simple barre de recherche. L'assistant Gemini Enterprise peut également les aider à trouver des idées, faire des recherches, résumer des documents et exécuter des tâches comme inviter des collègues à un événement d'agenda pour faciliter la collaboration et l'exploitation des connaissances. (Veuillez noter que Gemini Enterprise s'appelait auparavant Google Agentspace ; il se peut donc que ce cours contienne des références à l'ancien nom du produit.)
Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.
Dans ce cours, vous allez explorer l'ingénierie de données sur Google Cloud, les rôles et responsabilités des ingénieurs de données, et la façon dont ces éléments se retrouvent dans les offres Google Cloud. Vous apprendrez également à relever les défis liés à l'ingénierie de données.
Ce cours s'adresse aux analystes de données qui souhaitent apprendre à utiliser BigQuery pour leurs besoins d'analyse de données. À travers un ensemble de vidéos, d'ateliers et de démonstrations, nous aborderons différents sujets pour expliquer comment ingérer, transformer et interroger vos données dans BigQuery afin de dégager des insights qui contribuent à la prise de décisions commerciales.