Dans bien des services informatiques, il existe des divergences entre les avantages souhaités par les développeurs, à savoir l'agilité, et ceux des opérateurs, qui recherchent la stabilité. L'ingénierie de la fiabilité des sites (SRE) permet à Google d'aligner les mesures incitatives entre le développement et les opérations, et de proposer une assistance à la production critique. Adopter des pratiques techniques et culturelles de l'ingénierie SRE permet d'améliorer la collaboration entre les équipes métiers et informatiques. Ce cours présente les pratiques clés de l'ingénierie SRE façon Google, ainsi que le rôle déterminant que jouent les responsables IT et les chefs d'entreprise dans la réussite de son adoption au sein de leur organisation.
"Concepts fondamentaux de Google Cloud : infrastructure de base" présente les concepts et les termes à connaître pour utiliser Google Cloud. À travers des vidéos et des ateliers pratiques, il décrit et compare la plupart des services Google Cloud de calcul et de stockage, ainsi que des outils importants de gestion des ressources et des règles.
Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Les organisations de toutes tailles exploitent le potentiel et la flexibilité du cloud afin de transformer leurs opérations. Toutefois, la gestion et le scaling des ressources cloud peuvent s'avérer complexes. "Scaling avec la suite Google Cloud Operations" présente les concepts fondamentaux des opérations modernes, de la fiabilité et de la résilience dans le cloud, ainsi que la manière dont Google Cloud peut vous aider à atteindre ces objectifs. Ce cours fait partie du parcours de formation Cloud Digital Leader. Il vise à aider les participants à évoluer dans leur poste et à bâtir l'avenir de leur entreprise.
Les organisations qui migrent des données et des applications vers le cloud font face à de nouveaux défis en termes de sécurité. Le cours "Confiance et sécurité avec Google Cloud" présente les principes de base de la sécurité dans le cloud, les avantages de l'approche multicouche de Google Cloud concernant la sécurité de l'infrastructure, et la manière dont Google gagne et conserve la confiance des clients vis-à-vis du cloud. Ce cours fait partie du parcours de formation Cloud Digital Leader. Il vise à aider les participants à évoluer dans leur poste et à bâtir l'avenir de leur entreprise.
De nombreuses entreprises traditionnelles utilisent d'anciens systèmes et d'anciennes applications qui ne peuvent plus satisfaire les attentes des clients d'aujourd'hui. Les chefs d'entreprise doivent régulièrement choisir entre deux options : entretenir leurs systèmes informatiques vieillissants ou investir dans de nouveaux produits et services. Le cours "Moderniser l'infrastructure et les applications avec Google Cloud" aborde ces problématiques et propose des solutions pour les résoudre à l'aide de la technologie cloud. Ce cours fait partie du parcours de formation Cloud Digital Leader. Il vise à aider les participants à évoluer dans leur poste et à bâtir l'avenir de leur entreprise.
L'intelligence artificielle (IA) et le machine learning (ML) représentent une évolution importante de l'informatique et transforment rapidement un grand nombre de secteurs. Le cours "Innover avec l'intelligence artificielle de Google Cloud" explore comment les organisations peuvent utiliser l'IA et le ML pour repenser leurs processus métier. Ce cours fait partie du parcours de formation Cloud Digital Leader. Il vise à aider les participants à évoluer dans leur poste et à bâtir l'avenir de leur entreprise.
La technologie cloud est une grande source de valeur pour les entreprises. En combinant le potentiel de cette technologie avec celui des données, il est possible de créer encore plus de valeur et d'offrir de nouvelles expériences client. "Explorer la transformation des données avec Google Cloud" vous fait découvrir la valeur que les données peuvent apporter à une entreprise et les façons dont Google Cloud peut les rendre utiles et accessibles. Ce cours fait partie du parcours de formation Cloud Digital Leader. Il a pour but d'aider les participants à évoluer dans leur poste et à façonner l'avenir de leur entreprise.
La technologie cloud et la transformation numérique suscitent beaucoup d'enthousiasme, mais elles génèrent aussi souvent beaucoup de questions laissées sans réponse. Par exemple : Qu'est-ce que la technologie cloud ? Qu'entend-on par transformation numérique ? Que peut vous apporter la technologie cloud ? Et par où commencer ? Si vous vous êtes déjà posé une de ces questions, vous êtes au bon endroit. Ce cours offre un aperçu des opportunités et des défis que les entreprises peuvent rencontrer lors de leur transformation numérique. Si vous souhaitez découvrir les technologies cloud afin de pouvoir exceller dans votre rôle et contribuer à bâtir l'avenir de votre entreprise, ce cours d'introduction sur la transformation numérique est pour vous. Il fait partie du parcours de formation Cloud Digital Leader.
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.
Ce cours offre un aperçu de l'architecture encodeur/décodeur, une architecture de machine learning performante souvent utilisée pour les tâches "seq2seq", telles que la traduction automatique, la synthèse de texte et les questions-réponses. Vous découvrirez quels sont les principaux composants de l'architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Dans le tutoriel d'atelier correspondant, vous utiliserez TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro.
Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.
Ce cours présente les modèles de diffusion, une famille de modèles de machine learning qui s'est récemment révélée prometteuse dans le domaine de la génération d'images. Les modèles de diffusion trouvent leur origine dans la physique, et plus précisément dans la thermodynamique. Au cours des dernières années, ils ont gagné en popularité dans la recherche et l'industrie. Ils sont à la base de nombreux modèles et outils Google Cloud avancés de génération d'images. Ce cours vous présente les bases théoriques des modèles de diffusion, et vous explique comment les entraîner et les déployer sur Vertex AI.
Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.
Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.
Le cours commence par une discussion sur les données : vous découvrirez comment améliorer leur qualité et effectuer des analyses exploratoires. Ensuite, nous vous présenterons Vertex AI AutoML et vous expliquerons comment créer, entraîner et déployer un modèle de machine learning (ML) sans écrire une ligne de code. Vous découvrirez également les avantages de BigQuery ML. Enfin, nous verrons comment optimiser un modèle de ML, et en quoi la généralisation ainsi que l'échantillonnage peuvent vous aider à évaluer la qualité des modèles de ML destinés à un entraînement personnalisé.
Quelles sont les bonnes pratiques pour implémenter le machine learning sur Google Cloud ? En quoi consiste la plate-forme Vertex AI et comment pouvez-vous l'utiliser pour créer, entraîner et déployer rapidement des modèles de machine learning AutoML sans écrire une seule ligne de code ? Qu'est-ce que le machine learning et quels types de problèmes permet-il de résoudre ? Google aborde le machine learning d'une façon particulière, qui consiste à fournir une plate-forme unifiée pour les ensembles de données gérés, ainsi qu'un magasin de caractéristiques et un moyen de créer, d'entraîner et de déployer des modèles de machine learning sans écrire une seule ligne de code. Il s'agit également de permettre aux utilisateurs d'étiqueter les données et de créer des notebooks Workbench à l'aide de frameworks tels que TensorFlow, Scikit Learn, Pytorch et R. Avec notre plate-forme Vertex AI, il est également possible d'entraîner des modèles personnalisés, de créer des pipelines de composants, …
Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.
Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.
Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.