Markos Muche
Date d'abonnement : 2022
Ligue d'Or
73775 points
Date d'abonnement : 2022
Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.
Ce cours offre un aperçu de l'architecture encodeur/décodeur, une architecture de machine learning performante souvent utilisée pour les tâches "seq2seq", telles que la traduction automatique, la synthèse de texte et les questions-réponses. Vous découvrirez quels sont les principaux composants de l'architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Dans le tutoriel d'atelier correspondant, vous utiliserez TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro.
Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.
Ce cours présente les modèles de diffusion, une famille de modèles de machine learning qui s'est récemment révélée prometteuse dans le domaine de la génération d'images. Les modèles de diffusion trouvent leur origine dans la physique, et plus précisément dans la thermodynamique. Au cours des dernières années, ils ont gagné en popularité dans la recherche et l'industrie. Ils sont à la base de nombreux modèles et outils Google Cloud avancés de génération d'images. Ce cours vous présente les bases théoriques des modèles de diffusion, et vous explique comment les entraîner et les déployer sur Vertex AI.
Dans ce cours de niveau débutant, vous découvrirez le workflow d'analyse de données sur Google Cloud, ainsi que les outils que vous pouvez utiliser pour explorer, analyser et visualiser les données, et partager vos observations avec les personnes concernées. Grâce à une étude de cas, des ateliers pratiques, des leçons et des quiz/démos, ce cours vous montrera comment transformer des ensembles de données bruts en données exploitables dans des visualisations et des tableaux de bord percutants. Que vous travailliez déjà avec des données et souhaitiez apprendre à mettre Google Cloud pleinement à profit ou que vous cherchiez à progresser dans votre carrière, ce cours vous sera utile. La plupart des personnes qui effectuent ou utilisent des analyses de données dans leur travail en tireront des enseignements.
Terminez le cours d'introduction Créer un maillage de données avec Dataplex pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création d'un maillage de données avec Dataplex pour faciliter la sécurité, la gouvernance et la découverte des données sur Google Cloud. Cela comprend l'ajout de tags à des éléments, l'attribution de rôles IAM et l'évaluation de la qualité des données dans Dataplex.
Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.
Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.
Enterprise data sharing made easy with Dataplex and Analytics Hub Learn how to share data securely in your lakehouse with minimized data duplication and more data governance through Dataplex and Analytics Hub - enterprise data management made easy. Creating Data Pipelines with Data Fusion In this session, we will explore using Data Fusion to create code-free point and click pipelines that can ETL high-volumes of data with support for popular data sources, including file systems and object stores, relational and NoSQL databases, and SaaS systems.
Le troisième cours de cette série s'intitule "Achieving Advanced Insights with BigQuery". Notre objectif est ici d'approfondir vos connaissances en SQL en abordant en détail les fonctions avancées et en vous apprenant à décomposer les requêtes complexes en étapes faciles à gérer. Nous allons étudier l'architecture interne de BigQuery (stockage segmenté basé sur des colonnes), ainsi que des concepts SQL avancés tels que les champs imbriqués et répétés, en utilisant pour cela des objets ARRAY et STRUCT. Pour finir, nous verrons comment optimiser les performances de vos requêtes et sécuriser vos données à l'aide des vues autorisées.Une fois que vous aurez terminé ce cours, inscrivez-vous au cours "Applying Machine Learning to Your Data with Google Cloud".
Ce cours aborde les principes de base de BigQuery pour les professionnels qui connaissent les entrepôts de données cloud basés sur SQL dans Redshift et qui souhaitent commencer à travailler dans BigQuery. Grâce à des contenus de cours interactifs et des ateliers pratiques, vous apprendrez à provisionner des ressources, à créer et à partager des assets de données, à ingérer des données et à optimiser les performances des requêtes dans BigQuery. En vous appuyant sur vos connaissances de Redshift, vous découvrirez également les similitudes et les différences entre Redshift et BigQuery pour faciliter votre prise en main des entrepôts de données dans BigQuery.
Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.
Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.
Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.
Suivez le cours Configurer un réseau Google Cloud et obtenez un badge de compétence. Vous allez apprendre à effectuer des tâches élémentaires de gestion de réseaux sur Google Cloud Platform : créer un réseau personnalisé, ajouter des règles de pare-feu de sous-réseau, puis créer des VM et tester la latence lorsqu'elles communiquent entre elles.
Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.
Ce cours aide les participants à créer un plan de formation pour l'examen de certification qui permet de devenir Professional Cloud Architect. Ils découvriront l'ampleur et le champ d'application des domaines abordés lors de l'examen. Ils détermineront s'ils sont prêts à passer l'examen et créeront leur propre plan de formation.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Bienvenue dans le cours "Premiers pas avec Google Kubernetes Engine". Si vous vous intéressez à Kubernetes, une couche logicielle située entre vos applications et votre infrastructure matérielle, vous êtes au bon endroit. Google Kubernetes Engine vous permet d'accéder à Kubernetes en tant que service géré sur Google Cloud. L'objectif de ce cours est de vous présenter les principes de base de Google Kubernetes Engine (GKE), et de vous apprendre à conteneuriser et exécuter des applications dans Google Cloud. Le cours commence par une introduction aux principes de base de Google Cloud, puis se poursuit par une présentation des conteneurs et de Kubernetes, de l'architecture de Kubernetes et des opérations Kubernetes.
Ce cours permet aux participants d'apprendre à créer des solutions hautement fiables et efficaces sur Google Cloud en s'appuyant sur des modèles de conception éprouvés. Il s'inscrit dans la continuité des cours "Concevoir une architecture avec Google Compute Engine" et "Concevoir une architecture avec Google Kubernetes Engine" et demande une expérience pratique des technologies abordées dans chaque cours. À travers un ensemble de présentations, d'activités de conception et d'ateliers pratiques, les participants apprennent à définir des exigences techniques et commerciales, et à trouver un équilibre entre elles pour concevoir des déploiements Google Cloud hautement fiables et disponibles, sécurisés et économes.
Ce cours accéléré à la demande présente aux participants l'infrastructure complète et flexible de Google Cloud Platform ainsi que les services de plate-forme fournis, en s'intéressant plus particulièrement à Compute Engine. À travers un ensemble de vidéos de présentation, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que les réseaux, les systèmes et les services applicatifs. Ce cours aborde également le déploiement de solutions pratiques, telles que les clés de chiffrement fournies par le client, la gestion de la sécurité et des accès, les quotas et la facturation, ainsi que la surveillance des ressources.
Ce cours accéléré à la demande présente aux participants les services complets et flexibles d'infrastructure et de plate-forme offerts par Google Cloud, en s'intéressant plus particulièrement à Compute Engine. À travers un ensemble de cours vidéo, de démonstrations et d'ateliers pratiques, les participants découvrent et déploient des éléments de solution, y compris des composants d'infrastructure tels que des réseaux, des machines virtuelles et des services d'applications. Vous découvrirez comment utiliser Google Cloud via la console et Cloud Shell. Vous en apprendrez également plus sur le rôle d'un architecte cloud, sur les approches de la conception d'infrastructure et sur la configuration de réseaux virtuels avec Virtual Private Cloud (VPC), les projets, les réseaux, les sous-réseaux, les adresses IP, les routes et les règles de pare-feu.
"Concepts fondamentaux de Google Cloud : infrastructure de base" présente les concepts et les termes à connaître pour utiliser Google Cloud. À travers des vidéos et des ateliers pratiques, il décrit et compare la plupart des services Google Cloud de calcul et de stockage, ainsi que des outils importants de gestion des ressources et des règles.
This course offers hands-on practice with migrating MySQL data to Cloud SQL using Database Migration Service. You start with an introductory lab that briefly reviews how to get started with Cloud SQL for MySQL, including how to connect to Cloud SQL instances using the Cloud Console. Then, you continue with two labs focused on migrating MySQL databases to Cloud SQL using different job types and connectivity options available in Database Migration Service. The course ends with a lab on migrating MySQL user data when running Database Migration Service jobs.
Terminez le cours intermédiaire Créer une infrastructure avec Terraform sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : les principes d'Infrastructure as Code (IaC) avec Terraform, le provisionnement et la gestion des ressources Google Cloud avec des configurations Terraform, la gestion efficace des états (local et distant) et la modularisation du code Terraform à des fins de réutilisabilité et d'organisation.
Suivez le cours Développer votre réseau Google Cloud et obtenez un badge de compétence. Dans ce cours, vous avez appris plusieurs façons de déployer et de surveiller des applications. Pour cela, vous avez vu comment parcourir les rôles IAM et ajouter/supprimer l'accès au projet, créer des réseaux VPC, déployer et surveiller des VM Compute Engine, rédiger des requêtes SQL, déployer et surveiller des VM dans Compute Engine, mais aussi comment déployer des applications à l'aide de Kubernetes avec plusieurs approches de déploiement.
Ce cours présente les fonctionnalités d'IA et de machine learning (ML) de Google Cloud, en mettant l'accent sur le développement de projets d'IA prédictive et générative. Il explore les différentes technologies, produits et outils disponibles tout au long du cycle de vie des données à l'IA, et permet aux data scientists, aux développeurs d'IA et aux ingénieurs en ML d'améliorer leur expertise grâce à des exercices interactifs.
Suivez le cours Configurer un environnement de développement d'applications sur Google Cloud et obtenez un badge de compétence. Dans ce cours, vous apprendrez à créer et connecter une infrastructure cloud axée sur le stockage à l'aide des fonctionnalités de base des technologies suivantes Cloud Storage, Identity and Access Management, Cloud Functions et Pub/Sub.
Terminez le cours d'introduction Implémenter Cloud Load Balancing pour Compute Engine pour recevoir un badge démontrant vos compétences dans les domaines suivants : Créer et déployer des machines virtuelles dans Compute Engine Configurer des équilibreurs de charge réseau et d'application.
Dans ce cours d'introduction, vous allez pouvoir vous familiariser avec les outils et services fondamentaux de Google Cloud. Des vidéos facultatives vous fourniront davantage de contexte et vous permettront de réviser les concepts abordés lors des ateliers pratiques. Ce premier cours sur les bases de Google Cloud est recommandé aux personnes qui s'intéressent à Google Cloud. Vous pouvez le suivre sans aucune connaissance (ou presque) du cloud et, à la fin, vous aurez acquis des compétences pratiques utiles pour lancer votre premier projet Google Cloud. De l'écriture de lignes de commande Cloud Shell au déploiement de votre première machine virtuelle en passant par l'exécution d'applications sur Kubernetes Engine ou avec l'équilibrage de charge, 'Les bases de Google Cloud' constitue une excellente introduction aux fonctionnalités de base de la plate-forme.