Rejoindre Se connecter

Martin Frey

Date d'abonnement : 2023

Créer un entrepôt de données avec BigQuery Earned mars 14, 2026 EDT
Créer des modèles de création de légendes pour les images Earned déc. 16, 2025 EST
Modèles Transformer et modèle BERT Earned déc. 15, 2025 EST
Architecture encodeur/décodeur Earned déc. 14, 2025 EST
Traitement des données sans serveur avec Dataflow : opérations Earned déc. 14, 2025 EST
Mécanisme d'attention Earned déc. 12, 2025 EST
Introduction à la génération d'images Earned déc. 12, 2025 EST
Traitement des données sans serveur avec Dataflow : développer des pipelines Earned déc. 8, 2025 EST
Traitement des données sans serveur avec Dataflow : principes de base Earned nov. 27, 2025 EST
Se préparer à devenir Professional Data Engineer Earned nov. 27, 2025 EST
Créer des pipelines de flux de données sur Google Cloud Earned nov. 26, 2025 EST
Présentation de l'IA générative Earned nov. 19, 2025 EST
Machine Learning Operations (MLOps) pour l'IA générative Earned nov. 19, 2025 EST
Agents d'IA générative : transformer l'entreprise Earned nov. 19, 2025 EST
Applications d'IA générative : changez votre façon de travailler Earned nov. 18, 2025 EST
IA générative : se familiariser avec le domaine Earned nov. 17, 2025 EST
IA générative : découvrir les concepts fondamentaux Earned nov. 16, 2025 EST
Créer des pipelines de données en batch sur Google Cloud Earned nov. 16, 2025 EST
IA générative : au-delà du chatbot Earned nov. 15, 2025 EST
Créer des lacs de données et des entrepôts de données sur Google Cloud Earned nov. 12, 2025 EST
Introduction à l'ingénierie des données sur Google Cloud Earned nov. 7, 2025 EST

Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.

En savoir plus

Dans ce cours, vous allez apprendre à créer un modèle de sous-titrage d'images à l'aide du deep learning. Vous découvrirez les différents composants de ce type de modèle, comme l'encodeur et le décodeur, et comment l'entraîner et l'évaluer. À la fin du cours, vous serez en mesure de créer vos propres modèles de sous-titrage d'images et de les utiliser pour générer des sous-titres pour des images.

En savoir plus

Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.

En savoir plus

Ce cours offre un aperçu de l'architecture encodeur/décodeur, une architecture de machine learning performante souvent utilisée pour les tâches "seq2seq", telles que la traduction automatique, la synthèse de texte et les questions-réponses. Vous découvrirez quels sont les principaux composants de l'architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Dans le tutoriel d'atelier correspondant, vous utiliserez TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro.

En savoir plus

Dans le dernier volet de la série de cours sur Dataflow, nous allons présenter les composants du modèle opérationnel de Dataflow. Nous examinerons les outils et techniques permettant de résoudre les problèmes et d'optimiser les performances des pipelines. Nous passerons ensuite en revue les bonnes pratiques en matière de test, de déploiement et de fiabilité pour les pipelines Dataflow. Nous terminerons par une présentation des modèles, qui permettent de faire évoluer facilement les pipelines Dataflow pour les adapter aux organisations comptant des centaines d'utilisateurs. Ces leçons vous aideront à vous assurer que votre plate-forme de données est stable et résiliente face aux imprévus.

En savoir plus

Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.

En savoir plus

Ce cours présente les modèles de diffusion, une famille de modèles de machine learning qui s'est récemment révélée prometteuse dans le domaine de la génération d'images. Les modèles de diffusion trouvent leur origine dans la physique, et plus précisément dans la thermodynamique. Au cours des dernières années, ils ont gagné en popularité dans la recherche et l'industrie. Ils sont à la base de nombreux modèles et outils Google Cloud avancés de génération d'images. Ce cours vous présente les bases théoriques des modèles de diffusion, et vous explique comment les entraîner et les déployer sur Vertex AI.

En savoir plus

Dans ce deuxième volet de la série de cours sur Dataflow, nous allons nous intéresser de plus près au développement de pipelines à l'aide du SDK Beam. Nous allons commencer par passer en revue les concepts d'Apache Beam. Nous allons ensuite parler du traitement des données par flux à l'aide de fenêtres, de filigranes et de déclencheurs. Nous passerons ensuite aux options de sources et de récepteurs dans vos pipelines, aux schémas pour présenter vos données structurées, et nous verrons comment effectuer des transformations avec état à l'aide des API State et Timer. Nous aborderons ensuite les bonnes pratiques qui vous aideront à maximiser les performances de vos pipelines. Vers la fin du cours, nous présentons le langage SQL et les DataFrames pour représenter votre logique métier dans Beam, et nous expliquons comment développer des pipelines de manière itérative à l'aide des notebooks Beam.

En savoir plus

Ce cours est le premier d'une série en trois volets sur le traitement des données sans serveur avec Dataflow. Dans ce premier cours, nous allons commencer par rappeler ce qu'est Apache Beam et sa relation avec Dataflow. Ensuite, nous aborderons la vision d'Apache Beam et les avantages de son framework de portabilité, qui permet aux développeurs d'utiliser le langage de programmation et le backend d'exécution de leur choix. Nous vous montrerons aussi comment séparer le calcul du stockage et économiser de l'argent grâce à Dataflow, puis nous examinerons les interactions entre les outils de gestion de l'identification et des accès avec vos pipelines Dataflow. Enfin, nous verrons comment implémenter le modèle de sécurité adapté à votre cas d'utilisation sur Dataflow.

En savoir plus

Ce cours a pour objectif d'aider les participants à créer un plan de formation pour l'examen de certification Professional Data Engineer. Les participants découvriront l'étendue et le champ d'application des domaines abordés lors de l'examen, puis évalueront leur niveau de préparation à l'examen et créeront leur propre plan de formation.

En savoir plus

Dans ce cours, vous allez vous exercer à résoudre des problèmes concrets rencontrés lors de la création de pipelines de flux données. L'objectif principal est de gérer des données continues et illimitées avec les produits Google Cloud.

En savoir plus

Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.

En savoir plus

Dans ce cours, vous allez acquérir les connaissances et les outils nécessaires pour identifier les problématiques uniques auxquelles les équipes MLOps sont confrontées lors du déploiement et de la gestion de modèles d'IA générative. Vous verrez également en quoi Vertex AI permet aux équipes d'IA de simplifier les processus MLOps et de faire aboutir leurs projets d'IA générative.

En savoir plus

Agents d'IA générative : transformer l'entreprise est le cinquième et dernier cours du parcours de formation "Leader en IA générative". Il aborde la façon dont les entreprises peuvent utiliser des agents d'IA générative personnalisés pour relever des défis métier spécifiques. Des exercices pratiques vous apprendront à créer un agent d'IA générative de base tout en découvrant les composants de ces agents, comme les modèles, les boucles de raisonnement et les outils.

En savoir plus

Le cours "Applications d'IA générative : changez votre façon de travailler" est le quatrième du parcours de formation "Leader en IA générative". Ce cours présente les applications d'IA générative de Google, telles que Gemini pour Workspace et NotebookLM. Il vous guide à travers des concepts comme l'ancrage, la génération augmentée par récupération, la création de requêtes efficaces et la conception de workflows automatisés.

En savoir plus

Le cours "IA générative : se familiariser avec le domaine" est le troisième du parcours de formation "Leader en IA générative". L'IA générative change notre façon de travailler et d'interagir avec le monde autour de nous. En tant que responsable, comment pouvez-vous exploiter son potentiel pour obtenir des résultats commerciaux concrets ? Dans ce cours, vous allez découvrir les différentes couches qui composent une solution d'IA générative, les offres de Google Cloud et les facteurs à prendre en compte au moment de choisir une solution.

En savoir plus

Le cours "IA générative : découvrir les concepts fondamentaux" est le deuxième du parcours de formation "Leader en IA générative". Ce cours vous permettra de découvrir les concepts fondamentaux de l'IA générative en examinant les différences entre l'IA, le ML et l'IA générative. Vous comprendrez également comment l'IA générative permet de relever les défis métier à l'aide des différents types de données. Enfin, vous découvrirez les stratégies de Google Cloud pour gérer les limites des modèles de fondation et quelles sont les grandes problématiques du développement et du déploiement d'une IA responsable et sécurisée.

En savoir plus

Dans ce cours de niveau intermédiaire, vous apprendrez à concevoir, créer et optimiser des pipelines de données en batch robustes sur Google Cloud. Au-delà des bases de la gestion des données, vous explorerez les transformations de données à grande échelle et l'orchestration efficace des workflows, essentielles pour l'informatique décisionnelle et les rapports critiques. Vous vous entraînerez à utiliser Dataflow pour Apache Beam et Serverless pour Apache Spark (Dataproc Serverless) pour l'implémentation, et vous aborderez des considérations importantes concernant la qualité des données, la surveillance et les alertes pour assurer la fiabilité des pipelines et l'excellence opérationnelle. Il est recommandé d'avoir des connaissances de base sur l'entreposage de données, les processus ETL/ELT, SQL, Python et les concepts de Google Cloud.

En savoir plus

Le cours "IA générative : au-delà du chatbot" est le premier du parcours de formation "Leader en IA générative" et n'a aucun prérequis. Ce cours vise à approfondir votre compréhension de base des chatbots afin de révéler le véritable potentiel de l'IA générative pour votre entreprise. Vous découvrirez des concepts tels que les modèles de fondation et le prompt engineering (ingénierie des requêtes), qui sont essentiels pour exploiter toute la puissance de l'IA générative. Ce cours vous aidera également à identifier les facteurs à prendre en compte pour développer une stratégie d'IA générative efficace pour votre entreprise.

En savoir plus

Bien que les approches traditionnelles utilisant des lacs de données et des entrepôts de données puissent être efficaces, elles présentent des inconvénients, en particulier dans les grands environnements d'entreprise. Ce cours présente le concept de data lakehouse et les produits Google Cloud utilisés pour en créer un. Une architecture de lakehouse utilise des sources de données basées sur des normes ouvertes et combine les meilleures fonctionnalités des lacs et des entrepôts de données, ce qui permet de pallier de nombreuses lacunes.

En savoir plus

Dans ce cours, vous allez explorer l'ingénierie de données sur Google Cloud, les rôles et responsabilités des ingénieurs de données, et la façon dont ces éléments se retrouvent dans les offres Google Cloud. Vous apprendrez également à relever les défis liés à l'ingénierie de données.

En savoir plus