Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.
Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.
Ce cours présente les modèles de diffusion, une famille de modèles de machine learning qui s'est récemment révélée prometteuse dans le domaine de la génération d'images. Les modèles de diffusion trouvent leur origine dans la physique, et plus précisément dans la thermodynamique. Au cours des dernières années, ils ont gagné en popularité dans la recherche et l'industrie. Ils sont à la base de nombreux modèles et outils Google Cloud avancés de génération d'images. Ce cours vous présente les bases théoriques des modèles de diffusion, et vous explique comment les entraîner et les déployer sur Vertex AI.
Ce cours offre un aperçu de l'architecture encodeur/décodeur, une architecture de machine learning performante souvent utilisée pour les tâches "seq2seq", telles que la traduction automatique, la synthèse de texte et les questions-réponses. Vous découvrirez quels sont les principaux composants de l'architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Dans le tutoriel d'atelier correspondant, vous utiliserez TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro.
Avec l'essor de l'utilisation de l'intelligence artificielle et du machine learning en entreprise, il est de plus en plus important de développer ces technologies de manière responsable. Pour beaucoup, le véritable défi réside dans la mise en pratique de l'IA responsable, qui s'avère bien plus complexe que dans la théorie. Si vous souhaitez découvrir comment opérationnaliser l'IA responsable dans votre organisation, ce cours est fait pour vous. Dans ce cours, vous allez apprendre comment Google Cloud procède actuellement, en s'appuyant sur des bonnes pratiques et les enseignements tirés, afin de vous fournir un framework pour élaborer votre propre approche d'IA responsable.
Terminez le cours d'introduction Conception de requêtes dans Vertex AI pour recevoir un badge démontrant vos compétences dans les domaines suivants : le prompt engineering (ingénierie des requêtes), l'analyse d'images et les techniques d'IA générative multimodale dans Vertex AI. Découvrez comment élaborer des requêtes efficaces, guider les résultats de l'IA générative et appliquer des modèles Gemini à des scénarios marketing concrets.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA responsable, souligne son importance et décrit comment Google l'implémente dans ses produits. Il présente également les sept principes de l'IA de Google.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Dans ce cours de niveau débutant, vous découvrirez le workflow d'analyse de données sur Google Cloud, ainsi que les outils que vous pouvez utiliser pour explorer, analyser et visualiser les données, et partager vos observations avec les personnes concernées. Grâce à une étude de cas, des ateliers pratiques, des leçons et des quiz/démos, ce cours vous montrera comment transformer des ensembles de données bruts en données exploitables dans des visualisations et des tableaux de bord percutants. Que vous travailliez déjà avec des données et souhaitiez apprendre à mettre Google Cloud pleinement à profit ou que vous cherchiez à progresser dans votre carrière, ce cours vous sera utile. La plupart des personnes qui effectuent ou utilisent des analyses de données dans leur travail en tireront des enseignements.
Ce cours décrit les problématiques courantes auxquelles se confrontent les analystes de données et explique comment les résoudre à l'aide des outils de big data disponibles sur Google Cloud. Vous découvrirez quelques notions de SQL et apprendrez comment utiliser BigQuery et Dataprep pour analyser et transformer vos ensembles de données. Il s'agit du premier cours de la série "From Data to Insights with Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Creating New BigQuery Datasets and Visualizing Insights".
Data Catalog is deprecated and will be discontinued on January 30, 2026. You can still complete this course if you want to. For steps to transition your Data Catalog users, workloads, and content to Dataplex Catalog, see Transition from Data Catalog to Dataplex Catalog (https://cloud.google.com/dataplex/docs/transition-to-dataplex-catalog). Data Catalog is a fully managed and scalable metadata management service that empowers organizations to quickly discover, understand, and manage all of their data. In this quest you will start small by learning how to search and tag data assets and metadata with Data Catalog. After learning how to build your own tag templates that map to BigQuery table data, you will learn how to build MySQL, PostgreSQL, and SQLServer to Data Catalog Connectors.
Terminez le cours intermédiaire Gérer des modèles de données dans Looker pour recevoir un badge démontrant vos compétences dans les domaines suivants : maintenir l'état de santé des projets LookML, utiliser l'exécuteur SQL pour la validation des données, appliquer les bonnes pratiques LookML, optimiser les requêtes et les rapports sur les performances, et mettre en œuvre des tables dérivées persistantes et des règles de mise en cache.
Terminez le cours intermédiaire Créer des modèles de ML avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'évaluation de modèles de machine learning avec BigQuery ML pour générer des prédictions de données.
Terminez le cours d'introduction Dégager des insights des données BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : l'écriture de requêtes SQL, l'interrogation de tables publiques, le chargement d'exemples de données dans BigQuery, la résolution d'erreurs de syntaxe courantes avec l'outil de validation des requêtes de BigQuery et la création de rapports dans Looker Studio en se connectant aux données BigQuery.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
Ce cours vous permettra d'acquérir une expérience pratique de l'application des concepts avancés de LookML dans Looker. Vous apprendrez à utiliser Liquid pour personnaliser et créer des dimensions et des mesures dynamiques, à créer des tables dérivées SQL dynamiques et natives personnalisées, et à utiliser extends pour modulariser votre code LookML.
Terminez le cours d'introduction Créer des objets LookML dans Looker pour recevoir un badge démontrant vos compétences dans les domaines suivants : créer des dimensions, des mesures, des vues et des tables dérivées ; définir des types de filtres et de mesures en fonction des exigences ; mettre à jour les dimensions et les mesures ; créer et affiner des explorations ; joindre des vues à des explorations existantes et choisir les objets LookML à créer en fonction des exigences métier.
Terminez le cours d'introduction Préparer les données à utiliser pour les tableaux de bord et rapports Looker pour recevoir un badge démontrant vos compétences dans les domaines suivants : le filtrage, le tri et le croisement de données ; la fusion des résultats de différentes explorations Looker ; et l'utilisation de fonctions et d'opérateurs pour créer des tableaux de bord et des rapports Looker en vue de l'analyse et de la visualisation des données.
This course empowers you to develop scalable, performant LookML (Looker Modeling Language) models that provide your business users with the standardized, ready-to-use data that they need to answer their questions. Upon completing this course, you will be able to start building and maintaining LookML models to curate and manage data in your organization’s Looker instance.
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
Dans ce cours, nous définirons ce qu'est le machine learning et ce qu'il peut apporter à votre entreprise. Vous verrez quelques démonstrations de l'utilisation du ML et découvrirez ses termes clés, comme instances, caractéristiques et étiquettes. Lors des ateliers interactifs, vous vous entraînerez à appeler les API de ML préentrainées disponibles et à construire vos propres modèles de machine learning en utilisant simplement SQL avec BigQuery ML.
Ceci est le deuxième cours de la série "Data to Insights". Ici, nous verrons comment ingérer de nouveaux ensembles de données externes dans BigQuery et les visualiser avec Looker Studio. Nous aborderons également des concepts SQL intermédiaires, tels que les jointures et les unions de plusieurs tables, qui vous permettront d'analyser les données de différentes sources. Remarque : Même si vous avez des connaissances en SQL, certaines spécificités de BigQuery (comme la gestion du cache de requêtes et des caractères génériques de table) peuvent ne pas vous être familières.Une fois que vous aurez terminé ce cours, inscrivez-vous au cours "Achieving Advanced Insights with BigQuery".
Le troisième cours de cette série s'intitule "Achieving Advanced Insights with BigQuery". Notre objectif est ici d'approfondir vos connaissances en SQL en abordant en détail les fonctions avancées et en vous apprenant à décomposer les requêtes complexes en étapes faciles à gérer. Nous allons étudier l'architecture interne de BigQuery (stockage segmenté basé sur des colonnes), ainsi que des concepts SQL avancés tels que les champs imbriqués et répétés, en utilisant pour cela des objets ARRAY et STRUCT. Pour finir, nous verrons comment optimiser les performances de vos requêtes et sécuriser vos données à l'aide des vues autorisées.Une fois que vous aurez terminé ce cours, inscrivez-vous au cours "Applying Machine Learning to Your Data with Google Cloud".
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.