Earn a skill badge by completing the Build Custom Processors with Document AI course. You learn how to extract data and classify documents by creating custom ML models specific to your business needs. This course teaches the foundation skills of building your own processors, working with optical character recognition, form parsing, processor creation, and uptraining the DocumentAI model.
Obtenez le badge de compétence intermédiaire La livraison sécurisée de logiciels pour démontrer votre capacité à intégrer de manière proactive la sécurité au cycle de vie du développement logiciel (SDLC) en appliquant les principes DevSecOps. Vous apprendrez à utiliser Google Kubernetes Engine (GKE) et Cloud Run pour déployer des images de conteneurs de façon sécurisée, à implémenter l'analyse des failles automatisée pour identifier les risques de manière proactive et à simplifier le développement d'applications avec Artifact Registry tout en mettant l'accent sur la sécurité. Vous apprendrez également à intégrer Cloud Build pour des processus de développement robustes et à implémenter des stratégies de contrôle des admissions pour un contrôle précis de votre environnement.
Terminez le cours intermédiaire Inspecter des documents enrichis avec Gemini multimodal et le RAG multimodal pour recevoir un badge démontrant vos compétences dans les domaines suivants : l'utilisation de requêtes multimodales pour extraire des informations de données textuelles et visuelles, la génération d'une description vidéo et la récupération d'informations qui ne sont pas incluses dans une vidéo en utilisant la multimodalité avec Gemini ; la création de métadonnées de documents contenant du texte et des images, la collecte de tous les éléments de texte pertinents, et l'impression de citations à l'aide de la génération augmentée par récupération (RAG, Retrieval Augmented Generation) multimodale avec Gemini.
Obtenez un badge de compétence avancé en suivant le cours Utiliser des API de machine learning sur Google Cloud, qui présente les fonctionnalités de base des technologies de machine learning et d'IA suivantes : l'API Cloud Vision, l'API Cloud Translation et l'API Cloud Natural Language.
Obtenez un badge de compétence débutant en suivant le cours Automatiser la collecte de données à grande échelle avec Document AI. Dans ce cours, vous allez apprendre à extraire, traiter et capturer des données à l'aide de Document AI.
Ce cours montre comment utiliser des modèles d'IA/de ML pour des tâches d'IA générative dans BigQuery. À travers un cas d'utilisation pratique faisant intervenir la gestion de la relation client, vous étudierez le workflow de résolution d'un problème métier à l'aide de modèles Gemini. Pour faciliter la compréhension, le cours fournit également des instructions détaillées tout au long du codage des solutions à l'aide de requêtes SQL et de Notebooks Python.
Terminez le cours d'introduction Premiers pas avec Sensitive Data Protection pour recevoir un badge de compétence dans le domaine suivant : utilisation des services Sensitive Data Protection (y compris l'API Cloud Data Loss Prevention) pour inspecter, masquer et supprimer les éléments d'identification des données sensibles dans Google Cloud.
Obtenez un badge de compétence en terminant le cours intermédiaire Créer et déployer des solutions de machine learning sur Vertex. Vous y apprendrez à utiliser la plate-forme Vertex AI de Google Cloud, AutoML et les services d'entraînement personnalisés pour entraîner, évaluer, régler, expliquer et déployer des modèles de machine learning. Ce cours, qui ouvre droit à un badge de compétence, est destiné aux data scientists et aux ingénieurs en machine learning. Un badge de compétence est un badge numérique exclusif délivré par Google Cloud. Il atteste de votre expertise des produits et services Google Cloud et de votre capacité à mettre en pratique vos connaissances dans un environnement concret et interactif. Terminez ce cours et passez l'évaluation finale de l'atelier challenge pour recevoir un badge de compétence que vous pourrez partager avec votre réseau.
Terminez le cours d'introduction Sécuriser des données BigLake pour recevoir un badge démontrant vos compétences avec IAM, BigQuery, BigLake et Data Catalog dans Dataplex pour créer et sécuriser des tables BigLake.
Obtenez le badge de compétence intermédiaire Explorer l'IA générative avec l'API Gemini dans Vertex AI pour démontrer vos compétences dans les domaines suivants : la génération de texte, l'analyse d'images et de vidéos pour améliorer la création de contenu, et l'application de techniques d'appel de fonction dans l'API Gemini. Découvrez comment exploiter des techniques Gemini avancées et étendre les capacités de vos projets optimisés par l'IA, et explorez le fonctionnement de la génération de contenu multimodal.
Obtenez un badge de compétence en suivant le cours Google Cloud Compute : principes de base, où vous apprendrez à utiliser des machines virtuelles (VM), des disques persistants et des serveurs Web à l'aide de Compute Engine.
TensorFlow is an open source software library for high performance numerical computation that's great for writing models that can train and run on platforms ranging from your laptop to a fleet of servers in the Cloud to an edge device. This quest takes you beyond the basics of using predefined models and teaches you how to build, train and deploy your own on Google Cloud.
Obtenez le badge de compétence Débutant en suivant le cours API Cloud Speech : 3 applications, dans lequel vous apprendrez à utiliser les outils d'API liés à la parole pour effectuer de la synthèse et de la reconnaissance vocales.
Terminez le cours intermédiaire Développer des applications d'IA générative avec Gemini et Streamlit pour recevoir un badge démontrant vos compétences dans les domaines suivants : la génération de texte, l'application d'appels de fonction avec le SDK Python et l'API Gemini, et le déploiement d'une application Streamlit avec Cloud Run. Vous découvrirez différentes manières de demander à Gemini de générer du texte, d'utiliser Cloud Shell pour effectuer des tests et des itérations sur une application Streamlit, puis de l'empaqueter en tant que conteneur Docker déployé dans Cloud Run.
Terminez le cours d'introduction Conception de requêtes dans Vertex AI pour recevoir un badge démontrant vos compétences dans les domaines suivants : le prompt engineering (ingénierie des requêtes), l'analyse d'images et les techniques d'IA générative multimodale dans Vertex AI. Découvrez comment élaborer des requêtes efficaces, guider les résultats de l'IA générative et appliquer des modèles Gemini à des scénarios marketing concrets.
Ce cours présente des points importants au sujet de la confidentialité et de la sécurité de l'IA. Vous découvrirez des méthodes pratiques et des outils pour mettre en place des pratiques recommandées de confidentialité et de sécurité de l'IA à l'aide de produits Google Cloud et d'outils Open Source.
Obtenez le badge de compétence de niveau débutant "Créer des applications d'IA concrètes avec Gemini et Imagen" pour démontrer vos compétences dans les domaines suivants : reconnaissance d'image, traitement du langage naturel, génération d'images à l'aide des puissants modèles Gemini et Imagen de Google, et déploiement d'applications sur la plate-forme Vertex AI.
Terminez le cours intermédiaire Créer un entrepôt de données avec BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : la jointure de données pour créer des tables, la résolution des problèmes liés aux jointures, l'ajout de données avec des unions, la création de tables partitionnées par date, et l'utilisation d'objets JSON, ARRAY et STRUCT dans BigQuery.
Big data, machine learning et données scientifiques ? Il semble que ce soit la combinaison parfaite. Dans cette quête avancée, vous allez vous familiariser avec des services GCP tels que Big Query, Dataproc et Tensorflow, que vous appliquerez à des cas utilisant des ensembles de données scientifiques réelles. En vous faisant acquérir de l'expérience avec des tâches telles que l'analyse des données sismiques et l'agrégation d'images satellites, le traitement de données scientifiques développera vos compétences dans le domaine du Big data et du machine learning, et vous aidera à résoudre les problèmes que vous rencontrez dans différentes disciplines scientifiques.
Terminez le cours intermédiaire Créer des modèles de ML avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'évaluation de modèles de machine learning avec BigQuery ML pour générer des prédictions de données.
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
Vous souhaitez générer des insights à partir de vos données marketing et créer des tableaux de bord ? Réunissez toutes vos données au même endroit afin d'effectuer des analyses à grande échelle et de créer des modèles. Apprenez à utiliser BigQuery et à interroger vos données pour créer des insights utiles, reproductibles et évolutifs. BigQuery est la base de données d'analyse à faible coût de Google, entièrement gérée et qui ne nécessite aucune opération (NoOps). Avec BigQuery, vous pouvez interroger des téraoctets de données sans avoir à gérer d'infrastructure ni faire appel à un administrateur de base de données. Basé sur le langage SQL et le modèle de paiement à l'usage, BigQuery vous permet de vous concentrer sur l'analyse des données pour en dégager des informations pertinentes.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Blockchain and related technologies, such as distributed ledger and distributed apps, are becoming new value drivers and solution priorities in many industries. In this course you will gain hands-on experience with distributed ledger and the exploration of blockchain datasets in Google Cloud. It brings the research and solution work of Google's Allen Day into self-paced labs for you to run and learn directly. Since this course uses advanced SQL in BigQuery, a SQL-in-BigQuery refresher lab is at the start.
Terminez le cours d'introduction Dégager des insights des données BigQuery pour recevoir un badge démontrant vos compétences dans les domaines suivants : l'écriture de requêtes SQL, l'interrogation de tables publiques, le chargement d'exemples de données dans BigQuery, la résolution d'erreurs de syntaxe courantes avec l'outil de validation des requêtes de BigQuery et la création de rapports dans Looker Studio en se connectant aux données BigQuery.
In this series of labs you will learn how to use BigQuery to analyze NCAA basketball data with SQL. Build a Machine Learning Model to predict the outcomes of NCAA March Madness basketball tournament games.
Terminez le cours d'introduction Préparer les données à utiliser pour les tableaux de bord et rapports Looker pour recevoir un badge démontrant vos compétences dans les domaines suivants : le filtrage, le tri et le croisement de données ; la fusion des résultats de différentes explorations Looker ; et l'utilisation de fonctions et d'opérateurs pour créer des tableaux de bord et des rapports Looker en vue de l'analyse et de la visualisation des données.
Data Catalog is deprecated and will be discontinued on January 30, 2026. You can still complete this course if you want to. For steps to transition your Data Catalog users, workloads, and content to Dataplex Catalog, see Transition from Data Catalog to Dataplex Catalog (https://cloud.google.com/dataplex/docs/transition-to-dataplex-catalog). Data Catalog is a fully managed and scalable metadata management service that empowers organizations to quickly discover, understand, and manage all of their data. In this quest you will start small by learning how to search and tag data assets and metadata with Data Catalog. After learning how to build your own tag templates that map to BigQuery table data, you will learn how to build MySQL, PostgreSQL, and SQLServer to Data Catalog Connectors.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
Cette quête est la première d'une série de deux comprenant des ateliers pratiques tirés d'exercices disponibles dans l'ouvrage Data Science on Google Cloud Platform de Valliappa Lakshmanan, publié par O'Reilly Media, Inc. Dans cette première quête, qui couvre les chapitres 1 à 8, vous découvrez tous les aspects de l'ingestion, de la préparation, du traitement, de l'interrogation, de l'exploration et de la visualisation des ensembles de données à l'aide des outils et des services de Google Cloud Platform.