Abir Dey
Date d'abonnement : 2025
Ligue d'Argent
1112 points
Date d'abonnement : 2025
Terminez le cours d'introduction Premiers pas avec Sensitive Data Protection pour recevoir un badge de compétence dans le domaine suivant : utilisation des services Sensitive Data Protection (y compris l'API Cloud Data Loss Prevention) pour inspecter, masquer et supprimer les éléments d'identification des données sensibles dans Google Cloud.
Terminez le cours d'introduction Créer un lac de données sécurisé sur Cloud Storage pour recevoir un badge de compétence dans les domaines suivants : sécuriser et configurer un bucket Cloud Storage, utiliser Gemini pour générer du texte, gérer le contrôle des accès IAM et créer un lac Dataplex pour la gouvernance des données.
Obtenez un badge de compétence débutant en suivant le cours Automatiser la collecte de données à grande échelle avec Document AI. Dans ce cours, vous allez apprendre à extraire, traiter et capturer des données à l'aide de Document AI.
Terminez le cours intermédiaire Gérer Kubernetes dans Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : la gestion des déploiements avec kubectl, la surveillance et le débogage d'applications sur Google Kubernetes Engine (GKE) et les techniques de livraison continue.
Obtenez le badge de compétence intermédiaire en suivant le cours Implémenter des pipelines CI/CD sur Google Cloud, dans lequel vous apprendrez à utiliser Artifact Registry, Cloud Build et Cloud Deploy. Vous interagirez avec la console Cloud, Google Cloud CLI, Cloud Run et GKE. Vous apprendrez à créer des pipelines d'intégration continue, à stocker et sécuriser des artefacts, à rechercher des failles et à attester de la validité de versions approuvées. Vous vous entraînerez également à déployer des applications sur GKE et Cloud Run.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.