Mauricio Caussin
Date d'abonnement : 2025
Ligue d'Or
4346 points
Date d'abonnement : 2025
Dans ce cours, vous découvrirez en détail les solutions de stockage disponibles sur Google Cloud, spécialement conçues pour les charges de travail d'IA et de calcul haute performance (HPC). Vous apprendrez à choisir le stockage adapté à chaque étape du cycle de vie du ML. Vous découvrirez comment optimiser les performances d'E/S pendant l'entraînement, à gérer des ensembles de données massifs pour la préparation des données et à livrer les artefacts du modèle avec une faible latence. Grâce à des exemples et à des démonstrations pratiques, vous acquerrez l'expertise nécessaire pour concevoir des solutions de stockage robustes qui accéléreront vos innovations en matière d'IA.
Validez le cours intermédiaire Effectuer une analyse prédictive des données dans BigQuery pour recevoir un badge attestant de vos compétences dans les domaines suivants : créer des ensembles de données dans BigQuery en important des fichiers CSV et JSON ; utiliser des concepts d'analyse SQL sophistiqués dans BigQuery, y compris utiliser BigQuery ML pour entraîner un modèle de prédiction de buts à partir de données de rencontres de football et évaluer le caractère exceptionnel des buts marqués lors de la Coupe du monde.
This course provides a comprehensive guide to deploying, managing, and optimizing AI and high-performance computing (HPC) workloads on Google Cloud. Through a series of lessons and practical demonstrations, you’ll explore diverse deployment strategies, ranging from highly customizable environments using Google Compute Engine (GCE) to managed solutions like Google Kubernetes Engine (GKE). Specifically, you’ll learn how to create clusters and deploy GKE for inference.
Bienvenue dans le cours sur Cloud TPU. Nous allons explorer les avantages et les inconvénients des TPU dans différents scénarios et comparer différents accélérateurs de TPU pour vous aider à choisir celui qui vous convient le mieux. Vous découvrirez des stratégies pour optimiser les performances et l'efficacité de vos modèles d'IA et comprendrez l'importance de l'interopérabilité GPU/TPU pour des flux de travail d'apprentissage automatique flexibles. Grâce à des contenus attrayants et à des démonstrations pratiques, nous vous guiderons étape par étape pour exploiter efficacement les TPU.
Terminez le cours intermédiaire Atténuer les menaces et les failles avec Security Command Center pour recevoir un badge démontrant vos compétences dans les domaines suivants : prévenir et gérer les menaces environnementales, identifier et atténuer les failles des applications, et répondre aux anomalies de sécurité.
Le matériel puissant qui se cache derrière l'IA vous intrigue ? Ce module décortique les ordinateurs à intelligence artificielle optimisés pour les performances et vous montre pourquoi ils sont si importants. Nous allons voir comment les CPU, les GPU et les TPU rendent les tâches d'IA extrêmement rapides, ce qui fait la spécificité de chacun, et comment les logiciels d'IA en tirent le meilleur parti. À la fin de ce module, vous saurez exactement comment sélectionner le GPU adapté à vos projets d'IA, ce qui vous permettra de faire des choix judicieux pour vos charges de travail d'IA.
Dans ce cours, vous découvrirez comment Gemini, un outil de collaboration Google Cloud optimisé par l'IA générative, aide à analyser les données client et à prédire les ventes de produits. Vous apprendrez également à identifier, classer et développer de nouveaux clients à l'aide des données client dans BigQuery. À l'aide d'ateliers pratiques, vous verrez en quoi Gemini améliore les workflows d'analyse de données et de machine learning. Duet AI a été rebaptisé Gemini, notre modèle nouvelle génération.
Vous souhaitez utiliser AI Hypercomputer ? Ce cours est conçu pour vous aider à vous lancer. Nous aborderons les principes de base de cet outil et comment il aide l'IA dans ses charges de travail. Vous découvrirez les différents composants d'un hypercalculateur, tels que les GPU, les TPU et les CPU, et apprendrez à choisir la méthode de déploiement la mieux adaptée à vos besoins.
Avec l'essor de l'utilisation de l'intelligence artificielle et du machine learning en entreprise, il est de plus en plus important de développer ces technologies de manière responsable. Pour beaucoup, le véritable défi réside dans la mise en pratique de l'IA responsable, qui s'avère bien plus complexe que dans la théorie. Si vous souhaitez découvrir comment opérationnaliser l'IA responsable dans votre organisation, ce cours est fait pour vous. Dans ce cours, vous allez apprendre comment Google Cloud procède actuellement, en s'appuyant sur des bonnes pratiques et les enseignements tirés, afin de vous fournir un framework pour élaborer votre propre approche d'IA responsable.
Terminez le cours d'introduction Conception de requêtes dans Vertex AI pour recevoir un badge démontrant vos compétences dans les domaines suivants : le prompt engineering (ingénierie des requêtes), l'analyse d'images et les techniques d'IA générative multimodale dans Vertex AI. Découvrez comment élaborer des requêtes efficaces, guider les résultats de l'IA générative et appliquer des modèles Gemini à des scénarios marketing concrets.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA responsable, souligne son importance et décrit comment Google l'implémente dans ses produits. Il présente également les sept principes de l'IA de Google.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.