Rejoindre Se connecter

Ivan Vivares

Date d'abonnement : 2021

Ligue d'Or

3924 points
Machine Learning Operations (MLOps) avec Vertex AI : évaluation des modèles Earned jan. 2, 2026 EST
Machine Learning Operations (MLOps) pour l'IA générative Earned déc. 30, 2025 EST
AI Infrastructure : techniques de mise en réseau Earned déc. 29, 2025 EST
AI Infrastructure : options de stockage Earned déc. 28, 2025 EST
Infrastructure d'IA : types de déploiements Earned déc. 26, 2025 EST
AI Infrastructure : Cloud TPU Earned déc. 25, 2025 EST
AI Infrastructure : introduction à AI Hypercomputer Earned déc. 25, 2025 EST
AI Infrastructure : Cloud GPU Earned déc. 25, 2025 EST

Ce cours apporte aux professionnels du machine learning les techniques, les bonnes pratiques et les outils essentiels pour évaluer les modèles d'IA prédictive et générative. L'évaluation des modèles est primordiale pour s'assurer que les systèmes de ML fournissent des résultats fiables, précis et de haut niveau en production. Les participants acquerront une connaissance approfondie de diverses métriques et méthodologies d'évaluation, ainsi que de leur application appropriée dans différents types de modèles et tâches. Le cours mettra l'accent sur les défis uniques posés par les modèles d'IA générative et proposera des stratégies pour les relever efficacement. Grâce à la plate-forme Vertex AI de Google Cloud, les participants apprendront à implémenter des processus d'évaluation rigoureux pour la sélection, l'optimisation et la surveillance continue des modèles.

En savoir plus

Dans ce cours, vous allez acquérir les connaissances et les outils nécessaires pour identifier les problématiques uniques auxquelles les équipes MLOps sont confrontées lors du déploiement et de la gestion de modèles d'IA générative. Vous verrez également en quoi Vertex AI permet aux équipes d'IA de simplifier les processus MLOps et de faire aboutir leurs projets d'IA générative.

En savoir plus

Bienvenue dans le cours "AI Infrastructure : techniques de mise en réseau". Dans ce cours, vous apprendrez à exploiter l'infrastructure à large bande passante et à faible latence de Google Cloud pour optimiser le transfert de données et la communication entre tous les composants de votre système d'IA. À la fin de ce cours, vous comprendrez le rôle essentiel que joue la mise en réseau dans l'ensemble du pipeline d'IA, de l'ingestion de données et de l'entraînement à l'inférence. Vous serez également capable d'appliquer les bonnes pratiques pour vous assurer que vos charges de travail s'exécutent à vitesse maximale.

En savoir plus

Dans ce cours, vous découvrirez en détail les solutions de stockage disponibles sur Google Cloud, spécialement conçues pour les charges de travail d'IA et de calcul haute performance (HPC). Vous apprendrez à choisir le stockage adapté à chaque étape du cycle de vie du ML. Vous découvrirez comment optimiser les performances d'E/S pendant l'entraînement, à gérer des ensembles de données massifs pour la préparation des données et à livrer les artefacts du modèle avec une faible latence. Grâce à des exemples et à des démonstrations pratiques, vous acquerrez l'expertise nécessaire pour concevoir des solutions de stockage robustes qui accéléreront vos innovations en matière d'IA.

En savoir plus

Ce cours constitue un guide complet pour déployer, gérer et optimiser des charges de travail d'IA et de calcul hautes performances (HPC) sur Google Cloud. À travers une série de leçons et de démonstrations pratiques, vous explorerez diverses stratégies de déploiement, allant d'environnements hautement personnalisables utilisant Google Compute Engine (GCE) à des solutions gérées comme Google Kubernetes Engine (GKE). Plus précisément, vous apprendrez à créer des clusters et à déployer GKE pour l'inférence.

En savoir plus

Bienvenue dans le cours sur Cloud TPU. Nous allons explorer les avantages et les inconvénients des TPU dans différents scénarios et comparer différents accélérateurs de TPU pour vous aider à choisir celui qui vous convient le mieux. Vous découvrirez des stratégies pour optimiser les performances et l'efficacité de vos modèles d'IA et comprendrez l'importance de l'interopérabilité GPU/TPU pour des flux de travail d'apprentissage automatique flexibles. Grâce à des contenus attrayants et à des démonstrations pratiques, nous vous guiderons étape par étape pour exploiter efficacement les TPU.

En savoir plus

Vous souhaitez utiliser AI Hypercomputer ? Ce cours est conçu pour vous aider à vous lancer. Nous aborderons les principes de base de cet outil et comment il aide l'IA dans ses charges de travail. Vous découvrirez les différents composants d'un hypercalculateur, tels que les GPU, les TPU et les CPU, et apprendrez à choisir la méthode de déploiement la mieux adaptée à vos besoins.

En savoir plus

Le matériel puissant qui se cache derrière l'IA vous intrigue ? Ce module décortique les ordinateurs à intelligence artificielle optimisés pour les performances et vous montre pourquoi ils sont si importants. Nous allons voir comment les CPU, les GPU et les TPU rendent les tâches d'IA extrêmement rapides, ce qui fait la spécificité de chacun, et comment les logiciels d'IA en tirent le meilleur parti. À la fin de ce module, vous saurez exactement comment sélectionner le GPU adapté à vos projets d'IA, ce qui vous permettra de faire des choix judicieux pour vos charges de travail d'IA.

En savoir plus