Dans ce cours, nous abordons en détail les composants et les bonnes pratiques de construction de systèmes de ML hautes performances dans des environnements de production. Nous verrons aussi certaines des considérations les plus courantes concernant la construction de ces systèmes, telles que l'entraînement statique, l'entraînement dynamique, l'inférence statique, l'inférence dynamique, les tâches TensorFlow distribuées et les TPU. Ce cours a pour objectif d'explorer les caractéristiques d'un bon système de ML, au-delà de sa capacité à effectuer des prédictions correctes.
Terminez le cours intermédiaire Ingénierie des données pour la modélisation prédictive avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création de pipelines de transformation des données dans BigQuery avec Dataprep by Trifacta ; l'utilisation de Cloud Storage, Dataflow et BigQuery pour créer des workflows ETL (Extract, Transform and Load) ; et la création de modèles de machine learning avec BigQuery ML.
Terminez le cours intermédiaire Créer des modèles de ML avec BigQuery ML pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et l'évaluation de modèles de machine learning avec BigQuery ML pour générer des prédictions de données.
Terminez le cours d'introduction Préparer des données pour les API de ML sur Google Cloud pour recevoir un badge démontrant vos compétences dans les domaines suivants : le nettoyage des données avec Dataprep by Trifacta, l'exécution de pipelines de données dans Dataflow, la création de clusters et l'exécution de jobs Apache Spark dans Dataproc, et l'appel d'API de ML comme l'API Cloud Natural Language, l'API Google Cloud Speech-to-Text et l'API Video Intelligence.
Ce cours présente des points importants au sujet de la confidentialité et de la sécurité de l'IA. Vous découvrirez des méthodes pratiques et des outils pour mettre en place des pratiques recommandées de confidentialité et de sécurité de l'IA à l'aide de produits Google Cloud et d'outils Open Source.
Les applications d'IA générative peuvent créer de nouvelles expériences utilisateur qu'il était quasiment impossible d'obtenir avant l'invention des grands modèles de langage (LLM). En tant que développeur d'applications, comment pouvez-vous utiliser l'IA générative pour créer des applications interactives et performantes sur Google Cloud ? Dans ce cours, vous allez découvrir les applications d'IA générative, et comment vous pouvez utiliser la conception de requêtes et la génération augmentée par récupération (RAG) pour créer des applications performantes à l'aide de LLM. Vous allez vous familiariser avec une architecture prête pour la production qui peut être utilisée pour les applications d'IA générative, et vous allez créer une application de chat basée sur des LLM et sur le RAG.
Ce cours présente les concepts d'interprétabilité et de transparence de l'IA. Il explique en quoi la transparence de l'IA est importante pour les développeurs et les ingénieurs. Il explore des méthodes et des outils pratiques permettant d'atteindre l'interprétabilité et la transparence des modèles d'IA et des données.
Ce cours présente le concept d'IA responsable et les principes associés. Il met en avant des techniques permettant d'identifier des données équitables ou biaisées, et de limiter les biais lors de l'utilisation de l'IA/du ML. Vous découvrirez des méthodes pratiques et des outils pour mettre en place de bonnes pratiques d'IA responsable à l'aide des produits Google Cloud et des outils Open Source.
Ce cours présente les outils et les bonnes pratiques MLOps pour déployer, évaluer, surveiller et exploiter des systèmes de ML en production sur Google Cloud. Le MLOps est une discipline axée sur le déploiement, le test, la surveillance et l'automatisation des systèmes de ML en production. Les ingénieurs en machine learning utilisent des outils pour améliorer et évaluer en permanence les modèles déployés. Ils collaborent avec des data scientists (ou peuvent occuper ce poste) qui développent des modèles permettant de déployer de manière rapide et rigoureuse les solutions de machine learning les plus performantes.
Ce cours présente les outils et les bonnes pratiques MLOps pour déployer, évaluer, surveiller et exploiter des systèmes de ML en production sur Google Cloud. Le MLOps est une discipline axée sur le déploiement, le test, la surveillance et l'automatisation des systèmes de ML en production. Les participants s'entraîneront à utiliser l'ingestion en flux continu de Vertex AI Feature Store au niveau du SDK.
Ce cours apporte aux professionnels du machine learning les techniques, les bonnes pratiques et les outils essentiels pour évaluer les modèles d'IA prédictive et générative. L'évaluation des modèles est primordiale pour s'assurer que les systèmes de ML fournissent des résultats fiables, précis et de haut niveau en production. Les participants acquerront une connaissance approfondie de diverses métriques et méthodologies d'évaluation, ainsi que de leur application appropriée dans différents types de modèles et tâches. Le cours mettra l'accent sur les défis uniques posés par les modèles d'IA générative et proposera des stratégies pour les relever efficacement. Grâce à la plate-forme Vertex AI de Google Cloud, les participants apprendront à implémenter des processus d'évaluation rigoureux pour la sélection, l'optimisation et la surveillance continue des modèles.
Ce cours porte sur la création de modèles de ML à l'aide de TensorFlow et Keras, l'amélioration de la précision des modèles de ML et l'écriture de modèles de ML pour une utilisation évolutive.
Ce cours présente les avantages liés à l'utilisation de Vertex AI Feature Store, ainsi que la manière d'améliorer la précision des modèles de ML et de déterminer les colonnes de données présentant les caractéristiques les plus utiles. Ce cours inclut également du contenu et des ateliers portant sur l'ingénierie des caractéristiques à l'aide de BigQuery ML, Keras et TensorFlow.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Dans ce cours, vous allez acquérir les connaissances et les outils nécessaires pour identifier les problématiques uniques auxquelles les équipes MLOps sont confrontées lors du déploiement et de la gestion de modèles d'IA générative. Vous verrez également en quoi Vertex AI permet aux équipes d'IA de simplifier les processus MLOps et de faire aboutir leurs projets d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours est une introduction aux notebooks Vertex AI, des environnements basés sur des notebooks Jupyter qui proposent une plate-forme unifiée pour l'ensemble du workflow de machine learning, de la préparation des données jusqu'au déploiement et à la surveillance des modèles. Le cours aborde les sujets suivants : (1) Les différents types de notebooks Vertex AI et leurs fonctionnalités, et (2) comment en créer et les gérer.
Ce cours présente les fonctionnalités d'IA et de machine learning (ML) de Google Cloud, en mettant l'accent sur le développement de projets d'IA prédictive et générative. Il explore les différentes technologies, produits et outils disponibles tout au long du cycle de vie des données à l'IA, et permet aux data scientists, aux développeurs d'IA et aux ingénieurs en ML d'améliorer leur expertise grâce à des exercices interactifs.
Terminez le cours intermédiaire Optimiser les coûts pour Google Kubernetes Engine pour recevoir un badge démontrant vos compétences dans les domaines suivants : la création et la gestion de clusters mutualisés, la surveillance de l'utilisation des ressources par espace de noms, la configuration de l'autoscaling des pods et des clusters pour accroître l'efficacité, la configuration de l'équilibrage de charge pour distribuer les ressources de façon optimale et l'implémentation des vérifications d'activité et d'aptitude pour garantir l'intégrité ainsi que la rentabilité des applications.
Suivez le cours Configurer un réseau Google Cloud et obtenez un badge de compétence. Vous allez apprendre à effectuer des tâches élémentaires de gestion de réseaux sur Google Cloud Platform : créer un réseau personnalisé, ajouter des règles de pare-feu de sous-réseau, puis créer des VM et tester la latence lorsqu'elles communiquent entre elles.
Suivez le cours Développer votre réseau Google Cloud et obtenez un badge de compétence. Dans ce cours, vous avez appris plusieurs façons de déployer et de surveiller des applications. Pour cela, vous avez vu comment parcourir les rôles IAM et ajouter/supprimer l'accès au projet, créer des réseaux VPC, déployer et surveiller des VM Compute Engine, rédiger des requêtes SQL, déployer et surveiller des VM dans Compute Engine, mais aussi comment déployer des applications à l'aide de Kubernetes avec plusieurs approches de déploiement.
Terminez le cours d'introduction Implémenter Cloud Load Balancing pour Compute Engine pour recevoir un badge démontrant vos compétences dans les domaines suivants : Créer et déployer des machines virtuelles dans Compute Engine Configurer des équilibreurs de charge réseau et d'application.
Suivez le cours Configurer un environnement de développement d'applications sur Google Cloud et obtenez un badge de compétence. Dans ce cours, vous apprendrez à créer et connecter une infrastructure cloud axée sur le stockage à l'aide des fonctionnalités de base des technologies suivantes Cloud Storage, Identity and Access Management, Cloud Functions et Pub/Sub.