L'inférence de l'IA est le processus qui consiste à utiliser un modèle de machine learning entraîné pour faire des prédictions sur des données nouvelles et inédites en appliquant des schémas appris. Ce cours s'adresse aux développeurs, data scientists et ingénieurs en ML qui souhaitent déployer rapidement des services d'inférence de l'IA sur Cloud Run. Il est utile pour les personnes habituées à utiliser des solutions de déploiement d'applications sans serveur dans le cloud, mais qui manquent d'expérience dans l'exécution de l'inférence de l'IA avec les produits sans serveur Google Cloud. Il comprend des exemples de déploiement d'un modèle d'inférence de l'IA avec des GPU et d'intégration d'applications d'IA générative avec des services de stockage de données.
Dans ce cours, vous découvrirez comment Gemini, un outil de collaboration Google Cloud optimisé par l'IA générative, vous aide à utiliser les produits et services Google pour développer, tester et gérer des applications. Avec l'assistance de Gemini, vous apprendrez à développer une application Web, à corriger les erreurs de l'application, à créer des tests et à interroger des données. À l'aide d'un atelier pratique, vous verrez en quoi Gemini améliore le cycle de vie du développement logiciel (SDLC, software development lifecycle). Duet AI a été rebaptisé Gemini, notre modèle nouvelle génération.
Dans ce cours, vous allez acquérir les connaissances et les outils nécessaires pour identifier les problématiques uniques auxquelles les équipes MLOps sont confrontées lors du déploiement et de la gestion de modèles d'IA générative. Vous verrez également en quoi Vertex AI permet aux équipes d'IA de simplifier les processus MLOps et de faire aboutir leurs projets d'IA générative.