Instructions et exigences de configuration de l'atelier
Protégez votre compte et votre progression. Utilisez toujours une fenêtre de navigation privée et les identifiants de l'atelier pour exécuter cet atelier.

Utiliser des conteneurs personnalisés avec AI Platform Training

Atelier 2 heures universal_currency_alt 5 crédits show_chart Débutant
info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
Ce contenu n'est pas encore optimisé pour les appareils mobiles.
Pour une expérience optimale, veuillez accéder à notre site sur un ordinateur de bureau en utilisant un lien envoyé par e-mail.

Présentation

Dans cet atelier, vous allez développer un modèle de classification à classes multiples, l'empaqueter en tant qu'image Docker et l'exécuter sur AI Platform Training en tant qu'application d'entraînement. Cette application entraîne un modèle de classification à classes multiples qui prédit le type de couverture forestière à partir de données cartographiques. L'ensemble de données que vous allez utiliser a été créé à partir d'un ensemble de données de l'UCI Machine Learning Repository (dépôt de machine learning de l'Université de Californie à Irvine) intitulé "Covertype".

La bibliothèque scikit-learn est l'une des plus utiles pour le machine learning en Python. Le code d'entraînement l'utilise pour prétraiter et modéliser les données.

Le code a été instrumenté à l'aide du package "hypertune". Par conséquent, il peut être exécuté avec un job de réglage des hyperparamètres AI Platform pour rechercher la meilleure combinaison de valeurs d'hyperparamètres en optimisant les métriques que vous spécifiez.

Objectifs

  • Créer des divisions pour l'entraînement et la validation avec BigQuery
  • Encapsuler un modèle de machine learning dans un conteneur Docker et l'entraîner sur AI Platform
  • Utiliser le moteur de réglage des hyperparamètres de Google Cloud pour identifier les meilleurs hyperparamètres
  • Déployer un modèle de machine learning entraîné sur Google Cloud en tant qu'API REST et l'interroger

Préparation

Pour chaque atelier, nous vous attribuons un nouveau projet Google Cloud et un nouvel ensemble de ressources pour une durée déterminée, sans frais.

  1. Connectez-vous à Google Skills dans une fenêtre de navigation privée.

  2. Vérifiez le temps imparti pour l'atelier (par exemple : 01:15:00) : vous devez pouvoir le terminer dans ce délai.
    Une fois l'atelier lancé, vous ne pouvez pas le mettre en pause. Si nécessaire, vous pourrez le redémarrer, mais vous devrez tout reprendre depuis le début.

  3. Lorsque vous êtes prêt, cliquez sur Démarrer l'atelier.

  4. Notez vos identifiants pour l'atelier (Nom d'utilisateur et Mot de passe). Ils vous serviront à vous connecter à la console Google Cloud.

  5. Cliquez sur Ouvrir la console Google.

  6. Cliquez sur Utiliser un autre compte, puis copiez-collez les identifiants de cet atelier lorsque vous y êtes invité.
    Si vous utilisez d'autres identifiants, des messages d'erreur s'afficheront ou des frais seront appliqués.

  7. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.

Activer Cloud Shell

Cloud Shell est une machine virtuelle qui contient des outils pour les développeurs. Elle comprend un répertoire d'accueil persistant de 5 Go et s'exécute sur Google Cloud. Google Cloud Shell vous permet d'accéder via une ligne de commande à vos ressources Google Cloud. gcloud est l'outil de ligne de commande associé à Google Cloud. Il est préinstallé sur Cloud Shell et permet la saisie semi-automatique via la touche Tabulation.

  1. Dans Google Cloud Console, dans le volet de navigation, cliquez sur Activer Cloud Shell (Icône Cloud Shell).

  2. Cliquez sur Continuer.
    Le provisionnement et la connexion à l'environnement prennent quelques instants. Une fois connecté, vous êtes en principe authentifié, et le projet est défini sur votre ID_PROJET. Exemple :

Terminal Cloud Shell

Exemples de commandes

  • Afficher le nom du compte actif :

gcloud auth list

(Résultat)

Credentialed accounts: - <myaccount>@<mydomain>.com (active)

(Exemple de résultat)

Credentialed accounts: - google1623327_student@qwiklabs.net
  • Afficher l'ID du projet :

gcloud config list project

(Résultat)

[core] project = <ID_Projet>

(Exemple de résultat)

[core] project = qwiklabs-gcp-44776a13dea667a6

Tâche 1 : Activer les services Cloud

  1. Pour définir l'ID de votre projet Google Cloud dans Cloud Shell, exécutez la commande suivante :
export PROJECT_ID=$(gcloud config get-value core/project) gcloud config set project $PROJECT_ID
  1. Pour activer les services Cloud requis, exécutez les commandes suivantes :
gcloud services enable \ cloudbuild.googleapis.com \ container.googleapis.com \ cloudresourcemanager.googleapis.com \ iam.googleapis.com \ containerregistry.googleapis.com \ containeranalysis.googleapis.com \ ml.googleapis.com \ dataflow.googleapis.com
  1. Ajoutez l'autorisation "Éditeur" à votre compte de service Cloud Build :
PROJECT_NUMBER=$(gcloud projects describe $PROJECT_ID --format="value(projectNumber)") CLOUD_BUILD_SERVICE_ACCOUNT="${PROJECT_NUMBER}@cloudbuild.gserviceaccount.com" gcloud projects add-iam-policy-binding $PROJECT_ID \ --member serviceAccount:$CLOUD_BUILD_SERVICE_ACCOUNT \ --role roles/editor

Cliquez sur Vérifier ma progression pour valider l'objectif. Ajouter l'autorisation "Éditeur" à un compte de service Cloud Build

Tâche 2 : Créer une instance AI Platform Pipelines

  1. Dans la console Google Cloud, faites défiler le menu de navigation jusqu'à AI Platform, puis épinglez la section pour pouvoir y accéder facilement plus tard dans l'atelier.

Menu de navigation Google Cloud, avec l&#39;icône en forme de punaise mise en évidence dans l&#39;option AI Platform.

  1. Dans Cloud Shell, saisissez la commande suivante pour créer le cluster GKE requis :
gcloud container clusters create cluster-1 --zone us-central1-a --release-channel stable --machine-type n1-standard-2 --scopes=https://www.googleapis.com/auth/cloud-platform

Cela devrait prendre deux à trois minutes. Attendez que le cluster soit créé avant de passer à l'étape suivante.

  1. Pendant ce temps, effectuez l'une des opérations suivantes :
    • Dans le menu de navigation, cliquez sur Kubernetes Engine pour afficher le cluster en cours de création.
    • Dans le menu de navigation, cliquez sur Compute Engine pour voir les VM individuelles en cours de lancement.

Une fois le cluster créé, Cloud Shell affiche un état semblable à celui illustré dans l'image ci-dessous.

Données Cloud Shell, qui incluent l&#39;état &quot;ÉTAT : EN COURS D&#39;EXÉCUTION&quot;

  1. Revenez à la section AI Platform, puis cliquez sur Pipelines.

Chemin de navigation vers l&#39;option &quot;Pipelines&quot; mis en évidence.

  1. Cliquez sur Nouvelle instance.

Page &quot;AI Platform Pipelines&quot;, avec le bouton &quot;Nouvelle instance&quot; mis en évidence.

  1. Sur la page "Kubeflow Pipelines", cliquez sur Configurer.

Le cluster que vous avez créé à l'étape 2 s'affiche par défaut dans la fenêtre de sélection.

Page &quot;Déployer Kubeflow Pipelines&quot; sur laquelle le champ &quot;Cluster&quot; est mis en évidence ; cluster-1 [us-central1-a]

  1. Faites défiler la page jusqu'en bas, acceptez les conditions d'utilisation de Marketplace, puis cliquez sur Déployer.

Vous verrez chaque service de KFP déployé sur votre cluster GKE. Attendez la fin du déploiement avant de passer à la tâche suivante.

Cliquez sur Vérifier ma progression pour valider l'objectif. Créer une instance AI Platform Pipelines

Tâche 3 : Créer une instance Vertex AI Platform Notebooks

Une instance Vertex AI Platform Notebooks sert d'environnement de test/développement principal. Elle est configurée à l'aide d'une image de conteneur personnalisé incluant tous les packages Python requis pour cet atelier.

  1. Dans Cloud Shell, créez un dossier dans votre répertoire d'accueil :
cd mkdir tmp-workspace cd tmp-workspace
  1. Créez un fichier d'exigences à l'aide des packages Python afin de l'installer dans l'image de conteneur personnalisé :
gsutil cp gs://cloud-training/OCBL203/requirements.txt .
  1. Créez un Dockerfile définissant votre image de conteneur personnalisé :
gsutil cp gs://cloud-training/OCBL203/Dockerfile .
  1. Créez l'image et transférez-la vers le registre Container Registry de votre projet :
IMAGE_NAME=kfp-dev TAG=latest IMAGE_URI="gcr.io/${PROJECT_ID}/${IMAGE_NAME}:${TAG}" gcloud builds submit --timeout 15m --tag ${IMAGE_URI} .

Cliquez sur Vérifier ma progression pour valider l'objectif. Créer l'image et la transférer vers le registre Container Registry de votre projet

  1. Créez une instance Vertex AI Platform Notebooks :
ZONE=us-central1-a INSTANCE_NAME=ai-notebook

Si vous voulez modifier la zone (ZONE) et le nom de l'instance (INSTANCE_NAME), remplacez us-central1-a par la zone de votre choix, et ai-notebook par le nom d'instance de votre choix :

IMAGE_FAMILY="common-container" IMAGE_PROJECT="deeplearning-platform-release" INSTANCE_TYPE="n1-standard-4" METADATA="proxy-mode=service_account,container=$IMAGE_URI" gcloud compute instances create $INSTANCE_NAME \ --zone=$ZONE \ --image-family=$IMAGE_FAMILY \ --machine-type=$INSTANCE_TYPE \ --image-project=$IMAGE_PROJECT \ --maintenance-policy=TERMINATE \ --boot-disk-device-name=${INSTANCE_NAME}-disk \ --boot-disk-size=100GB \ --boot-disk-type=pd-ssd \ --scopes=cloud-platform,userinfo-email \ --metadata=$METADATA

Cela peut prendre jusqu'à cinq minutes.

  1. Une fois ce délai passé, accédez au menu de navigation de la console Cloud, puis cliquez sur Vertex AI > Workbench.

La prise en compte de l'instance Vertex AI Platform Workbench prend deux à trois minutes.

  1. Veuillez actualiser la page. Une fois que vous voyez la case Inclure les anciennes instances, cochez-la pour afficher votre instance.

Page &quot;Workbench&quot;, sur laquelle le bouton &quot;Actualiser&quot; est mis en évidence, ainsi que l&#39;option &quot;Inclure les anciennes instances&quot; qui est activée.

  1. Cliquez sur le lien Ouvrir JupyterLab.

Cliquez sur Vérifier ma progression pour valider l'objectif. Créer une instance de Vertex AI Platform Notebooks

Tâche 4 : Cloner le dépôt mlops-on-gcp dans votre instance Vertex AI Platform Notebooks

Pour cloner le notebook mlops-on-gcp dans votre instance JupyterLab :

  1. Dans JupyterLab, cliquez sur l'icône Terminal pour ouvrir un nouveau terminal.

  2. À l'invite, saisissez la commande suivante, puis appuyez sur Entrée :

    git clone https://github.com/GoogleCloudPlatform/mlops-on-gcp Remarque : Si le dépôt cloné n'apparaît pas dans l'UI JupyterLab, sélectionnez Git > Clone a repository (Cloner un dépôt) dans le menu principal pour cloner le dépôt à l'aide de l'UI (https://github.com/GoogleCloudPlatform/mlops-on-gcp).

    Boîte de dialogue &quot;Clone a repository&quot; (Cloner un dépôt)

  3. Vérifiez que vous avez bien cloné le dépôt en double-cliquant sur le répertoire mlops-on-gcp. Assurez-vous de pouvoir en lire le contenu. Vous y trouverez les fichiers de tous les ateliers de ce cours basés sur des notebooks Jupyter.

Cliquez sur Vérifier ma progression pour valider l'objectif. Cloner le dépôt mlops-on-gcp dans votre instance Vertex AI Platform Notebooks

Tâche 5 : Accéder au notebook mlops-on-gcp

Remarque : Pour pouvoir effectuer toutes les tâches, vous devez lire toutes les explications attentivement et suivre les instructions à la lettre avant d'exécuter chaque cellule. Certaines tâches vous prendront entre 5 et 10 minutes. Attendez d'avoir terminé une tâche avant d'en commencer une autre.
  1. Dans l'interface du notebook, accédez à mlops-on-gcp> on_demand > kfp-caip-sklearn > lab-01-caip-containers > exercises, puis ouvrez le fichier lab-01.ipynb.

  2. Dans l'interface du notebook, cliquez sur Modifier > Supprimer tous les éléments de sortie.

  3. Lisez attentivement les instructions du notebook et complétez le code sur les lignes contenant la mention #TODO.

Remarque : Pour exécuter la cellule actuellement sélectionnée, cliquez dessus et appuyez sur MAJ+ENTRÉE. Vous trouverez les autres commandes de cellule dans l'interface du notebook, sous Exécuter.
  • Des conseils ont parfois été ajoutés pour vous aider à effectuer des tâches. Mettez le texte en surbrillance pour lire les conseils (texte en blanc).
  • Si vous rencontrez des difficultés, accédez à mlops-on-gcp > on_demand > kfp-caip-sklearn > lab-01-caip-containers, puis ouvrez le fichier lab-01.ipynb pour afficher la solution en entier.

Préparer l'ensemble de données de l'atelier

Le pipeline ingère les données depuis BigQuery. En exécutant les cellules du notebook, vous avez défini les paramètres BigQuery, créé un ensemble de données BigQuery et importé les données CSV de "Covertype" dans une table.

Cliquez sur Vérifier ma progression pour valider l'objectif. Préparer l'ensemble de données de l'atelier

Cliquez sur Vérifier ma progression pour valider l'objectif. Créer des divisions pour l'entraînement et la validation

Cliquez sur Vérifier ma progression pour valider l'objectif. Développer une application d'entraînement

Cliquez sur Vérifier ma progression pour valider l'objectif. Envoyer un job de réglage des hyperparamètres AI Platform

Cliquez sur Vérifier ma progression pour valider l'objectif. Déployer le modèle sur AI Platform Prediction

Félicitations !

Dans cet atelier, vous avez appris à développer une application d'entraînement, à l'empaqueter en tant qu'image Docker et à l'exécuter sur AI Platform Training.

Terminer l'atelier

Une fois l'atelier terminé, cliquez sur End Lab (Terminer l'atelier). Qwiklabs supprime les ressources que vous avez utilisées, puis efface le compte.

Si vous le souhaitez, vous pouvez noter l'atelier. Sélectionnez le nombre d'étoiles correspondant à votre note, saisissez un commentaire, puis cliquez sur Submit (Envoyer).

Le nombre d'étoiles que vous pouvez attribuer à un atelier correspond à votre degré de satisfaction :

  • 1 étoile = très mécontent(e)
  • 2 étoiles = insatisfait(e)
  • 3 étoiles = ni insatisfait(e), ni satisfait(e)
  • 4 étoiles = satisfait(e)
  • 5 étoiles = très satisfait(e)

Si vous ne souhaitez pas donner votre avis, vous pouvez fermer la boîte de dialogue.

Pour soumettre des commentaires, suggestions ou corrections, veuillez utiliser l'onglet Support (Assistance).

Copyright 2026 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms de société et de produit peuvent être des marques des sociétés auxquelles ils sont associés.

Avant de commencer

  1. Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
  2. Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
  3. En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.

Utilisez la navigation privée

  1. Copiez le nom d'utilisateur et le mot de passe fournis pour l'atelier
  2. Cliquez sur Ouvrir la console en navigation privée

Connectez-vous à la console

  1. Connectez-vous à l'aide des identifiants qui vous ont été attribués pour l'atelier. L'utilisation d'autres identifiants peut entraîner des erreurs ou des frais.
  2. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
  3. Ne cliquez pas sur Terminer l'atelier, à moins que vous n'ayez terminé l'atelier ou que vous ne vouliez le recommencer, car cela effacera votre travail et supprimera le projet.

Ce contenu n'est pas disponible pour le moment

Nous vous préviendrons par e-mail lorsqu'il sera disponible

Parfait !

Nous vous contacterons par e-mail s'il devient disponible

Un atelier à la fois

Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci

Utilisez la navigation privée pour effectuer l'atelier

Le meilleur moyen d'exécuter cet atelier consiste à utiliser une fenêtre de navigation privée. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.