GSP1345
Présentation
Supposons que vous soyez ingénieur de données chez Cymbal Gaming. Avec l'équipe de développement, vous créez un nouveau jeu d'e-sport : Galactic Grand Prix. Le jeu génère des données en temps réel basées sur des parties en un contre un entre deux joueurs de différentes équipes. Par exemple, deux joueurs s'affrontent lors d'un événement, un vainqueur est désigné, et des points sont attribués au joueur et à l'équipe gagnants. Vous êtes chargé de créer des recommandations pour les données d'achat de contenu téléchargeable. Si un joueur achète du contenu téléchargeable pour son personnage dans Galactic Grand Prix, vous lui proposerez d'autres articles en fonction de ce que les autres concurrents achètent.
Vous avez lu des informations sur Pub/Sub et savez que ce service peut être utilisé avec des données en flux continu dans Google Cloud. Vous vous êtes également renseigné sur Dataflow (le service Apache Beam géré de Google Cloud) et Bigtable, une base de données NoSQL sur Google Cloud. Vous pensez que ces services peuvent être utilisés avec un notebook Jupyter pour créer une solution permettant de proposer d'autres articles de contenu téléchargeable aux clients en fonction de leurs achats, mais vous ne savez pas par où commencer.
Lorsque vous démarrez l'atelier, l'environnement contient les ressources illustrées dans le diagramme suivant.
À la fin de l'atelier, vous aurez utilisé l'architecture pour effectuer plusieurs tâches.
Le tableau suivant fournit une explication détaillée de chaque tâche par rapport à l'architecture de l'atelier.
| Tâche numérotée |
Détails |
| 1. |
Créer des ressources Google Cloud : dans cette tâche, vous allez créer le sujet et l'abonnement Pub/Sub, ainsi que l'instance Bigtable. Vous créerez la table plus tard dans le notebook. |
| 2. |
Ouvrir le notebook dans Vertex AI Workbench et choisir un kernel |
| 3. |
Installer les packages et configurer le notebook pour votre projet : dans cet atelier, vous allez utiliser différentes bibliothèques Python, y compris PyTorch (comme modèle pour les tenseurs) et Apache Beam (pour prendre en charge l'intégration Dataflow). Ces bibliothèques seront installées une fois que votre atelier aura été provisionné et vous les référencerez dans le notebook Jupyter tout au long de l'atelier. Vous devez également configurer le notebook pour qu'il puisse accéder aux ressources de votre projet, comme le bucket Cloud Storage qui vous a été fourni au lancement de l'atelier. |
| 4. |
Entraîner le modèle : dans cette tâche, vous allez entraîner le modèle PyTorch avec les données d'achat des joueurs de Galactic Grand Prix pour les produits de contenu téléchargeable, sous forme de tenseurs. |
| 5. |
Configurer la table Bigtable et publier des messages dans Pub/Sub : dans cette tâche, vous allez configurer la table Bigtable dans votre instance et publier des messages dans votre abonnement Pub/Sub. |
| 6. |
Utiliser le gestionnaire et la transformation d'enrichissement BigTable : dans cette tâche, vous allez utiliser le gestionnaire et la transformation d'enrichissement BigTable. |
| 7. |
Exécuter l'inférence et le pipeline : dans cette tâche, vous allez utiliser l'interface PyTorchModelHandlerTensor pour exécuter l'inférence, puis exécuter le pipeline.
|
Objectifs
Au cours de cet atelier, vous allez :
- entraîner un modèle PyTorch avec des données d'achat représentées sous forme de tenseurs ;
- enrichir les nouveaux achats provenant de Pub/Sub avec des données démographiques ;
- recommander des produits à de nouveaux clients à l'aide d'un pipeline Dataflow.
Préparation
Avant de cliquer sur le bouton "Démarrer l'atelier"
Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.
Cet atelier pratique vous permet de suivre les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Des identifiants temporaires vous sont fournis pour vous permettre de vous connecter à Google Cloud le temps de l'atelier.
Pour réaliser cet atelier :
- Vous devez avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome).
Remarque : Ouvrez une fenêtre de navigateur en mode incognito (recommandé) ou de navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
- Vous disposez d'un temps limité. N'oubliez pas qu'une fois l'atelier commencé, vous ne pouvez pas le mettre en pause.
Remarque : Utilisez uniquement le compte de participant pour cet atelier. Si vous utilisez un autre compte Google Cloud, des frais peuvent être facturés à ce compte.
Démarrer l'atelier et se connecter à la console Google Cloud
-
Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, une boîte de dialogue s'affiche pour vous permettre de sélectionner un mode de paiement.
Sur la gauche, vous trouverez le panneau "Détails concernant l'atelier", qui contient les éléments suivants :
- Le bouton "Ouvrir la console Google Cloud"
- Le temps restant
- Les identifiants temporaires que vous devez utiliser pour cet atelier
- Des informations complémentaires vous permettant d'effectuer l'atelier
-
Cliquez sur Ouvrir la console Google Cloud (ou effectuez un clic droit et sélectionnez Ouvrir le lien dans la fenêtre de navigation privée si vous utilisez le navigateur Chrome).
L'atelier lance les ressources, puis ouvre la page "Se connecter" dans un nouvel onglet.
Conseil : Réorganisez les onglets dans des fenêtres distinctes, placées côte à côte.
Remarque : Si la boîte de dialogue Sélectionner un compte s'affiche, cliquez sur Utiliser un autre compte.
-
Si nécessaire, copiez le nom d'utilisateur ci-dessous et collez-le dans la boîte de dialogue Se connecter.
{{{user_0.username | "Username"}}}
Vous trouverez également le nom d'utilisateur dans le panneau "Détails concernant l'atelier".
-
Cliquez sur Suivant.
-
Copiez le mot de passe ci-dessous et collez-le dans la boîte de dialogue Bienvenue.
{{{user_0.password | "Password"}}}
Vous trouverez également le mot de passe dans le panneau "Détails concernant l'atelier".
-
Cliquez sur Suivant.
Important : Vous devez utiliser les identifiants fournis pour l'atelier. Ne saisissez pas ceux de votre compte Google Cloud.
Remarque : Si vous utilisez votre propre compte Google Cloud pour cet atelier, des frais supplémentaires peuvent vous être facturés.
-
Accédez aux pages suivantes :
- Acceptez les conditions d'utilisation.
- N'ajoutez pas d'options de récupération ni d'authentification à deux facteurs (ce compte est temporaire).
- Ne vous inscrivez pas à des essais sans frais.
Après quelques instants, la console Cloud s'ouvre dans cet onglet.
Remarque : Pour accéder aux produits et services Google Cloud, cliquez sur le menu de navigation ou saisissez le nom du service ou du produit dans le champ Recherche.
Tâche 1 : Créer les ressources Google Cloud
Dans cette tâche, vous allez créer les ressources Google Cloud nécessaires à l'atelier, y compris le sujet et l'abonnement Pub/Sub, ainsi que l'instance Bigtable. Remarque : vous allez utiliser des commandes Cloud Shell pour créer ces ressources et ainsi accélérer le processus.
Pour utiliser efficacement les commandes gcloud CLI, accédez d'abord à Google Cloud Shell et définissez des variables d'environnement.
Accéder à Cloud Shell et définir des variables d'environnement
-
Cliquez sur Activer Cloud Shell pour ouvrir Cloud Shell.
-
Vous devez autoriser son utilisation, car c'est la première fois que vous utilisez Cloud Shell dans cet atelier. Pour ce faire, cliquez sur Continuer, puis sur Autoriser dans la fenêtre pop-up.
-
Exécutez les commandes suivantes.
export PROJECT_ID="{{{project_0.project_id|set at lab start}}}"
-
Exécutez les commandes ci-dessous pour vérifier que les variables sont stockées.
echo ${PROJECT_ID}
Vous utiliserez ces variables plus tard dans l'atelier.
Créer l'instance Bigtable
-
Exécutez la commande suivante pour créer l'instance Bigtable.
gcloud bigtable instances create instance \
--display-name="My Bigtable Instance" \
--cluster-config=id=my-cluster,zone={{{project_0.default_zone | Zone}}},nodes=1
Un message de confirmation doit vous indiquer que l'instance a été créée.
Remarque : Vous créerez la table Bigtable ultérieurement dans votre notebook Jupyter.
Créer le sujet et l'abonnement Pub/Sub
-
Exécutez la commande suivante pour créer le sujet Pub/Sub.
gcloud pubsub topics create customer-data
Un message de confirmation indiquant que le sujet Pub/Sub a été créé doit s'afficher.
-
Exécutez la commande suivante pour créer l'abonnement Pub/Sub pour votre sujet.
gcloud pubsub subscriptions create customer-data_sub --topic=customer-data
Un message de confirmation indiquant que l'abonnement a été ajouté au sujet doit s'afficher.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Créer les ressources Google Cloud
Tâche 2 : Ouvrir le notebook dans Vertex AI Workbench et choisir un kernel
Tâche 2a : Ouvrir le notebook
-
Dans la console Google Cloud, accédez au menu de navigation (
) et cliquez sur Vertex AI > Workbench.
-
Recherchez l'instance , puis cliquez sur le bouton Ouvrir JupyterLab.
L'interface JupyterLab de votre instance Workbench s'ouvre dans un nouvel onglet de navigateur.
Remarque : Si vous ne voyez pas de notebooks dans JupyterLab, veuillez suivre la procédure ci-dessous pour réinitialiser l'instance.
1. Fermez l'onglet du navigateur pour JupyterLab, puis revenez à la page d'accueil de Workbench.
2. Cochez la case à côté du nom de l'instance, puis cliquez sur Réinitialiser.
3. Une fois que le bouton Ouvrir JupyterLab est à nouveau activé, patientez une minute, puis cliquez dessus.
Tâche 2b : Choisir le kernel
-
Ouvrez le fichier .
-
Dans la boîte de dialogue "Select Kernel" (Sélectionner le kernel), sélectionnez Python 3 dans la liste des kernels disponibles.
Tâche 3 : Importer les packages Python et définir des variables d'environnement
Dans cette tâche, vous allez importer les packages Python nécessaires pour utiliser ce notebook et définir des variables d'environnement.
-
Suivez les étapes de la tâche 3, Installer les packages et configurer le notebook.
Pour l'ID du projet, utilisez , pour instance_id, utilisez instance et pour table_id, utilisez customer_data. Rappelez-vous que vous avez créé l'instance Bigtable à la tâche 1. Si vous définissez ces valeurs maintenant, vous pourrez terminer avec succès les tâches ultérieures de ce notebook. Ne pas le faire pourrait générer des erreurs.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Installer les packages et configurer le notebook
Tâche 4 : Entraîner le modèle
Dans cette tâche, vous allez créer l'ensemble de données et convertir les données qu'il contient en tenseurs. Vous allez ensuite créer le modèle PyTorch et l'entraîner avec ces tenseurs.
- Suivez les étapes de la section Entraîner le modèle du notebook.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Entraîner le modèle
Tâche 5 : Configurer la table BigTable et publier des messages dans Pub/Sub
Dans cette tâche, vous allez créer et configurer la table Bigtable avec les familles de colonnes, puis charger des données dans la table. Vous allez également publier des messages dans Pub/Sub.
- Parcourez la section Configurer la table Bigtable et publier des messages dans Pub/Sub du notebook.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Configurer la table BigTable et publier des messages dans Pub/Sub
Tâche 6 : Utiliser le gestionnaire et la transformation d'enrichissement BigTable
Dans cette tâche, vous allez utiliser le gestionnaire d'enrichissement Bigtable, un connecteur spécialisé utilisé dans votre pipeline Dataflow, qui effectue le processus d'enrichissement en utilisant Bigtable comme source de données. Vous allez également utiliser la transformation d'enrichissement BigTable. Considérez le gestionnaire d'enrichissement BigTable comme l'outil et la transformation comme le verbe qui l'initie dans votre code.
- Parcourez la section Utiliser le gestionnaire et la transformation d'enrichissement BigTable du notebook.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Utiliser le gestionnaire et la transformation d'enrichissement BigTable
Tâche 7 : Exécuter l'inférence et le pipeline
Dans cette tâche, vous allez exécuter l'inférence avec le modèle PyTorch et exécuter le pipeline Dataflow.
- Parcourez la section Exécuter l'inférence et le pipeline du notebook.
Important : Une fois que vous avez obtenu les trois recommandations fournies par le pipeline dans la dernière cellule, comme indiqué dans le notebook, la cellule continue de s'exécuter. Vous devez l'arrêter manuellement. Si vous ne le faites pas, le pipeline s'arrêtera automatiquement lorsque l'environnement de l'atelier aura expiré.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Exécuter l'inférence et le pipeline
Félicitations !
Dans cet atelier, vous avez appris à entraîner un modèle PyTorch avec des données d'achat représentées sous forme de tenseurs. Vous avez également appris à enrichir les nouveaux achats provenant de Pub/Sub avec des données démographiques, puis à recommander de nouveaux produits de contenu téléchargeable aux clients à l'aide de votre pipeline Dataflow.
Formations et certifications Google Cloud
Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.
Dernière mise à jour du manuel : 22 janvier 2026
Dernier test de l'atelier : 22 janvier 2026
Copyright 2026 Google LLC. Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.