Instructions et exigences de configuration de l'atelier
Protégez votre compte et votre progression. Utilisez toujours une fenêtre de navigation privée et les identifiants de l'atelier pour exécuter cet atelier.

Utiliser Apache Beam et Bigtable pour enrichir les données de contenu téléchargeable dans l'e-sport

Atelier 1 heure 30 minutes universal_currency_alt 1 crédit show_chart Débutant
info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
Ce contenu n'est pas encore optimisé pour les appareils mobiles.
Pour une expérience optimale, veuillez accéder à notre site sur un ordinateur de bureau en utilisant un lien envoyé par e-mail.

GSP1345

Logo des ateliers d'auto-formation Google Cloud

Présentation

Supposons que vous soyez ingénieur de données chez Cymbal Gaming. Avec l'équipe de développement, vous créez un nouveau jeu d'e-sport : Galactic Grand Prix. Le jeu génère des données en temps réel basées sur des parties en un contre un entre deux joueurs de différentes équipes. Par exemple, deux joueurs s'affrontent lors d'un événement, un vainqueur est désigné, et des points sont attribués au joueur et à l'équipe gagnants. Vous êtes chargé de créer des recommandations pour les données d'achat de contenu téléchargeable. Si un joueur achète du contenu téléchargeable pour son personnage dans Galactic Grand Prix, vous lui proposerez d'autres articles en fonction de ce que les autres concurrents achètent.

Vous avez lu des informations sur Pub/Sub et savez que ce service peut être utilisé avec des données en flux continu dans Google Cloud. Vous vous êtes également renseigné sur Dataflow (le service Apache Beam géré de Google Cloud) et Bigtable, une base de données NoSQL sur Google Cloud. Vous pensez que ces services peuvent être utilisés avec un notebook Jupyter pour créer une solution permettant de proposer d'autres articles de contenu téléchargeable aux clients en fonction de leurs achats, mais vous ne savez pas par où commencer.

Lorsque vous démarrez l'atelier, l'environnement contient les ressources illustrées dans le diagramme suivant.

À la fin de l'atelier, vous aurez utilisé l'architecture pour effectuer plusieurs tâches.

Le tableau suivant fournit une explication détaillée de chaque tâche par rapport à l'architecture de l'atelier.

Tâche numérotée Détails
1. Créer des ressources Google Cloud : dans cette tâche, vous allez créer le sujet et l'abonnement Pub/Sub, ainsi que l'instance Bigtable. Vous créerez la table plus tard dans le notebook.
2. Ouvrir le notebook dans Vertex AI Workbench et choisir un kernel
3. Installer les packages et configurer le notebook pour votre projet :
dans cet atelier, vous allez utiliser différentes bibliothèques Python, y compris PyTorch (comme modèle pour les tenseurs) et Apache Beam (pour prendre en charge l'intégration Dataflow). Ces bibliothèques seront installées une fois que votre atelier aura été provisionné et vous les référencerez dans le notebook Jupyter tout au long de l'atelier. Vous devez également configurer le notebook pour qu'il puisse accéder aux ressources de votre projet, comme le bucket Cloud Storage qui vous a été fourni au lancement de l'atelier.
4. Entraîner le modèle :
dans cette tâche, vous allez entraîner le modèle PyTorch avec les données d'achat des joueurs de Galactic Grand Prix pour les produits de contenu téléchargeable, sous forme de tenseurs.
5. Configurer la table Bigtable et publier des messages dans Pub/Sub :
dans cette tâche, vous allez configurer la table Bigtable dans votre instance et publier des messages dans votre abonnement Pub/Sub.
6. Utiliser le gestionnaire et la transformation d'enrichissement BigTable :
dans cette tâche, vous allez utiliser le gestionnaire et la transformation d'enrichissement BigTable.
7. Exécuter l'inférence et le pipeline : dans cette tâche, vous allez utiliser l'interface PyTorchModelHandlerTensor pour exécuter l'inférence, puis exécuter le pipeline.

Objectifs

Au cours de cet atelier, vous allez :

  • entraîner un modèle PyTorch avec des données d'achat représentées sous forme de tenseurs ;
  • enrichir les nouveaux achats provenant de Pub/Sub avec des données démographiques ;
  • recommander des produits à de nouveaux clients à l'aide d'un pipeline Dataflow.

Préparation

Avant de cliquer sur le bouton "Démarrer l'atelier"

Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.

Cet atelier pratique vous permet de suivre les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Des identifiants temporaires vous sont fournis pour vous permettre de vous connecter à Google Cloud le temps de l'atelier.

Pour réaliser cet atelier :

  • Vous devez avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome).
Remarque : Ouvrez une fenêtre de navigateur en mode incognito (recommandé) ou de navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
  • Vous disposez d'un temps limité. N'oubliez pas qu'une fois l'atelier commencé, vous ne pouvez pas le mettre en pause.
Remarque : Utilisez uniquement le compte de participant pour cet atelier. Si vous utilisez un autre compte Google Cloud, des frais peuvent être facturés à ce compte.

Démarrer l'atelier et se connecter à la console Google Cloud

  1. Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, une boîte de dialogue s'affiche pour vous permettre de sélectionner un mode de paiement. Sur la gauche, vous trouverez le panneau "Détails concernant l'atelier", qui contient les éléments suivants :

    • Le bouton "Ouvrir la console Google Cloud"
    • Le temps restant
    • Les identifiants temporaires que vous devez utiliser pour cet atelier
    • Des informations complémentaires vous permettant d'effectuer l'atelier
  2. Cliquez sur Ouvrir la console Google Cloud (ou effectuez un clic droit et sélectionnez Ouvrir le lien dans la fenêtre de navigation privée si vous utilisez le navigateur Chrome).

    L'atelier lance les ressources, puis ouvre la page "Se connecter" dans un nouvel onglet.

    Conseil : Réorganisez les onglets dans des fenêtres distinctes, placées côte à côte.

    Remarque : Si la boîte de dialogue Sélectionner un compte s'affiche, cliquez sur Utiliser un autre compte.
  3. Si nécessaire, copiez le nom d'utilisateur ci-dessous et collez-le dans la boîte de dialogue Se connecter.

    {{{user_0.username | "Username"}}}

    Vous trouverez également le nom d'utilisateur dans le panneau "Détails concernant l'atelier".

  4. Cliquez sur Suivant.

  5. Copiez le mot de passe ci-dessous et collez-le dans la boîte de dialogue Bienvenue.

    {{{user_0.password | "Password"}}}

    Vous trouverez également le mot de passe dans le panneau "Détails concernant l'atelier".

  6. Cliquez sur Suivant.

    Important : Vous devez utiliser les identifiants fournis pour l'atelier. Ne saisissez pas ceux de votre compte Google Cloud. Remarque : Si vous utilisez votre propre compte Google Cloud pour cet atelier, des frais supplémentaires peuvent vous être facturés.
  7. Accédez aux pages suivantes :

    • Acceptez les conditions d'utilisation.
    • N'ajoutez pas d'options de récupération ni d'authentification à deux facteurs (ce compte est temporaire).
    • Ne vous inscrivez pas à des essais sans frais.

Après quelques instants, la console Cloud s'ouvre dans cet onglet.

Remarque : Pour accéder aux produits et services Google Cloud, cliquez sur le menu de navigation ou saisissez le nom du service ou du produit dans le champ Recherche. Icône du menu de navigation et champ de recherche

Tâche 1 : Créer les ressources Google Cloud

Dans cette tâche, vous allez créer les ressources Google Cloud nécessaires à l'atelier, y compris le sujet et l'abonnement Pub/Sub, ainsi que l'instance Bigtable. Remarque : vous allez utiliser des commandes Cloud Shell pour créer ces ressources et ainsi accélérer le processus.

Pour utiliser efficacement les commandes gcloud CLI, accédez d'abord à Google Cloud Shell et définissez des variables d'environnement.

Accéder à Cloud Shell et définir des variables d'environnement

  1. Cliquez sur Activer Cloud Shell pour ouvrir Cloud Shell.

  2. Vous devez autoriser son utilisation, car c'est la première fois que vous utilisez Cloud Shell dans cet atelier. Pour ce faire, cliquez sur Continuer, puis sur Autoriser dans la fenêtre pop-up.

  3. Exécutez les commandes suivantes.

    export PROJECT_ID="{{{project_0.project_id|set at lab start}}}"
  4. Exécutez les commandes ci-dessous pour vérifier que les variables sont stockées.

    echo ${PROJECT_ID}

    Vous utiliserez ces variables plus tard dans l'atelier.

Créer l'instance Bigtable

  1. Exécutez la commande suivante pour créer l'instance Bigtable.

    gcloud bigtable instances create instance \ --display-name="My Bigtable Instance" \ --cluster-config=id=my-cluster,zone={{{project_0.default_zone | Zone}}},nodes=1

    Un message de confirmation doit vous indiquer que l'instance a été créée.

    Remarque : Vous créerez la table Bigtable ultérieurement dans votre notebook Jupyter.

Créer le sujet et l'abonnement Pub/Sub

  1. Exécutez la commande suivante pour créer le sujet Pub/Sub.

    gcloud pubsub topics create customer-data

    Un message de confirmation indiquant que le sujet Pub/Sub a été créé doit s'afficher.

  2. Exécutez la commande suivante pour créer l'abonnement Pub/Sub pour votre sujet.

    gcloud pubsub subscriptions create customer-data_sub --topic=customer-data

    Un message de confirmation indiquant que l'abonnement a été ajouté au sujet doit s'afficher.

Cliquez sur Vérifier ma progression pour valider l'objectif. Créer les ressources Google Cloud

Tâche 2 : Ouvrir le notebook dans Vertex AI Workbench et choisir un kernel

Tâche 2a : Ouvrir le notebook

  1. Dans la console Google Cloud, accédez au menu de navigation (Icône du menu de navigation) et cliquez sur Vertex AI > Workbench.

  2. Recherchez l'instance , puis cliquez sur le bouton Ouvrir JupyterLab.

L'interface JupyterLab de votre instance Workbench s'ouvre dans un nouvel onglet de navigateur.

Remarque : Si vous ne voyez pas de notebooks dans JupyterLab, veuillez suivre la procédure ci-dessous pour réinitialiser l'instance.

1. Fermez l'onglet du navigateur pour JupyterLab, puis revenez à la page d'accueil de Workbench.

2. Cochez la case à côté du nom de l'instance, puis cliquez sur Réinitialiser.

3. Une fois que le bouton Ouvrir JupyterLab est à nouveau activé, patientez une minute, puis cliquez dessus.

Tâche 2b : Choisir le kernel

  1. Ouvrez le fichier .

  2. Dans la boîte de dialogue "Select Kernel" (Sélectionner le kernel), sélectionnez Python 3 dans la liste des kernels disponibles.

Tâche 3 : Importer les packages Python et définir des variables d'environnement

Dans cette tâche, vous allez importer les packages Python nécessaires pour utiliser ce notebook et définir des variables d'environnement.

  1. Suivez les étapes de la tâche 3, Installer les packages et configurer le notebook.

    Pour l'ID du projet, utilisez , pour instance_id, utilisez instance et pour table_id, utilisez customer_data. Rappelez-vous que vous avez créé l'instance Bigtable à la tâche 1. Si vous définissez ces valeurs maintenant, vous pourrez terminer avec succès les tâches ultérieures de ce notebook. Ne pas le faire pourrait générer des erreurs.

Cliquez sur Vérifier ma progression pour valider l'objectif. Installer les packages et configurer le notebook

Tâche 4 : Entraîner le modèle

Dans cette tâche, vous allez créer l'ensemble de données et convertir les données qu'il contient en tenseurs. Vous allez ensuite créer le modèle PyTorch et l'entraîner avec ces tenseurs.

  1. Suivez les étapes de la section Entraîner le modèle du notebook.

Cliquez sur Vérifier ma progression pour valider l'objectif. Entraîner le modèle

Tâche 5 : Configurer la table BigTable et publier des messages dans Pub/Sub

Dans cette tâche, vous allez créer et configurer la table Bigtable avec les familles de colonnes, puis charger des données dans la table. Vous allez également publier des messages dans Pub/Sub.

  1. Parcourez la section Configurer la table Bigtable et publier des messages dans Pub/Sub du notebook.

Cliquez sur Vérifier ma progression pour valider l'objectif. Configurer la table BigTable et publier des messages dans Pub/Sub

Tâche 6 : Utiliser le gestionnaire et la transformation d'enrichissement BigTable

Dans cette tâche, vous allez utiliser le gestionnaire d'enrichissement Bigtable, un connecteur spécialisé utilisé dans votre pipeline Dataflow, qui effectue le processus d'enrichissement en utilisant Bigtable comme source de données. Vous allez également utiliser la transformation d'enrichissement BigTable. Considérez le gestionnaire d'enrichissement BigTable comme l'outil et la transformation comme le verbe qui l'initie dans votre code.

  1. Parcourez la section Utiliser le gestionnaire et la transformation d'enrichissement BigTable du notebook.

Cliquez sur Vérifier ma progression pour valider l'objectif. Utiliser le gestionnaire et la transformation d'enrichissement BigTable

Tâche 7 : Exécuter l'inférence et le pipeline

Dans cette tâche, vous allez exécuter l'inférence avec le modèle PyTorch et exécuter le pipeline Dataflow.

  1. Parcourez la section Exécuter l'inférence et le pipeline du notebook.
Important : Une fois que vous avez obtenu les trois recommandations fournies par le pipeline dans la dernière cellule, comme indiqué dans le notebook, la cellule continue de s'exécuter. Vous devez l'arrêter manuellement. Si vous ne le faites pas, le pipeline s'arrêtera automatiquement lorsque l'environnement de l'atelier aura expiré.

Cliquez sur Vérifier ma progression pour valider l'objectif. Exécuter l'inférence et le pipeline

Félicitations !

Dans cet atelier, vous avez appris à entraîner un modèle PyTorch avec des données d'achat représentées sous forme de tenseurs. Vous avez également appris à enrichir les nouveaux achats provenant de Pub/Sub avec des données démographiques, puis à recommander de nouveaux produits de contenu téléchargeable aux clients à l'aide de votre pipeline Dataflow.

Formations et certifications Google Cloud

Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.

Dernière mise à jour du manuel : 22 janvier 2026

Dernier test de l'atelier : 22 janvier 2026

Copyright 2026 Google LLC. Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.

Avant de commencer

  1. Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
  2. Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
  3. En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.

Utilisez la navigation privée

  1. Copiez le nom d'utilisateur et le mot de passe fournis pour l'atelier
  2. Cliquez sur Ouvrir la console en navigation privée

Connectez-vous à la console

  1. Connectez-vous à l'aide des identifiants qui vous ont été attribués pour l'atelier. L'utilisation d'autres identifiants peut entraîner des erreurs ou des frais.
  2. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
  3. Ne cliquez pas sur Terminer l'atelier, à moins que vous n'ayez terminé l'atelier ou que vous ne vouliez le recommencer, car cela effacera votre travail et supprimera le projet.

Ce contenu n'est pas disponible pour le moment

Nous vous préviendrons par e-mail lorsqu'il sera disponible

Parfait !

Nous vous contacterons par e-mail s'il devient disponible

Un atelier à la fois

Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci

Utilisez la navigation privée pour effectuer l'atelier

Le meilleur moyen d'exécuter cet atelier consiste à utiliser une fenêtre de navigation privée. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.