Instructions et exigences de configuration de l'atelier
Protégez votre compte et votre progression. Utilisez toujours une fenêtre de navigation privée et les identifiants de l'atelier pour exécuter cet atelier.

Analyse de données sans serveur avec Dataflow : Pipeline Dataflow simple (Python)

Atelier 1 heure 30 minutes universal_currency_alt 5 crédits show_chart Avancé
info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
Ce contenu n'est pas encore optimisé pour les appareils mobiles.
Pour une expérience optimale, veuillez accéder à notre site sur un ordinateur de bureau en utilisant un lien envoyé par e-mail.

Présentation

Dans cet atelier, vous allez ouvrir un projet Dataflow, filtrer le pipeline et l'exécuter en local et dans le cloud.

  • Ouvrir un projet Dataflow

  • Filtrer le pipeline

  • Exécuter le pipeline en local et dans le cloud

Objectif

Dans cet atelier, vous allez découvrir comment écrire un pipeline Dataflow simple, et comment l'exécuter en local et dans le cloud.

  • Configurer un projet Dataflow en Python à l'aide d'Apache Beam

  • Créer un pipeline simple en Python

  • Exécuter la requête sur la machine locale

  • Exécuter la requête dans le cloud

Prérequis

Pour chaque atelier, nous vous attribuons un nouveau projet Google Cloud et un nouvel ensemble de ressources pour une durée déterminée, sans frais.

  1. Connectez-vous à Qwiklabs dans une fenêtre de navigation privée.

  2. Vérifiez le temps imparti pour l'atelier (par exemple : 01:15:00) : vous devez pouvoir le terminer dans ce délai.
    Une fois l'atelier lancé, vous ne pouvez pas le mettre en pause. Si nécessaire, vous pourrez le redémarrer, mais vous devrez tout reprendre depuis le début.

  3. Lorsque vous êtes prêt, cliquez sur Démarrer l'atelier.

  4. Notez vos identifiants pour l'atelier (Nom d'utilisateur et Mot de passe). Ils vous serviront à vous connecter à Google Cloud Console.

  5. Cliquez sur Ouvrir la console Google.

  6. Cliquez sur Utiliser un autre compte, puis copiez-collez les identifiants de cet atelier lorsque vous y êtes invité.
    Si vous utilisez d'autres identifiants, des messages d'erreur s'afficheront ou des frais seront appliqués.

  7. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.

Vérifier les autorisations du projet

Avant de commencer à travailler dans Google Cloud, vous devez vous assurer de disposer des autorisations adéquates pour votre projet dans IAM (Identity and Access Management).

  1. Dans la console Google Cloud, accédez au menu de navigation (Icône du menu de navigation), puis sélectionnez IAM et administration > IAM.

  2. Vérifiez que le compte de service Compute par défaut {project-number}-compute@developer.gserviceaccount.com existe et qu'il est associé au rôle editor (éditeur). Le préfixe du compte correspond au numéro du projet, disponible sur cette page : Menu de navigation > Présentation du cloud > Tableau de bord.

État de l'éditeur et nom du compte de service Compute Engine par défaut mis en évidence sur l'onglet "Autorisations"

Remarque : Si le compte n'est pas disponible dans IAM ou n'est pas associé au rôle editor (éditeur), procédez comme suit pour lui attribuer le rôle approprié.
  1. Dans la console Google Cloud, accédez au menu de navigation et cliquez sur Présentation du cloud > Tableau de bord.
  2. Copiez le numéro du projet (par exemple, 729328892908).
  3. Dans le menu de navigation, sélectionnez IAM et administration > IAM.
  4. Sous Afficher par compte principal, en haut de la table des rôles, cliquez sur Accorder l'accès.
  5. Dans le champ Nouveaux comptes principaux, saisissez :
{project-number}-compute@developer.gserviceaccount.com
  1. Remplacez {project-number} par le numéro de votre projet.
  2. Dans le champ Rôle, sélectionnez Projet (ou Basique) > Éditeur.
  3. Cliquez sur Enregistrer.

Tâche 1 : Vérifier que l'API Dataflow est activée

Pour vous assurer que vous avez bien accès à l'API requise, redémarrez la connexion à l'API Dataflow.

  1. Dans Cloud Console, saisissez API Dataflow dans la barre de recherche en haut de la page.

  2. Cliquez sur API Dataflow dans les résultats.

  3. Cliquez sur Gérer.

  4. Cliquez sur Désactiver l'API.

  5. Si vous êtes invité à confirmer votre choix, cliquez sur Désactiver.

  6. Cliquez sur Activer.

Tâche 2 : Préparation

Ouvrir le terminal SSH et se connecter à la VM d'entraînement

Vous exécuterez le code depuis une VM dédiée à l'entraînement.

  1. Dans la console, accédez au menu de navigation (Icône du menu de navigation), puis cliquez sur Compute Engine > Instances de VM.

  2. Repérez la ligne comportant l'instance nommée training-vm.

  3. Tout à droite de la page, sous Connecter, cliquez sur SSH pour ouvrir une fenêtre de terminal.

  4. Dans cet atelier, vous allez saisir les commandes CLI dans l'instance training_vm.

Télécharger le dépôt de code

  1. Maintenant, vous allez télécharger le dépôt de code que vous utiliserez dans cet atelier. Dans le terminal SSH de l'instance training-vm, saisissez la commande suivante :

git clone https://github.com/GoogleCloudPlatform/training-data-analyst

Créer un bucket Cloud Storage

Suivez ces instructions pour créer un bucket.

  1. Dans la console, accédez au menu de navigation, puis cliquez sur Accueil.

  2. Sélectionnez et copiez l'ID du projet.

Pour plus de simplicité, vous utiliserez comme nom de bucket l'ID du projet Qwiklabs, qui est déjà unique.

  1. Dans la console, accédez au menu de navigation, puis cliquez sur Cloud Storage > Navigateur.
  2. Cliquez sur Créer un bucket.
  3. Spécifiez les paramètres suivants et conservez les valeurs par défaut pour les autres champs :
Propriété Valeur (saisissez la valeur ou sélectionnez l'option spécifiée)
Nom <nom unique de votre bucket (ID du projet)>
Type d'emplacement Multirégional
Emplacement <Votre emplacement>
  1. Cliquez sur Créer.

Notez le nom de votre bucket. Vous en aurez besoin pour les tâches suivantes.

  1. Dans le terminal SSH de l'instance training-vm, saisissez la commande suivante pour créer une variable d'environnement nommée "BUCKET" et vérifiez qu'elle existe à l'aide de la commande "echo".

BUCKET="<nom unique de votre bucket (ID du projet)>" echo $BUCKET

Vous pouvez utiliser $BUCKET dans les commandes du terminal. Si vous avez besoin de saisir le nom du bucket <votre-bucket> dans une zone de texte de la console, vous pouvez le récupérer rapidement grâce à la commande echo $BUCKET.

Tâche 3 : Filtrer le pipeline

L'objectif de cet atelier est de vous familiariser avec la structure d'un projet Dataflow et d'apprendre à exécuter un pipeline Dataflow.

  1. Retournez dans le terminal SSH de l'instance training-vm, puis accédez au répertoire /training-data-analyst/courses/data_analysis/lab2/python et consultez le fichier grep.py.

Pour cela, utilisez Nano. Ne modifiez pas le code. Appuyez sur Ctrl+X pour quitter Nano.

cd ~/training-data-analyst/courses/data_analysis/lab2/python nano grep.py

Répondez aux questions ci-dessous à propos du fichier grep.py.

  • Quels sont les fichiers en cours de lecture ?
  • Quel est le terme de recherche ?
  • Où est placé le résultat ?

Le pipeline contient trois transformations :

  • Que fait la première transformation ?

  • Que fait la deuxième transformation ?

  • D'où viennent ses données d'entrée ?

  • Que fait-elle avec ces données d'entrée ?

  • Qu'écrit-elle dans son résultat ?

  • Où est placé le résultat ?

  • Que fait la troisième transformation ?

Tâche 4 : Exécuter le pipeline en local

  1. Dans le terminal SSH de l'instance training-vm, exécutez grep.py en local.

python3 grep.py

Le fichier de sortie est output.txt. Si le résultat est long, il sera divisé en plusieurs parties nommées par exemple output-00000-of-00001.

  1. Localisez le fichier concerné d'après son heure de modification.

ls -al /tmp
  1. Examinez le ou les fichiers de sortie.

  2. Vous pouvez remplacer "-*" ci-dessous par le suffixe approprié.

cat /tmp/output-*

Le résultat semble-t-il logique ?

Tâche 5 : Exécuter le pipeline dans le cloud

  1. Copiez des fichiers Java dans le cloud. Dans le terminal SSH de l'instance training-vm, saisissez la commande suivante :

gsutil cp ../javahelp/src/main/java/com/google/cloud/training/dataanalyst/javahelp/*.java gs://$BUCKET/javahelp

Cliquez sur Vérifier ma progression pour vérifier l'objectif.

Copiez les fichiers Java dans le Cloud
  1. Modifiez le pipeline Dataflow dans grepc.py avec Nano.

nano grepc.py
  1. Remplacez "PROJECT" et "BUCKET" par l'ID de votre projet et le nom de votre bucket.

Exemples de chaînes avant la modification :

PROJECT='cloud-training-demos' BUCKET='cloud-training-demos'

Exemples de chaînes après la modification (utilisez vos valeurs) :

PROJECT='qwiklabs-gcp-your-value' BUCKET='qwiklabs-gcp-your-value'

Enregistrez le fichier et quittez Nano en appuyant sur CTRL+X, sur Y, puis sur Entrée.

  1. Envoyez la tâche Dataflow dans le cloud :

python3 grepc.py Remarque : Vous pouvez ignorer le message WARNING:root:Make sure that locally built Python SDK docker image has Python 3.7 interpreter. Votre tâche Dataflow va démarrer.

Cette tâche étant très petite, l'exécuter dans le cloud est bien plus long que l'exécuter en local (autour de sept à dix minutes).

  1. Dans le navigateur, revenez à l'onglet de la console.

  2. Dans le menu de navigation, cliquez sur Dataflow, puis sur votre tâche pour suivre son avancement.

Exemple :

Détails de la tâche Dataflow

Cliquez sur Vérifier ma progression pour vérifier l'objectif.

Soumettre la tâche Dataflow au cloud
  1. Attendez que la tâche ait l'état Réussie.

  2. Examinez le résultat dans le bucket Cloud Storage.

  3. Dans le menu de navigation, cliquez sur Cloud Storage > Navigateur, puis sur votre bucket.

  4. Cliquez sur le répertoire javahelp.

Cette tâche génère le fichier output.txt. Si le fichier est long, il sera divisé en plusieurs parties nommées par exemple output-0000x-of-000y. Vous pouvez identifier le fichier le plus récent d'après son nom ou son champ Dernière modification.

  1. Cliquez sur le fichier pour l'afficher.

Vous pouvez également télécharger le fichier via le terminal SSH de l'instance training-vm et l'afficher à l'aide de la commande suivante :

gsutil cp gs://$BUCKET/javahelp/output* . cat output*

Terminer l'atelier

Une fois l'atelier terminé, cliquez sur Terminer l'atelier. Google Cloud Skills Boost supprime les ressources que vous avez utilisées, puis efface le compte.

Si vous le souhaitez, vous pouvez noter l'atelier. Sélectionnez un nombre d'étoiles, saisissez un commentaire, puis cliquez sur Envoyer.

Le nombre d'étoiles correspond à votre degré de satisfaction :

  • 1 étoile = très insatisfait(e)
  • 2 étoiles = insatisfait(e)
  • 3 étoiles = ni insatisfait(e), ni satisfait(e)
  • 4 étoiles = satisfait(e)
  • 5 étoiles = très satisfait(e)

Si vous ne souhaitez pas donner votre avis, vous pouvez fermer la boîte de dialogue.

Pour soumettre des commentaires, suggestions ou corrections, veuillez accéder à l'onglet Assistance.

Copyright 2026 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms de société et de produit peuvent être des marques des sociétés auxquelles ils sont associés.

Avant de commencer

  1. Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
  2. Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
  3. En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.

Utilisez la navigation privée

  1. Copiez le nom d'utilisateur et le mot de passe fournis pour l'atelier
  2. Cliquez sur Ouvrir la console en navigation privée

Connectez-vous à la console

  1. Connectez-vous à l'aide des identifiants qui vous ont été attribués pour l'atelier. L'utilisation d'autres identifiants peut entraîner des erreurs ou des frais.
  2. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
  3. Ne cliquez pas sur Terminer l'atelier, à moins que vous n'ayez terminé l'atelier ou que vous ne vouliez le recommencer, car cela effacera votre travail et supprimera le projet.

Ce contenu n'est pas disponible pour le moment

Nous vous préviendrons par e-mail lorsqu'il sera disponible

Parfait !

Nous vous contacterons par e-mail s'il devient disponible

Un atelier à la fois

Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci

Utilisez la navigation privée pour effectuer l'atelier

Le meilleur moyen d'exécuter cet atelier consiste à utiliser une fenêtre de navigation privée. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.