Mettez en pratique vos compétences dans la console Google Cloud
Points de contrôle
Copy Java files to the Cloud
Vérifier ma progression
/ 5
Submit the Dataflow job to the Cloud
Vérifier ma progression
/ 5
Instructions et exigences de configuration de l'atelier
Protégez votre compte et votre progression. Utilisez toujours une fenêtre de navigation privée et les identifiants de l'atelier pour exécuter cet atelier.
Analyse de données sans serveur avec Dataflow : Pipeline Dataflow simple (Python)
Ce contenu n'est pas encore optimisé pour les appareils mobiles.
Pour une expérience optimale, veuillez accéder à notre site sur un ordinateur de bureau en utilisant un lien envoyé par e-mail.
Présentation
Dans cet atelier, vous allez ouvrir un projet Dataflow, filtrer le pipeline et l'exécuter en local et dans le cloud.
Ouvrir un projet Dataflow
Filtrer le pipeline
Exécuter le pipeline en local et dans le cloud
Objectif
Dans cet atelier, vous allez découvrir comment écrire un pipeline Dataflow simple, et comment l'exécuter en local et dans le cloud.
Configurer un projet Dataflow en Python à l'aide d'Apache Beam
Créer un pipeline simple en Python
Exécuter la requête sur la machine locale
Exécuter la requête dans le cloud
Prérequis
Pour chaque atelier, nous vous attribuons un nouveau projet Google Cloud et un nouvel ensemble de ressources pour une durée déterminée, sans frais.
Connectez-vous à Qwiklabs dans une fenêtre de navigation privée.
Vérifiez le temps imparti pour l'atelier (par exemple : 01:15:00) : vous devez pouvoir le terminer dans ce délai.
Une fois l'atelier lancé, vous ne pouvez pas le mettre en pause. Si nécessaire, vous pourrez le redémarrer, mais vous devrez tout reprendre depuis le début.
Lorsque vous êtes prêt, cliquez sur Démarrer l'atelier.
Notez vos identifiants pour l'atelier (Nom d'utilisateur et Mot de passe). Ils vous serviront à vous connecter à Google Cloud Console.
Cliquez sur Ouvrir la console Google.
Cliquez sur Utiliser un autre compte, puis copiez-collez les identifiants de cet atelier lorsque vous y êtes invité.
Si vous utilisez d'autres identifiants, des messages d'erreur s'afficheront ou des frais seront appliqués.
Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
Vérifier les autorisations du projet
Avant de commencer à travailler dans Google Cloud, vous devez vous assurer de disposer des autorisations adéquates pour votre projet dans IAM (Identity and Access Management).
Dans la console Google Cloud, accédez au menu de navigation (), puis sélectionnez IAM et administration > IAM.
Vérifiez que le compte de service Compute par défaut {project-number}-compute@developer.gserviceaccount.com existe et qu'il est associé au rôle editor (éditeur). Le préfixe du compte correspond au numéro du projet, disponible sur cette page : Menu de navigation > Présentation du cloud > Tableau de bord.
Remarque : Si le compte n'est pas disponible dans IAM ou n'est pas associé au rôle editor (éditeur), procédez comme suit pour lui attribuer le rôle approprié.
Dans la console Google Cloud, accédez au menu de navigation et cliquez sur Présentation du cloud > Tableau de bord.
Copiez le numéro du projet (par exemple, 729328892908).
Dans le menu de navigation, sélectionnez IAM et administration > IAM.
Sous Afficher par compte principal, en haut de la table des rôles, cliquez sur Accorder l'accès.
Dans le champ Nouveaux comptes principaux, saisissez :
Remplacez {project-number} par le numéro de votre projet.
Dans le champ Rôle, sélectionnez Projet (ou Basique) > Éditeur.
Cliquez sur Enregistrer.
Tâche 1 : Vérifier que l'API Dataflow est activée
Pour vous assurer que vous avez bien accès à l'API requise, redémarrez la connexion à l'API Dataflow.
Dans Cloud Console, saisissez API Dataflow dans la barre de recherche en haut de la page.
Cliquez sur API Dataflow dans les résultats.
Cliquez sur Gérer.
Cliquez sur Désactiver l'API.
Si vous êtes invité à confirmer votre choix, cliquez sur Désactiver.
Cliquez sur Activer.
Tâche 2 : Préparation
Ouvrir le terminal SSH et se connecter à la VM d'entraînement
Vous exécuterez le code depuis une VM dédiée à l'entraînement.
Dans la console, accédez au menu de navigation (), puis cliquez sur Compute Engine > Instances de VM.
Repérez la ligne comportant l'instance nommée training-vm.
Tout à droite de la page, sous Connecter, cliquez sur SSH pour ouvrir une fenêtre de terminal.
Dans cet atelier, vous allez saisir les commandes CLI dans l'instance training_vm.
Télécharger le dépôt de code
Maintenant, vous allez télécharger le dépôt de code que vous utiliserez dans cet atelier. Dans le terminal SSH de l'instance training-vm, saisissez la commande suivante :
Dans la console, accédez au menu de navigation, puis cliquez sur Accueil.
Sélectionnez et copiez l'ID du projet.
Pour plus de simplicité, vous utiliserez comme nom de bucket l'ID du projet Qwiklabs, qui est déjà unique.
Dans la console, accédez au menu de navigation, puis cliquez sur Cloud Storage > Navigateur.
Cliquez sur Créer un bucket.
Spécifiez les paramètres suivants et conservez les valeurs par défaut pour les autres champs :
Propriété
Valeur (saisissez la valeur ou sélectionnez l'option spécifiée)
Nom
<nom unique de votre bucket (ID du projet)>
Type d'emplacement
Multirégional
Emplacement
<Votre emplacement>
Cliquez sur Créer.
Notez le nom de votre bucket. Vous en aurez besoin pour les tâches suivantes.
Dans le terminal SSH de l'instance training-vm, saisissez la commande suivante pour créer une variable d'environnement nommée "BUCKET" et vérifiez qu'elle existe à l'aide de la commande "echo".
BUCKET="<nom unique de votre bucket (ID du projet)>"
echo $BUCKET
Vous pouvez utiliser $BUCKET dans les commandes du terminal. Si vous avez besoin de saisir le nom du bucket <votre-bucket> dans une zone de texte de la console, vous pouvez le récupérer rapidement grâce à la commande echo $BUCKET.
Tâche 3 : Filtrer le pipeline
L'objectif de cet atelier est de vous familiariser avec la structure d'un projet Dataflow et d'apprendre à exécuter un pipeline Dataflow.
Retournez dans le terminal SSH de l'instance training-vm, puis accédez au répertoire /training-data-analyst/courses/data_analysis/lab2/python et consultez le fichier grep.py.
Pour cela, utilisez Nano. Ne modifiez pas le code. Appuyez sur Ctrl+X pour quitter Nano.
cd ~/training-data-analyst/courses/data_analysis/lab2/python
nano grep.py
Répondez aux questions ci-dessous à propos du fichier grep.py.
Quels sont les fichiers en cours de lecture ?
Quel est le terme de recherche ?
Où est placé le résultat ?
Le pipeline contient trois transformations :
Que fait la première transformation ?
Que fait la deuxième transformation ?
D'où viennent ses données d'entrée ?
Que fait-elle avec ces données d'entrée ?
Qu'écrit-elle dans son résultat ?
Où est placé le résultat ?
Que fait la troisième transformation ?
Tâche 4 : Exécuter le pipeline en local
Dans le terminal SSH de l'instance training-vm, exécutez grep.py en local.
python3 grep.py
Le fichier de sortie est output.txt. Si le résultat est long, il sera divisé en plusieurs parties nommées par exemple output-00000-of-00001.
Localisez le fichier concerné d'après son heure de modification.
ls -al /tmp
Examinez le ou les fichiers de sortie.
Vous pouvez remplacer "-*" ci-dessous par le suffixe approprié.
cat /tmp/output-*
Le résultat semble-t-il logique ?
Tâche 5 : Exécuter le pipeline dans le cloud
Copiez des fichiers Java dans le cloud. Dans le terminal SSH de l'instance training-vm, saisissez la commande suivante :
Enregistrez le fichier et quittez Nano en appuyant sur CTRL+X, sur Y, puis sur Entrée.
Envoyez la tâche Dataflow dans le cloud :
python3 grepc.py
Remarque : Vous pouvez ignorer le message WARNING:root:Make sure that locally built Python SDK docker image has Python 3.7 interpreter. Votre tâche Dataflow va démarrer.
Cette tâche étant très petite, l'exécuter dans le cloud est bien plus long que l'exécuter en local (autour de sept à dix minutes).
Dans le navigateur, revenez à l'onglet de la console.
Dans le menu de navigation, cliquez sur Dataflow, puis sur votre tâche pour suivre son avancement.
Exemple :
Cliquez sur Vérifier ma progression pour vérifier l'objectif.
Soumettre la tâche Dataflow au cloud
Attendez que la tâche ait l'état Réussie.
Examinez le résultat dans le bucket Cloud Storage.
Dans le menu de navigation, cliquez sur Cloud Storage > Navigateur, puis sur votre bucket.
Cliquez sur le répertoire javahelp.
Cette tâche génère le fichier output.txt. Si le fichier est long, il sera divisé en plusieurs parties nommées par exemple output-0000x-of-000y. Vous pouvez identifier le fichier le plus récent d'après son nom ou son champ Dernière modification.
Cliquez sur le fichier pour l'afficher.
Vous pouvez également télécharger le fichier via le terminal SSH de l'instance training-vm et l'afficher à l'aide de la commande suivante :
Une fois l'atelier terminé, cliquez sur Terminer l'atelier. Google Cloud Skills Boost supprime les ressources que vous avez utilisées, puis efface le compte.
Si vous le souhaitez, vous pouvez noter l'atelier. Sélectionnez un nombre d'étoiles, saisissez un commentaire, puis cliquez sur Envoyer.
Le nombre d'étoiles correspond à votre degré de satisfaction :
1 étoile = très insatisfait(e)
2 étoiles = insatisfait(e)
3 étoiles = ni insatisfait(e), ni satisfait(e)
4 étoiles = satisfait(e)
5 étoiles = très satisfait(e)
Si vous ne souhaitez pas donner votre avis, vous pouvez fermer la boîte de dialogue.
Pour soumettre des commentaires, suggestions ou corrections, veuillez accéder à l'onglet Assistance.
Copyright 2026 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms de société et de produit peuvent être des marques des sociétés auxquelles ils sont associés.
Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.
Utilisez la navigation privée
Copiez le nom d'utilisateur et le mot de passe fournis pour l'atelier
Cliquez sur Ouvrir la console en navigation privée
Connectez-vous à la console
Connectez-vous à l'aide des identifiants qui vous ont été attribués pour l'atelier. L'utilisation d'autres identifiants peut entraîner des erreurs ou des frais.
Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
Ne cliquez pas sur Terminer l'atelier, à moins que vous n'ayez terminé l'atelier ou que vous ne vouliez le recommencer, car cela effacera votre travail et supprimera le projet.
Ce contenu n'est pas disponible pour le moment
Nous vous préviendrons par e-mail lorsqu'il sera disponible
Parfait !
Nous vous contacterons par e-mail s'il devient disponible
Un atelier à la fois
Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci
Utilisez la navigation privée pour effectuer l'atelier
Le meilleur moyen d'exécuter cet atelier consiste à utiliser une fenêtre de navigation privée. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
Dans cet atelier, vous allez ouvrir un projet Dataflow, filtrer le pipeline et l'exécuter en local et dans le cloud avec Python.
Durée :
1 min de configuration
·
Accessible pendant 90 min
·
Terminé après 90 min