Accédez à plus de 700 ateliers et cours

Créer et explorer un pipeline d'analyse de données d'e-commerce à l'aide de Cloud Dataprep v1.5

Atelier 1 heure 30 minutes universal_currency_alt 5 crédits show_chart Débutant
info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
Accédez à plus de 700 ateliers et cours

Présentation

Cloud Dataprep by Trifacta est un service intelligent qui permet d'explorer visuellement, de nettoyer et de préparer des données structurées ou non structurées à des fins d'analyse. Dans cet atelier, nous allons nous servir de l'interface utilisateur de Cloud Dataprep afin de créer un pipeline de transformation de données d'e-commerce. Ce pipeline s'exécutera à intervalles planifiés et renverra les résultats dans BigQuery.

L'ensemble de données que nous utiliserons est un ensemble de données d'e-commerce comprenant des millions d'enregistrements Google Analytics pour le Google Merchandise Store chargé dans BigQuery. Nous avons créé une copie de cet ensemble de données pour cet atelier et nous allons explorer les champs et lignes qu'il contient afin d'obtenir des informations.

Objectifs

Dans cet atelier, vous apprendrez à effectuer les tâches suivantes :

  • Connecter des ensembles de données BigQuery à Cloud Dataprep
  • Évaluer la qualité des ensembles de données avec Cloud Dataprep
  • Créer un pipeline de transformation de données avec Cloud Dataprep
  • Planifier les résultats des jobs de transformation dans BigQuery

Prérequis

  • Un projet Google Cloud Platform.
  • Le navigateur Google Chrome. Cloud Dataprep n'est compatible qu'avec le navigateur Chrome.

Préparation

Pour chaque atelier, nous vous attribuons un nouveau projet Google Cloud et un nouvel ensemble de ressources pour une durée déterminée, sans frais.

  1. Connectez-vous à Qwiklabs dans une fenêtre de navigation privée.

  2. Vérifiez le temps imparti pour l'atelier (par exemple : 01:15:00) : vous devez pouvoir le terminer dans ce délai.
    Une fois l'atelier lancé, vous ne pouvez pas le mettre en pause. Si nécessaire, vous pourrez le redémarrer, mais vous devrez tout reprendre depuis le début.

  3. Lorsque vous êtes prêt, cliquez sur Démarrer l'atelier.

  4. Notez vos identifiants pour l'atelier (Nom d'utilisateur et Mot de passe). Ils vous serviront à vous connecter à Google Cloud Console.

  5. Cliquez sur Ouvrir la console Google.

  6. Cliquez sur Utiliser un autre compte, puis copiez-collez les identifiants de cet atelier lorsque vous y êtes invité.
    Si vous utilisez d'autres identifiants, des messages d'erreur s'afficheront ou des frais seront appliqués.

  7. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.

Vérifier les autorisations du projet

Avant de commencer à travailler dans Google Cloud, vous devez vous assurer de disposer des autorisations adéquates pour votre projet dans IAM (Identity and Access Management).

  1. Dans la console Google Cloud, accédez au menu de navigation (Icône du menu de navigation), puis sélectionnez IAM et administration > IAM.

  2. Vérifiez que le compte de service Compute par défaut {project-number}-compute@developer.gserviceaccount.com existe et qu'il est associé au rôle editor (éditeur). Le préfixe du compte correspond au numéro du projet, disponible sur cette page : Menu de navigation > Présentation du cloud > Tableau de bord.

État de l'éditeur et nom du compte de service Compute Engine par défaut mis en évidence sur l'onglet "Autorisations"

Remarque : Si le compte n'est pas disponible dans IAM ou n'est pas associé au rôle editor (éditeur), procédez comme suit pour lui attribuer le rôle approprié.
  1. Dans la console Google Cloud, accédez au menu de navigation et cliquez sur Présentation du cloud > Tableau de bord.
  2. Copiez le numéro du projet (par exemple, 729328892908).
  3. Dans le menu de navigation, sélectionnez IAM et administration > IAM.
  4. Sous Afficher par compte principal, en haut de la table des rôles, cliquez sur Accorder l'accès.
  5. Dans le champ Nouveaux comptes principaux, saisissez :
{project-number}-compute@developer.gserviceaccount.com
  1. Remplacez {project-number} par le numéro de votre projet.
  2. Dans le champ Rôle, sélectionnez Projet (ou Basique) > Éditeur.
  3. Cliquez sur Enregistrer.

Ouvrir la console BigQuery

  1. Dans la console Google Cloud, sélectionnez le menu de navigation > BigQuery.

Le message Bienvenue sur BigQuery dans la console Cloud s'affiche. Il contient un lien vers le guide de démarrage rapide et liste les mises à jour de l'interface utilisateur.

  1. Cliquez sur Done (OK).

Bien que cet atelier se concentre principalement sur Cloud Dataprep, vous devez utiliser BigQuery comme point de terminaison pour l'ingestion de l'ensemble de données dans le pipeline et comme destination du résultat une fois le pipeline terminé.

Le flux de processus se compose de trois éléments : les données brutes, Cloud Dataprep et Google BigQuery.

Tâche 1 : Créer un ensemble de données BigQuery vide

Dans cette tâche, vous allez créer un ensemble de données BigQuery qui recevra la table de résultats de votre nouveau pipeline.

  1. Dans le volet de gauche, cliquez sur Afficher les actions (Icône Afficher les actions) à côté de votre ID de projet, puis sélectionnez Créer un ensemble de données.

  2. Dans la boîte de dialogue Créer un ensemble de données :

  • Dans le champ ID de l'ensemble de données, saisissez e-commerce.
  • Conservez les valeurs par défaut dans les autres champs.
  1. Cliquez sur Créer un ensemble de données.

  2. Copiez et collez cette requête SQL dans la zone de texte de l'Éditeur de requête :

#standardSQL CREATE OR REPLACE TABLE ecommerce.all_sessions_raw_dataprep OPTIONS( description="Raw data from analyst team to ingest into Cloud Dataprep" ) AS SELECT * FROM `data-to-insights.ecommerce.all_sessions_raw` WHERE date = '20170801'; # limiting to one day of data 56k rows for this lab
  1. Cliquez sur Exécuter.

Cette requête copie un sous-ensemble de l'ensemble de données d'e-commerce brut public dans l'ensemble de données de votre projet pour que vous puissiez l'explorer et le nettoyer dans Cloud Dataprep.

  1. Assurez-vous que la nouvelle table de données brutes existe bien dans votre projet.

Tâche 2 : Ouvrir Cloud Dataprep

Dans cette tâche, vous allez accepter les conditions d'utilisation de Google et de Trifacta, puis autoriser Trifacta à accéder aux données de votre projet.

  1. Exécutez la commande suivante dans Cloud Shell pour créer un compte de service, qui vous permettra d'accéder à Dataprep.
gcloud beta services identity create --service=dataprep.googleapis.com
  1. Dans la console GCP, assurez-vous que le projet de votre atelier est sélectionné.

  2. Dans le menu de navigation (Icône du menu de navigation), sous le regroupement Analyse, cliquez sur Dataprep.

  3. Sélectionnez les conditions d'utilisation de Google et de Trifacta, puis cliquez sur Accepter.

  4. Dans la boîte de dialogue Share account information with Trifacta (Partager les informations de compte avec Trifacta), cochez la case, puis cliquez sur Agree and Continue (Accepter et continuer).

  5. Pour permettre à Trifacta d'accéder aux données de votre projet, cliquez sur Allow (Autoriser). Ce processus d'autorisation peut prendre quelques minutes.

  6. Sur la page Sign in with Google (Se connecter avec Google) qui apparaît, sélectionnez votre compte Qwiklab et cliquez sur Allow (Autoriser). Si nécessaire, cliquez sur Accept (Accepter) après avoir coché la case.

  7. Pour utiliser l'emplacement par défaut du bucket de stockage, cliquez sur Continue (Continuer).

Icône Accueil

La page d'accueil de Cloud Dataprep s'ouvre. Si nécessaire, cliquez sur Home (Accueil).

Tâche 3 : Connecter les données BigQuery à Cloud Dataprep

Dans cette tâche, vous allez connecter Cloud Dataprep à votre source de données BigQuery.

Sur la page Cloud Dataprep :

  1. Cliquez sur Create a new flow (Créer un flux).

  2. Cliquez sur Untitled Flow (Flux sans titre) en haut de la page.

  3. Dans la boîte de dialogue "Rename" (Renommer), indiquez les informations suivantes :

    • Pour Flow Name (Nom du flux), saisissez Ecommerce Analytics Pipeline (Pipeline d'analyse de données d'e-commerce).
    • Pour Flow Description (Description du flux), saisissez Revenue reporting table for Apparel (Table de rapport sur les revenus pour l'habillement).
  4. Cliquez sur OK.

  5. Cliquez sur l'icône (+) pour ajouter un ensemble de données.

  6. Dans la boîte de dialogue "Add datasets to flow" (Ajouter des ensembles de données au flux), cliquez sur Import Datasets (Importer des ensembles de données) en bas à gauche.

  7. Dans le volet de gauche, cliquez sur BigQuery.

  8. Une fois votre ensemble de données ecommerce chargé, cliquez dessus.

  9. Pour créer un ensemble de données, cliquez sur l'icône Create dataset (Créer un ensemble de données) (Icône Créer un ensemble de données).

  10. Cliquez sur Import & Add to Flow (Importer et ajouter au flux).

La source de données est mise à jour automatiquement.

Tâche 4 : Explorer les champs de données d'e-commerce dans une interface utilisateur

Dans cette tâche, vous allez charger et explorer un échantillon de l'ensemble de données dans Cloud Dataprep.

  1. Cliquez sur Edit Recipe (Modifier la recette) dans le panneau de droite.

  2. Si nécessaire, cliquez sur Don't show me any helpers (Ne pas afficher les assistants) dans la boîte de dialogue Transformer (Transformateur).

Cloud Dataprep charge un échantillon de votre ensemble de données dans la vue "Transformer" (Transformateur). Ce processus peut prendre quelques minutes.

Vue Transformateur d'un échantillon de l'ensemble de données all-sessions_raw_dataprep-2

Répondez aux questions :

  • Cloud Dataprep charge un échantillon de l'ensemble de données source pour accélérer l'exploration.
Remarque : Lorsque votre pipeline est exécuté, il opère sur l'intégralité de l'ensemble de données source. Combien de lignes l'échantillon comprend-il ?

Vue Transformateur d'un échantillon de l'ensemble de données all-sessions_raw_dataprep-2

Réponse : Environ 12 000 lignes

  • Quelle est la valeur la plus commune dans la colonne channelGrouping ?

Trois colonnes de l'ensemble de données all-sessions_raw_dataprep-2 : fullVisitorID, channelGrouping et time

Réponse : "Referral" (Référence)

  • Quels sont les trois principaux pays dont proviennent les sessions ?

Quatre colonnes de l'ensemble de données all-sessions_raw_dataprep-2 : channelGrouping, time, country et city

Réponse : États-Unis, Inde, Royaume-Uni

  • Que représente la barre grise sous totalTransactionRevenue ?

    Colonne totalTransactionRevenue

    Réponse : Les valeurs manquantes

  • Quelles sont les valeurs moyennes de timeOnSite (Temps passé sur le site) en secondes, pageviews (Nombre de pages vues) et sessionQualityDim (Dimension "Qualité de la session") pour l'échantillon de données ? Conseil : utilisez Column Details (Détails de la colonne).

    Option Détails de la colonne

    Fenêtre à onglets de présentation de la colonne timeOnSite

    Réponses : Average Time On Site (Temps moyen passé sur le site) : 942 secondes (ou 15,7 minutes)

    Average Pageviews (Nombre moyen de pages vues) : 20,44 pages

    Average Session Quality Dimension (Valeur moyenne de la dimension "Qualité de la session") : 38,36

Remarque : Les réponses peuvent varier légèrement en fonction de l'échantillon de données utilisé par Cloud Dataprep.
  • Si on considère l'histogramme sessionQualityDim, les valeurs de données sont-elles réparties de manière uniforme ?

    Histogramme des valeurs de sessionQualityDim

Réponse : Non, elles sont asymétriques (sessions de mauvaise qualité), comme prévu.

  • Quelle est la plage de dates pour l'échantillon de l'ensemble de données ?

Réponse : 01/08/2017 (un jour de données)

  • Pourquoi y a-t-il une barre rouge sous la colonne productSKU (SKU du produit) ?

Réponse : La barre rouge indique des valeurs non concordantes. Cloud Dataprep a automatiquement identifié le type de la colonne productSKU (SKU du produit) comme correspondant à un entier. Cloud Dataprep a également détecté des valeurs non entières et a donc marqué ces valeurs comme incompatibles. En réalité, "productSKU" (SKU du produit) ne correspond pas toujours à un entier (par exemple, "GGOEGOCD078399" peut être une valeur correcte). Dans ce cas, Cloud Dataprep a donc identifié de manière incorrecte le type de colonne, qui devrait être une chaîne et non un entier. Vous corrigerez cela à l'étape suivante.

Remarque : Si le type de la colonne productSKU est déjà String (chaîne), la barre rouge ne s'affiche pas.
  • Pour faire en sorte que le type de la colonne productSKU soit "Chaîne", ouvrez le menu situé à droite de la colonne productSKU en cliquant sur Icône Flèche vers le bas, puis sélectionnez Change type > String (Changer de type > Chaîne).

    Option du menu String (Chaîne)

  • Si l'on considère la colonne v2ProductName (Nom de produit v2), quels sont les produits les plus populaires ? Histogramme v2ProductName

Réponse : Les produits Nest

  • Si l'on considère la colonne v2ProductCategory (Catégorie de produits v2), quelles sont les catégories de produits les plus populaires ? Combien de catégories ont fait l'objet d'un échantillonnage ?

    Histogramme v2ProductCategory

Réponse : "Nest" ("not set", catégorie non définie) et "Apparel" (Habillement) sont les plus populaires des quelque 25 catégories.

  • Vrai ou faux : La productVariant (Variante de produit) la plus courante est "COLOR" (COULEUR).

Réponse : Faux. Il s'agit de "(not set)" (non défini), car aucune variante n'est disponible pour la plupart des produits (plus de 80 %).

  • Quelles sont les deux catégories du type ?

Réponse : "PAGE" et "EVENT" (ÉVÉNEMENT)

  • Quelle est la valeur moyenne de productQuantity (Quantité de produit) ?

Réponse : 3,45 (votre réponse peut varier)

  • Combien y a-t-il de codes SKU distincts dans l'ensemble de données ?

Réponse : Plus de 600

  • Parmi les produits les plus populaires, quels sont les noms de ceux qui apparaissent le plus souvent si l'on considère le nombre de lignes ? Et quelles sont les catégories les plus populaires ?

Réponse :

Cam Outdoor Security Camera - USA

Cam Indoor Security Camera - USA

Learning Thermostat 3rd Gen-USA - Stainless Steel

  • Quel est le principal code de devise pour les transactions ?

Réponse : USD (dollar américain)

  • Existe-t-il des valeurs valides pour itemQuantity ou itemRevenue ?

Réponse : Non, ces valeurs sont NULL.

  • Quel est le pourcentage des ID de transaction ayant une valeur valide ? À quoi est-ce que cela correspond pour notre ensemble de données d'e-commerce ?

    Vue à onglets de la présentation des détails de transactionID

Réponse : Environ 4,6 % des ID de transaction ont une valeur valide, ce qui correspond au taux de conversion moyen du site Web (4,6 % des visiteurs effectuent au moins une transaction).

  • Combien existe-t-il de types d'actions d'e-commerce (eCommerceAction_type), et quelle est l'étape d'action d'e-commerce (eCommerceAction_step) la plus populaire ?

Réponses :

Six types ont des données dans notre échantillon.

0 (ou NULL) est l'étape la plus populaire.

Tâche 5 : Nettoyer les données

Dans cette tâche, vous allez nettoyer les données en supprimant les colonnes inutilisées, en éliminant les doublons, en créant des champs calculés et en filtrant les lignes. La suppression de colonnes est une pratique courante lorsque les champs sont obsolètes dans le schéma ou qu'ils ont tous des valeurs NULL.

Supprimer les colonnes inutilisées

  • Sélectionnez la colonne que vous ne souhaitez pas conserver, puis cliquez sur Delete (Supprimer). Faites la même chose pour les colonnes suivantes, qui ne contiennent que des valeurs NULL :

    Option de suppression de la colonne itemQuantity

  • itemRevenue (Revenu généré par l'article)

  • itemQuantity (Quantité de l'article)

Dédupliquer les lignes

Votre équipe vous a informé que l'ensemble de données source pouvait contenir des sessions en double. Supprimons-les grâce à une étape de déduplication.

  1. Cliquez sur Recipe (Recette) (Icône Recette) en haut à droite et sélectionnez New Step (Nouvelle étape).

  2. Dans le champ de recherche Transformation, saisissez deduplicate (dédupliquer) et sélectionnez Remove duplicate rows (Supprimer les lignes en double).

  3. Cliquez sur Add (Ajouter).

  4. Examinez votre recette pour voir ce que vous avez créé jusqu'à présent :

Étapes de la recette

Filtrer les sessions pour exclure celles n'ayant pas généré de revenus

Votre équipe vous a demandé de créer une table de toutes les sessions d'utilisateurs ayant acheté au moins un article sur votre site Web. Filtrez les sessions utilisateur avec un revenu NULL.

  1. Sous la colonne totalTransactionRevenue (Total des revenus de la transaction), cliquez sur la barre des valeurs manquantes.

  2. Dans le panneau Suggestions, cliquez sur Delete rows (Supprimer les lignes) là où il vous est indiqué que des valeurs sont manquantes, puis cliquez sur Add (Ajouter), comme illustré ici.

Panneau Suggestions, option Delete rows (Supprimer les lignes) sélectionnée

Cette étape filtre votre ensemble de données afin de n'inclure que les transactions générant des revenus, c'est-à-dire les transactions pour lesquelles totalTransactionRevenue (Total des revenus de la transaction) n'est pas NULL.

Filtrer les sessions pour ne conserver que le type "PAGE"

L'ensemble de données contient à la fois des vues des pages du site Web et des événements déclenchés tels que “viewed product categories” (Catégories de produits vues) ou “added to cart” (Ajouté au panier). Pour éviter de comptabiliser deux fois les pages vues de la session, ajoutez un filtre afin de n'inclure que les événements liés à une vue de page.

  1. Dans la colonne type, cliquez sur la barre pour "PAGE".

  2. Dans le panneau Suggestions, cliquez sur "Keep rows" (Conserver les lignes) là où il vous est indiqué que le type est "PAGE", puis cliquez sur Add (Ajouter).

Filtrer les résultats pour ne conserver que les produits d'habillement

Votre équipe vous a maintenant demandé de filtrer davantage vos résultats afin de n'inclure que les transactions de la catégorie "Apparel" (Habillement). Cette catégorie comprend divers articles et accessoires vestimentaires (par exemple, les T-shirts).

  1. Cliquez sur l'icône de la liste déroulante située à côté de la colonne v2ProductCategory (Catégorie de produits v2).

  2. Sélectionnez Filter rows > On column values (Filtrer les lignes > En fonction des valeurs des colonnes).

  3. Sélectionnez Contains (Contient).

  4. Dans Pattern to match (Modèle à mettre en correspondance), saisissez "Apparel" (en respectant bien la casse) pour indiquer que vous ne voulez voir que les produits d'habillement, puis cliquez sur Add (Ajouter).

Remarque : Les produits du catalogue peuvent appartenir à plusieurs catégories, par exemple à "Apparel" et à "Home/Apparel/" (Maison/Habillement/). C'est pourquoi nous cherchons à établir une correspondance avec toutes les lignes dont le nom de la catégorie contient "Apparel".

Panneau pour filtrer les lignes avec les filtres suivants : contient v2ProductCategory, correspond au modèle Apparel et conserver les lignes correspondantes

Tâche 6 : Enrichir les données

Pour en savoir plus sur le schéma utilisé dans cet atelier, consultez le schéma de BigQuery Export [UA]. Recherchez visitId dans cet article et lisez la description pour déterminer si cette valeur est propre à toutes les sessions utilisateur ou juste à l'utilisateur.

"visitId" : identifiant défini pour cette session. Il fait partie de la valeur généralement stockée sous la forme du cookie _utmb. Il est propre à cet utilisateur. Pour obtenir un identifiant parfaitement unique, vous devez combiner les valeurs des champs "fullVisitorId" (ID visiteur complet) et "visitId" (ID visite).

visitId n'est pas unique pour tous les utilisateurs.

Dans cette tâche, vous allez ajouter une nouvelle colonne concaténée pour créer un champ d'ID de session unique. Vous enrichirez ensuite vos données d'étiquette d'e-commerce avec une instruction de cas.

Créer une colonne pour un identifiant de session unique

Comme vous l'avez découvert, l'ensemble de données ne comprend pas de colonne pour les sessions de visiteur unique. Créez un identifiant unique pour chaque session en concaténant les champs fullVisitorID et visitId.

  1. Cliquez sur New Step (Nouvelle étape).

  2. Pour Transformation, saisissez concat, puis sélectionnez Merge columns (Fusionner les colonnes).

  3. Pour Columns (Colonnes), sélectionnez fullVisitorId et visitId.

  4. Pour New column name (Nom de la nouvelle colonne), saisissez unique_session_id (ID de session unique), conservez les valeurs par défaut pour les autres entrées et cliquez sur Add (Ajouter).

Créer une instruction de cas pour le type d'action d'e-commerce

Le champ eCommerceAction_type (type d'action d'e-commerce) est un entier qui établit une correspondance avec des actions d'e-commerce effectuées au cours de cette session, par exemple 3 = "Add to Cart" (Ajout au panier) ou 5 = "Check out" (Paiement). Créez une colonne de calcul établissant une correspondance avec le nombre entier.

  1. Cliquez sur New Step (Nouvelle étape).

  2. Dans le panneau Transformation, saisissez case (cas), puis sélectionnez Conditional column (Colonne conditionnelle).

  3. Sélectionnez Case on single column (Cas sur une seule colonne) dans la liste déroulante.

  4. Pour Column to evaluate (Colonne à évaluer), indiquez eCommerceAction_type.

  5. À côté de Cases (X) (Cas [X]), cliquez sur Add (Ajouter) huit fois pour un total de neuf cas.

  6. Pour chaque cas, indiquez les valeurs de mise en correspondance suivantes (en incluant les apostrophes) :

Valeur à comparer Nouvelle valeur
1 "Click through of product lists" (Clic dans des listes de produits)
2 "Product detail views" (Vues de détails produit)
3 "Add product(s) to cart" (Ajout du/des produit(s) au panier)
4 "Remove product(s) from cart" (Suppression du/des produit(s) du panier)
5 "Check out" (Paiement)
6 "Completed purchase" (Achat réalisé)
7 "Refund of purchase" (Remboursement d'achat)
8 "Checkout options" (Options de paiement)
0 "Unknown" (Inconnu)

Conservez les valeurs par défaut des autres champs.

  1. Pour New column name (Nom de la nouvelle colonne), saisissez eCommerceAction_label (Étiquette d'action d'e-commerce) et cliquez sur Add (Ajouter).

  2. Examinez votre recette et comparez-la à cet exemple :

    Étapes de la recette

Tâche 7 : Exécuter un job Cloud Dataprep pour charger BigQuery

Lorsque vous êtes satisfait du flux, vous pouvez exécuter la recette de transformation en l'appliquant à votre ensemble de données source. Pour ce faire, vous devez exécuter et surveiller un job Cloud Dataprep (qui démarre et exécute un job Cloud Dataflow).

  1. Sur la page Transformer (Transformateur), en haut à droite, cliquez sur Run (Exécuter).

  2. Dans la section Publishing Actions (Actions de publication), pointez sur Create-CSV (Créer CSV), puis cliquez sur Edit (Modifier).

  3. Sélectionnez BigQuery dans le panneau de gauche et accédez à votre ensemble de données d'e-commerce, puis cliquez sur Create a new table (Créer une table).

  4. Nommez la table de résultats apparel_revenue (revenus pour l'habillement) et sélectionnez Drop the table every run (Supprimer la table à chaque exécution) dans le panneau de droite.

  5. Cliquez sur Update (Mettre à jour).

  6. Cliquez sur Exécuter.

  7. Cliquez sur Job history (Historique des jobs) dans le panneau de gauche pour surveiller votre tâche Cloud Dataprep.

  8. Patientez une à deux minutes, le temps que l'exécution de votre job se termine.

Une fois l'exécution de votre job Cloud Dataprep terminée, actualisez la page de BigQuery et vérifiez que la table de résultats apparel_revenue existe bien.

Console BigQuery

Sélectionnez apparel_revenue > Preview (Aperçu) et assurez-vous que vous disposez de données sur les revenus des transactions pour les produits d'habillement.

Résultat de la requête dans la vue d'aperçu à onglets

Félicitations !

Vous avez exploré votre ensemble de données d'e-commerce et créé un pipeline de transformation de données récurrentes avec Cloud Dataprep.

Vous possédez un compte Google Analytics et souhaitez interroger vos propres ensembles de données dans BigQuery ? Suivez ce guide de configuration de BigQuery Export.

Terminer l'atelier

Une fois l'atelier terminé, cliquez sur Terminer l'atelier. Google Cloud Skills Boost supprime les ressources que vous avez utilisées, puis efface le compte.

Si vous le souhaitez, vous pouvez noter l'atelier. Sélectionnez un nombre d'étoiles, saisissez un commentaire, puis cliquez sur Envoyer.

Le nombre d'étoiles correspond à votre degré de satisfaction :

  • 1 étoile = très insatisfait(e)
  • 2 étoiles = insatisfait(e)
  • 3 étoiles = ni insatisfait(e), ni satisfait(e)
  • 4 étoiles = satisfait(e)
  • 5 étoiles = très satisfait(e)

Si vous ne souhaitez pas donner votre avis, vous pouvez fermer la boîte de dialogue.

Pour soumettre des commentaires, suggestions ou corrections, veuillez accéder à l'onglet Assistance.

Copyright 2020 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.

Avant de commencer

  1. Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
  2. Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
  3. En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.

Utilisez la navigation privée

  1. Copiez le nom d'utilisateur et le mot de passe fournis pour l'atelier
  2. Cliquez sur Ouvrir la console en navigation privée

Connectez-vous à la console

  1. Connectez-vous à l'aide des identifiants qui vous ont été attribués pour l'atelier. L'utilisation d'autres identifiants peut entraîner des erreurs ou des frais.
  2. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
  3. Ne cliquez pas sur Terminer l'atelier, à moins que vous n'ayez terminé l'atelier ou que vous ne vouliez le recommencer, car cela effacera votre travail et supprimera le projet.

Ce contenu n'est pas disponible pour le moment

Nous vous préviendrons par e-mail lorsqu'il sera disponible

Parfait !

Nous vous contacterons par e-mail s'il devient disponible

Un atelier à la fois

Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci

Utilisez la navigation privée pour effectuer l'atelier

Ouvrez une fenêtre de navigateur en mode navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.