Mettez en pratique vos compétences dans la console Google Cloud
Instructions et exigences de configuration de l'atelier
Protégez votre compte et votre progression. Utilisez toujours une fenêtre de navigation privée et les identifiants de l'atelier pour exécuter cet atelier.
Ce contenu n'est pas encore optimisé pour les appareils mobiles.
Pour une expérience optimale, veuillez accéder à notre site sur un ordinateur de bureau en utilisant un lien envoyé par e-mail.
Présentation
Dans cet atelier, vous allez apprendre à installer Cloud Service Mesh (CSM) sur Google Kubernetes Engine. Cloud Service Mesh est un service géré basé sur Istio, le maillage de services Open Source le plus utilisé.
Un maillage de services vous offre un framework permettant de connecter, de sécuriser et de gérer des microservices. Il fournit pour Kubernetes une couche de mise en réseau dotée de fonctionnalités avancées d'équilibrage de charge, d'authentification mutuelle entre services et de surveillance, sans qu'il soit nécessaire de modifier le code des services.
Cloud Service Mesh dispose d'une suite de fonctionnalités et d'outils supplémentaires qui vous permettent d'observer et de gérer des services sécurisés et fiables de manière unifiée. Dans cet atelier, vous allez également apprendre à utiliser certaines de ces fonctionnalités :
Les métriques et journaux de service pour le trafic HTTP(S) dans le cluster GKE de votre maillage sont automatiquement ingérés dans Google Cloud.
Les tableaux de bord de services préconfigurés vous fournissent les informations nécessaires pour comprendre vos services.
La télémétrie détaillée vous permet d'explorer vos métriques et journaux, en filtrant et en segmentant vos données en fonction d'une grande variété d'attributs.
Les relations de service à service vous permettent de savoir rapidement qui se connecte à quel service et d'identifier les dépendances entre services.
Les objectifs de niveau de service (SLO) fournissent des insights sur l'état de vos services. Vous pouvez facilement définir un SLO et une alerte en fonction de vos propres normes d'état de service.
Cloud Service Mesh est le moyen le plus simple et le plus complet pour mettre en œuvre un maillage de services basé sur Istio sur vos clusters GKE Enterprise.
Objectifs
Dans cet atelier, vous allez apprendre à effectuer les tâches suivantes :
Installer Cloud Service Mesh, en activant le traçage et en le configurant de façon à utiliser Cloud Trace comme backend
Déployer Bookinfo, une application multiservice compatible avec Istio
Activer l'accès externe à l'aide d'une passerelle d'entrée Istio
Utiliser l'application Bookinfo
Évaluer les performances du service à l'aide des fonctionnalités Cloud Trace dans Google Cloud
Créer et surveiller des objectifs de niveau de service (SLO)
Utiliser le tableau de bord Cloud Service Mesh pour comprendre les performances du service
Préparation
Pour chaque atelier, nous vous attribuons un nouveau projet Google Cloud et un nouvel ensemble de ressources pour une durée déterminée, sans frais.
Connectez-vous à Qwiklabs dans une fenêtre de navigation privée.
Vérifiez le temps imparti pour l'atelier (par exemple : 01:15:00) : vous devez pouvoir le terminer dans ce délai.
Une fois l'atelier lancé, vous ne pouvez pas le mettre en pause. Si nécessaire, vous pourrez le redémarrer, mais vous devrez tout reprendre depuis le début.
Lorsque vous êtes prêt, cliquez sur Démarrer l'atelier.
Notez vos identifiants pour l'atelier (Nom d'utilisateur et Mot de passe). Ils vous serviront à vous connecter à Google Cloud Console.
Cliquez sur Ouvrir la console Google.
Cliquez sur Utiliser un autre compte, puis copiez-collez les identifiants de cet atelier lorsque vous y êtes invité.
Si vous utilisez d'autres identifiants, des messages d'erreur s'afficheront ou des frais seront appliqués.
Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
Une fois la connexion initiale effectuée, le tableau de bord du projet s'affiche.
Cliquez sur Sélectionner un projet, puis sélectionnez l'ID du projet GCP. Cliquez ensuite sur Ouvrir pour ouvrir le projet sélectionné.
Activer Google Cloud Shell
Google Cloud Shell est une machine virtuelle qui contient de nombreux outils pour les développeurs. Elle comprend un répertoire d'accueil persistant de 5 Go et s'exécute sur Google Cloud.
Google Cloud Shell vous permet d'accéder à vos ressources Google Cloud grâce à une ligne de commande.
Dans la barre d'outils située en haut à droite dans la console Cloud, cliquez sur le bouton "Ouvrir Cloud Shell".
Cliquez sur Continuer.
Le provisionnement et la connexion à l'environnement prennent quelques instants. Une fois connecté, vous êtes en principe authentifié et le projet est défini sur votre ID_PROJET. Par exemple :
gcloud est l'outil de ligne de commande pour Google Cloud. Il est préinstallé sur Cloud Shell et permet la complétion par tabulation.
Vous pouvez lister les noms des comptes actifs à l'aide de cette commande :
Vous pouvez lister les ID de projet à l'aide de cette commande :
gcloud config list project
Résultat :
[core]
project =
Exemple de résultat :
[core]
project = qwiklabs-gcp-44776a13dea667a6
Remarque : Pour consulter la documentation complète sur gcloud, accédez au guide de présentation de la gcloud CLI.
Remarque : L'environnement de l'atelier a déjà été partiellement configuré. Un cluster GKE nommé gke a été créé et enregistré.
Tâche 1 : Installer Cloud Service Mesh en installant le traçage
Un cluster Google Kubernetes Engine (GKE) nommé gke a déjà été créé et enregistré. Vous allez installer Cloud Service Mesh sur ce cluster et remplacer la configuration standard afin d'activer les composants de traçage facultatifs.
Configurer l'accès au cluster pour kubectl et vérifier le cluster
Pour définir les variables d'environnement à utiliser dans les scripts, exécutez les commandes suivantes dans Cloud Shell :
Définissez la variable d'environnement "Nom".
CLUSTER_NAME=gke
Définissez les variables d'environnement "Zone" et "Région".
CLUSTER_ZONE={{{ project_0.default_zone| "Zone ajoutée au début de l'atelier" }}}
CLUSTER_REGION={{{ project_0.default_region| "Région ajoutée au début de l'atelier" }}}
Définissez la variable d'environnement "ID du projet".
PROJECT_ID={{{ project_0.project_id | "PROJECT ID ajouté au début de l'atelier" }}}
Définissez la variable d'environnement "Numéro de projet".
La valeur "MASTER_VERSION" peut être différente dans votre installation, car vous utilisez le canal de publication standard de GKE pour installer le cluster.
Activer GKE Enterprise
Activez GKE Enterprise à partir de la ligne de commande. L'API Fleet (GKE Hub) est également activée automatiquement.
Vérifiez que le mappage de configuration a été activé :
kubectl get configmap
Résultat :
NAME DATA AGE
kube-root-ca.crt 1 48m
Félicitations !
Vous disposez maintenant d'un cluster GKE sur lequel Cloud Service Mesh est installé. Les métriques Kubernetes sont enregistrées dans Cloud Monitoring, les journaux sont enregistrés dans Cloud Logging et les informations de traçage distribué sont envoyées à Cloud Trace.
Tâche 2 : Installer l'application de démonstration des microservices sur le cluster
Online Boutique est une application de démonstration de microservices cloud native. L'application de microservices Online Boutique comprend 10 niveaux. Cette application est un outil Web d'e-commerce permettant aux utilisateurs de parcourir des articles, de les ajouter à un panier et de les acheter.
Google s'en sert pour démontrer l'utilisation de technologies telles que Kubernetes/GKE, Istio/ASM, la suite Google Operations, gRPC et OpenCensus. Cette application fonctionne sur tous les clusters Kubernetes (comme un cluster local) et sur Google Kubernetes Engine. Facile à déployer, elle nécessite peu de configuration, voire aucune.
Pour en savoir plus sur l'application, consultez le dépôt GitHub.
Revenez à Kubernetes, cliquez sur Charges de travail, puis sous Mise en réseau, cliquez sur les pages Passerelles, services et entrées, et vérifiez que les nouveaux déploiements et services ont été créés sur le cluster GKE.
Remarque : Vous pouvez filtrer ces pages par cluster, type d'objet et espace de noms pour faciliter l'analyse des informations présentées.
Prenez quelques instants pour examiner l'application de démonstration à l'aide de la console et de l'UI.
Remarque : Lorsque les charges de travail affichent l'état OK, utilisez l'adresse IP associée au service frontend-external (pour l'un des clusters) pour effectuer l'une des opérations suivantes :
Consultez la page Services et entrées dans la console.
Ouvrez un nouvel onglet et saisissez l'adresse IP du service frontend-external.
Parcourez plusieurs pages pour vous faire une idée de l'application.
Tâche 3 : Examiner les fonctionnalités de la suite Google Cloud Operations
Lorsque vous installez un cluster GKE ou Anthos, vous pouvez activer la collecte de journaux et de métriques de cluster, ainsi que leur transfert à Cloud Logging et Cloud Monitoring.
Vous bénéficiez ainsi d'une visibilité sur le cluster, les nœuds, les pods et même les conteneurs du cluster. Toutefois, GKE et Anthos ne surveillent pas la communication entre les microservices.
Avec Cloud Service Mesh, puisque chaque requête passe par un proxy Envoy, des informations de télémétrie sur les microservices peuvent être collectées et inspectées. Les extensions de proxy Envoy envoient ensuite ces données de télémétrie à Google Cloud, où vous pouvez les inspecter.
Utilisez les tableaux de bord Cloud Trace pour examiner les requêtes et leur latence, ainsi que pour obtenir le détail de tous les services impliqués dans une requête.
Dans la console Google Cloud, accédez au menu de navigation, puis cliquez sur Trace.
Un graphique de trace indique les requêtes de service effectuées dans l'application de démonstration.
Cliquez sur un point qui apparaît plus haut sur le graphique (correspondant à une durée de requête globale plus élevée).
Combien de temps la requête a-t-elle duré ?
Quand cette requête a-t-elle eu lieu ?
Quel service a été appelé ?
Quels autres services ont été appelés lors de l'exécution de cette requête ?
Qu'est-ce qui a pris le plus de temps lors du traitement de cette requête ?
Tâche 4 : Déployer une version Canary à latence élevée
Dans cette tâche, vous allez déployer une nouvelle version d'un service présentant un problème qui entraîne une latence élevée. Dans les tâches suivantes, vous allez utiliser les outils d'observabilité pour diagnostiquer et résoudre le problème.
Dans Cloud Shell, clonez le dépôt contenant les fichiers de configuration dont vous avez besoin pour cette partie de l'atelier :
Une règle DestinationRule pour définir le routage des requêtes entre les versions du service
Un nouveau déploiement du service de catalogue de produits présentant une latence élevée
Un service VirtualService pour router 75 % du trafic du catalogue de produits vers v1, et 25 % vers v2
Vous pouvez ouvrir chacun des fichiers de configuration dans l'éditeur Cloud Shell pour mieux comprendre la définition de chaque nouvelle ressource.
Tâche 5 : Définir votre objectif de niveau de service
Lorsque vous n'utilisez pas Cloud Service Mesh, vous pouvez définir des SLO à l'aide de l'API Service Monitoring. Lorsque vous utilisez Cloud Service Mesh, comme avec le cluster gke, vous pouvez définir et surveiller des SLO via le tableau de bord Cloud Service Mesh.
Dans le menu de navigation de la console Google Cloud, cliquez sur Kubernetes Engine pour ouvrir le tableau de bord GKE.
Notez qu'un cluster est enregistré dans le parc.
Dans le panneau latéral, sous Fonctionnalités, cliquez sur Service Mesh pour accéder au tableau de bord Cloud Service Mesh.
Un résumé des performances de service comprenant des informations sur le SLO s'affiche. Vous allez à présent définir un nouveau SLO pour le service de catalogue de produits.
Dans la liste des Services, cliquez sur productcatalogservice.
Dans le volet de navigation, cliquez sur État.
Cliquez sur + Créer un SLO.
Dans le menu coulissant Définissez votre SLI, sélectionnez Latence comme métrique.
Sélectionnez la méthode d'évaluation Basée sur les requêtes.
Cliquez sur Continuer.
Fixez le Seuil de latence à 1 000 et cliquez sur Continuer.
Pour le Type de période, choisissez Agenda.
Définissez la Durée de la période sur Jour calendaire.
Remarque : Une disponibilité de 99 % sur une même journée est différente d'une disponibilité de 99 % sur un mois. Le premier SLO ne vous permet pas plus de 14 minutes consécutives de temps d'arrêt (24 h * 1 %), tandis que le second SLO permet un temps d'arrêt pouvant représenter jusqu'à 7 heures consécutives environ (30 jours * 1 %).
Définissez l'Objectif de performances sur 99,5 %.
Le graphique Preview (Aperçu) montre où se situe votre objectif par rapport aux données historiques réelles.
Cliquez sur Continuer.
Examinez le nom à afficher : 99,5 % - Latence - Jour calendaire.
Vous pouvez l'ajuster si nécessaire.
Le document JSON généré automatiquement s'affiche également. Vous pouvez aussi utiliser les API pour automatiser la création de SLO à l'avenir.
Pour créer le SLO, cliquez sur +Créer un SLO.
Tâche 6 : Diagnostiquer le problème
Rechercher l'origine du problème à l'aide des métriques de service
Cliquez sur l'entrée de votre SLO dans la liste des SLO.
Une vue détaillée s'affiche.
Votre SLO indique probablement que vous avez déjà dépassé la marge d'erreur. Si ce n'est pas le cas, attendez trois à cinq minutes avant d'actualiser la page. Vous finirez par épuiser votre marge d'erreur, car un trop grand nombre des requêtes adressées à ce service atteindront le nouveau backend, lequel présente une latence élevée.
Dans le volet de navigation, cliquez sur Métriques.
Faites défiler la page jusqu'à la section Latence de la vue Métriques. Notez que la latence du service a augmenté il y a quelques minutes, à peu près au moment du déploiement de la version Canary du service.
Dans le menu déroulant Répartir par, sélectionnez Service source.
Quels pods affichent une latence élevée et entraînent l'échec général du SLO ?
Pour revenir à la page Service Mesh, dans le volet de navigation, cliquez sur Service Mesh.
Un SLO apparaît comme dépassant la marge d'erreur. Un avertissement figure à côté du service concerné dans la liste des Services.
Remarque : Vous n'avez défini qu'un seul SLO pour un seul service. Dans un environnement de production réel, il est probable que vous disposiez de plusieurs SLO pour chaque service.
En outre, vous n'avez défini aucune règle d'alerte pour votre SLO.
Il est préférable que Cloud Monitoring déclenche une alerte si vous dépassez la marge d'erreur plus rapidement que prévu.
Utiliser Cloud Trace pour mieux comprendre l'origine du retard
Dans le menu de navigation de la console Google Cloud, cliquez sur Trace > Explorateur Trace.
Cliquez sur un point positionné à environ 3 000 ms. Celui-ci doit représenter l'une des requêtes adressées au service de catalogue de produits.
Notez que tout le temps semble consacré au service de catalogue lui-même.
Bien que des appels soient adressés à d'autres services, ceux-ci paraissent tous renvoyer des résultats très rapidement. En revanche, un élément du service de catalogue de produits semble prendre beaucoup de temps.
Remarque : Cloud Service Mesh collecte automatiquement des informations sur les appels réseau dans le maillage et fournit des données de traçage qui indiquent le temps consacré à ces appels. Cette méthode est utile et ne requiert aucun effort supplémentaire de la part du développeur.
Cependant, le temps consacré à la charge de travail (dans le cas présent, le pod du service de catalogue de produits) n'est pas instrumenté directement par Istio. Si nécessaire, le développeur peut ajouter une logique d'instrumentation dans le service lui-même pour obtenir ce niveau de détail.
Tâche 7 : Effectuer un rollback de la version et vérifier que la situation s'améliore
Dans Cloud Shell, supprimez la version Canary de la règle de destination :
Dans le menu de navigation de la console Google Cloud, cliquez sur Anthos > Service Mesh.
Cliquez sur productcatalogservice, puis dans le volet de navigation, cliquez sur État.
Notez le pourcentage de conformité actuel.
Cliquez sur Métriques.
Sur le graphique affichant la latence, les séries de latence indiquent toutes une baisse correspondant au moment où vous avez effectué un rollback de la version incorrecte de la charge de travail.
Revenez à la page État.
Comparez la métrique de conformité actuelle avec celle que vous avez relevée précédemment. La nouvelle métrique devrait avoir une valeur plus élevée, étant donné que vous ne voyez plus les requêtes à latence élevée.
Tâche 8 : Visualiser votre maillage avec le tableau de bord Cloud Service Mesh
Dans le menu de navigation, cliquez sur Kubernetes Engine > Service Mesh.
Affichez la topologie sur la droite.
Un graphique représentant votre maillage de services s'affiche.
Si vous ne voyez pas de graphique de topologie complet comme celui-ci, il est possible que toutes les données de topologie n'aient pas été collectées. L'actualisation de ces données dans le graphique peut prendre plus de 10 minutes. Vous pouvez passer à la section suivante et revenir plus tard pour consulter le graphique.
Cliquez sur le nœud de la charge de travail d'interface et notez les services appelés par cette charge de travail.
Prenez quelques minutes pour en apprendre davantage sur l'architecture de l'application et mieux la comprendre. Vous pouvez réorganiser les nœuds, afficher le détail des charges de travail pour visualiser les déploiements et les pods, modifier les périodes, etc.
Félicitations ! Vous avez utilisé les outils de la suite Operations de Google Cloud pour évaluer et résoudre les problèmes, et améliorer les performances du service sur votre cluster GKE Enterprise géré.
Récapitulatif
Dans cet atelier, vous avez appris à effectuer des opérations de journalisation, de surveillance et de traçage à l'aide de la suite Google Cloud Operations.
Terminer l'atelier
Une fois l'atelier terminé, cliquez sur Terminer l'atelier. Google Cloud Skills Boost supprime les ressources que vous avez utilisées, puis efface le compte.
Si vous le souhaitez, vous pouvez noter l'atelier. Sélectionnez un nombre d'étoiles, saisissez un commentaire, puis cliquez sur Envoyer.
Le nombre d'étoiles correspond à votre degré de satisfaction :
1 étoile = très insatisfait(e)
2 étoiles = insatisfait(e)
3 étoiles = ni insatisfait(e), ni satisfait(e)
4 étoiles = satisfait(e)
5 étoiles = très satisfait(e)
Si vous ne souhaitez pas donner votre avis, vous pouvez fermer la boîte de dialogue.
Pour soumettre des commentaires, suggestions ou corrections, veuillez accéder à l'onglet Assistance.
Copyright 2026 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms de société et de produit peuvent être des marques des sociétés auxquelles ils sont associés.
Les ateliers créent un projet Google Cloud et des ressources pour une durée déterminée.
Les ateliers doivent être effectués dans le délai imparti et ne peuvent pas être mis en pause. Si vous quittez l'atelier, vous devrez le recommencer depuis le début.
En haut à gauche de l'écran, cliquez sur Démarrer l'atelier pour commencer.
Utilisez la navigation privée
Copiez le nom d'utilisateur et le mot de passe fournis pour l'atelier
Cliquez sur Ouvrir la console en navigation privée
Connectez-vous à la console
Connectez-vous à l'aide des identifiants qui vous ont été attribués pour l'atelier. L'utilisation d'autres identifiants peut entraîner des erreurs ou des frais.
Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.
Ne cliquez pas sur Terminer l'atelier, à moins que vous n'ayez terminé l'atelier ou que vous ne vouliez le recommencer, car cela effacera votre travail et supprimera le projet.
Ce contenu n'est pas disponible pour le moment
Nous vous préviendrons par e-mail lorsqu'il sera disponible
Parfait !
Nous vous contacterons par e-mail s'il devient disponible
Un atelier à la fois
Confirmez pour mettre fin à tous les ateliers existants et démarrer celui-ci
Utilisez la navigation privée pour effectuer l'atelier
Le meilleur moyen d'exécuter cet atelier consiste à utiliser une fenêtre de navigation privée. Vous éviterez ainsi les conflits entre votre compte personnel et le compte temporaire de participant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
Effectuez une installation personnalisée de Cloud Service Mesh, évaluez les performances avec la surveillance, la journalisation et le traçage, puis définissez et mesurez les SLO. Vous pouvez également effectuer des tâches d'observabilité similaires à l'aide d'outils OSS courants.
Durée :
13 min de configuration
·
Accessible pendant 90 min
·
Terminé après 90 min