ラボの設定手順と要件
アカウントと進行状況を保護します。このラボを実行するには、常にシークレット ブラウジング ウィンドウとラボの認証情報を使用してください。

Pub/Sub と BigQuery を使用して e スポーツデータをストリーミング

ラボ 1時間 universal_currency_alt クレジット: 1 show_chart 入門
info このラボでは、学習をサポートする AI ツールが組み込まれている場合があります。
このコンテンツはまだモバイル デバイス向けに最適化されていません。
快適にご利用いただくには、メールで送信されたリンクを使用して、デスクトップ パソコンでアクセスしてください。

GSP1342

Google Cloud セルフペース ラボのロゴ

概要

あなたは Cymbal Gaming のデータ エンジニアとして、開発チームとともに新しい e スポーツゲーム「Galactic Grand Prix」の開発に携わっています。このゲームでは、異なるチームに属する 2 人のプレーヤーの対戦に基づいてリアルタイムのデータが生成されます。たとえば、1 つのイベントで 2 人のプレーヤーが競い合い、勝者が決まると勝者とチームにポイントが与えられます。あなたは、このストリーミング データを Pub/Sub を使用して処理し、結果を BigQuery のテーブルに保存するソリューションを構築するよう依頼されました。これらのテーブルから、ダッシュボードのバックエンド データ構造として機能するリーダーボード ビューを BigQuery で作成するよう指示されています。

BigQuery が Pub/Sub サブスクリプションに直接接続できること、このタイプのユースケースに使用できることはすでに学びました。また、新しいクエリの記述に行き詰まったときに Gemini に相談してサポートを受けられるなど、Gemini がさまざまな場面で役立つことも学びました。問題の解決に役立つ提案もしてくれます。これらの機能を使用すれば、もっと自立して取り組めるようになり、おそらくは効率も向上するはずです。しかし、何から始めればよいかわかりません。

このラボの開始時に提供される環境には、事前に構築されたリソースがありません。

ラボの開始時に提供されるアーキテクチャ。

ラボを終えるまでに、次のアーキテクチャを構築して複数のタスクを実行します。

ラボの完了時に構築されているアーキテクチャ。

次の表で、ラボのアーキテクチャに含まれる各タスクについて詳しく説明します。

タスクの番号 詳細
1. Cloud Shell で環境変数を構成する。
2. BigQuery リソースを作成する:
Cloud Shell コマンドを使用して、BigQuery データセットとテーブルを作成する。
3. Pub/Sub トピックとサブスクリプションを作成する:
Pub/Sub コンソールを使用してトピックとサブスクリプションを作成し、サブスクリプションを変更して BigQuery データセットとテーブルに書き込めるようにする。
4. Pub/Sub IAM 権限を付与する:
IAM コンソールを使用して、Compute サービス アカウントに権限を付与する。
5. リポジトリから Python ファイルを取得する:
リポジトリから Python ファイルを取得し、プロジェクト用に構成する。
6. 合成データを生成する:
プロジェクト用に構成された Python ファイルを使用して esports-simulation.py ファイルを実行する。これにより、Python を使ってゲームイベントの Pub/Sub メッセージが継続的に生成される。
7. BigQuery で結果を確認する:
Pub/Sub トピックに送信したデータがキャプチャされ、BigQuery テーブルに保存されている。このテーブルに対してクエリを実行し、ビューを使用してゲームの結果を分析する。

目標

このラボでは、次の方法について学びます。

  • クラウド リソースを作成し、アクセス権を付与する。
  • リポジトリから Python ファイルを取得し、プロジェクト用に変更する。
  • 合成データを生成する。
  • BigQuery でプレーヤーとチームの結果を確認する。

最後に、このラボで学んだ内容を振り返る時間を用意しています。ラボジャーナルの質問に答えながら、自分のユースケースにストリーミング データを使ってどのように対処できるか検討してみましょう。

設定と要件

[ラボを開始] ボタンをクリックする前に

こちらの説明をお読みください。ラボには時間制限があり、一時停止することはできません。タイマーは、Google Cloud のリソースを利用できる時間を示しており、[ラボを開始] をクリックするとスタートします。

このハンズオンラボでは、シミュレーションやデモ環境ではなく実際のクラウド環境を使って、ラボのアクティビティを行います。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。

このラボを完了するためには、下記が必要です。

  • 標準的なインターネット ブラウザ(Chrome を推奨)
注: このラボの実行には、シークレット モード(推奨)またはシークレット ブラウジング ウィンドウを使用してください。これにより、個人アカウントと受講者アカウント間の競合を防ぎ、個人アカウントに追加料金が発生しないようにすることができます。
  • ラボを完了するための時間(開始後は一時停止できません)
注: このラボでは、受講者アカウントのみを使用してください。別の Google Cloud アカウントを使用すると、そのアカウントに料金が発生する可能性があります。

ラボを開始して Google Cloud コンソールにログインする方法

  1. [ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるダイアログでお支払い方法を選択してください。 左側の [ラボの詳細] ペインには、以下が表示されます。

    • [Google Cloud コンソールを開く] ボタン
    • 残り時間
    • このラボで使用する必要がある一時的な認証情報
    • このラボを行うために必要なその他の情報(ある場合)
  2. [Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウで開く] を選択します)。

    ラボでリソースがスピンアップし、別のタブで [ログイン] ページが表示されます。

    ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。

    注: [アカウントの選択] ダイアログが表示されたら、[別のアカウントを使用] をクリックします。
  3. 必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。

    {{{user_0.username | "Username"}}}

    [ラボの詳細] ペインでもユーザー名を確認できます。

  4. [次へ] をクリックします。

  5. 以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。

    {{{user_0.password | "Password"}}}

    [ラボの詳細] ペインでもパスワードを確認できます。

  6. [次へ] をクリックします。

    重要: ラボで提供された認証情報を使用する必要があります。Google Cloud アカウントの認証情報は使用しないでください。 注: このラボでご自身の Google Cloud アカウントを使用すると、追加料金が発生する場合があります。
  7. その後次のように進みます。

    • 利用規約に同意してください。
    • 一時的なアカウントなので、復元オプションや 2 要素認証プロセスは設定しないでください。
    • 無料トライアルには登録しないでください。

その後、このタブで Google Cloud コンソールが開きます。

注: Google Cloud のプロダクトやサービスにアクセスするには、ナビゲーション メニューをクリックするか、[検索] フィールドにサービス名またはプロダクト名を入力します。 ナビゲーション メニュー アイコンと検索フィールド

タスク 1. Cloud Shell で環境変数を構成する

このタスクでは、Cloud Shell で環境変数を構成します。

  1. [Cloud Shell をアクティブにする] をクリックして Cloud Shell を開きます。

  2. このラボで Cloud Shell を初めて使用するため、使用を承認する必要があります。これを行うには、ポップアップ ウィンドウで [続行]、[承認] の順にクリックします。

  3. 次のコマンドを実行します。

    export PROJECT_ID="{{{project_0.project_id|set at lab start}}}" export BUCKET_NAME="{{{project_0.project_id|set at lab start}}}-bucket"
  4. 以下のコマンドを実行して、変数が保存されていることを確認します。

    echo ${PROJECT_ID} echo ${BUCKET_NAME}

    これらの変数はラボで後ほど使用します。

タスク 2. BigQuery リソースを作成する

このタスクでは、Pub/Sub から未加工のストリーミング イベントを受信するデータセットと BigQuery テーブルを作成します。

BigQuery データセットを作成する

このタスクでは、テーブルとビューのコンテナとして機能する BigQuery データセットを作成します。

  1. Google Cloud コンソールの最上部にある検索バーを使用して、「BigQuery」を検索して移動します。「ようこそ...」というポップアップ ウィンドウが表示されます。

  2. [完了] をクリックします。

  3. 左側の [エクスプローラ] ペインで、プロジェクト ID()を見つけてクリックします。

  4. プロジェクト ID の右にあるその他アイコン(⋮)をクリックしてオプション メニューを開き、[データセットを作成] を選択します。

  5. [データセットの作成] パネルで、次の設定を構成します。

    • データセット ID: esports_analytics

    • データのロケーション: プルダウン メニューからロケーションを選択します。このラボでは、[US(米国の複数のリージョン)] が適切な選択肢です。

  6. その他の設定はデフォルト値のままにして、[データセットを作成] をクリックします。[エクスプローラ] ペインのプロジェクト ID の下に、新しい esports_analytics データセットが表示されます。これで、データセットが正常に作成されたことを確認できます。

BigQuery テーブルを作成する

  1. [エクスプローラ] ペインでプロジェクトを開き、esports_analytics データセットを選択します。

  2. データセット名の横にあるその他アイコン(⋮)をクリックし、[テーブルを作成] を選択します。

  3. 次の設定でテーブルを構成します。

    • テーブル名: raw_events
    • スキーマ: [テキストとして編集] をクリックし、次の JSON 配列を指定します。
    [ {"name": "event_id", "type": "STRING", "mode": "NULLABLE"}, {"name": "match_id", "type": "STRING", "mode": "NULLABLE"}, {"name": "game_name", "type": "STRING", "mode": "NULLABLE"}, {"name": "event_type", "type": "STRING", "mode": "NULLABLE"}, {"name": "team_a_id", "type": "STRING", "mode": "NULLABLE"}, {"name": "player_a_id", "type": "STRING", "mode": "NULLABLE"}, {"name": "team_b_id", "type": "STRING", "mode": "NULLABLE"}, {"name": "player_b_id", "type": "STRING", "mode": "NULLABLE"}, {"name": "winner_player_id", "type": "STRING", "mode": "NULLABLE"}, {"name": "winner_team_id", "type": "STRING", "mode": "NULLABLE"}, {"name": "timestamp", "type": "TIMESTAMP", "mode": "NULLABLE"} ]
  4. [テーブルを作成] をクリックします。

    これにより、esports_analytics データセットに raw_events テーブルが作成されます。

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。 BigQuery リソースを作成する

タスク 3. Pub/Sub トピックとサブスクリプションを作成する

このタスクでは、ストリーミング ゲームデータを受信するための Pub/Sub トピックとサブスクリプションを作成し、IAM 権限を追加して、サブスクリプションを変更し、アプリケーションがそのトピックからメッセージを受信して BigQuery の raw_events テーブルに転送できるようにします。

トピックを作成する

  1. Google Cloud コンソールで [Pub/Sub] に移動します。上部にある検索バーを使って探すことができます。
  2. ページの上部にある [+ トピックを作成] をクリックします。
  3. [トピック ID] に「esports_events_topic」と入力します。
  4. [デフォルトのサブスクリプションを追加] オプションが表示されます。このオプションは有効のままにします。
  5. その他のすべての設定は、デフォルト値のままにします。
  6. [作成] をクリックします。

トピックとサブスクリプションが作成されます。

サブスクリプション構成を編集し、IAM 権限を設定する

  1. サブスクリプションのリストで、[esports_events_topic-sub] をクリックします。

  2. [編集] をクリックします。[サブスクリプションの編集] ページにサブスクリプション オプションが表示されます。

  3. [配信タイプ] で [BigQuery への書き込み] を選択します。その他のオプションが表示されます。

  4. データセット オプションで [esports_analytics] を選択します。

  5. テーブル名に「raw_events」と入力します。以下のようなエラーが表示されます。

    サービス アカウント: service-@gcp-sa-pubsub.iam.gserviceaccount.com に、BigQuery テーブルへの書き込みに必要な権限(bigquery.tables.get、bigquery.tables.updateData)がありません。

    つまり、Pub/Sub サービス アカウントに、raw events テーブルへの書き込み権限を付与する必要があります。その作業を今から行います。

Pub/Sub サービス アカウントに BigQuery テーブルの権限を付与する

  1. エラー メッセージからサービス アカウントのメールアドレスをコピーします。 service-@gcp-sa-pubsub.iam.gserviceaccount.com
  2. BigQuery に移動する: コンソールから新しいブラウザタブで [BigQuery] ページを開きます。
  3. データセットを共有する: [エクスプローラ] パネルで、esports_analytics データセットを見つけ、その横にあるその他アイコン(⋮)をクリックして、[共有]、[権限を管理] の順に選択します。
  4. プリンシパルを追加する: 表示された [データセットの権限] パネルで、[プリンシパルを追加] をクリックします。
  5. Pub/Sub サービス アカウントの完全なメールアドレス(ステップ 1 でコピーしたもの)を [新しいプリンシパル] フィールドに貼り付け、Tab キーを使用して完了します。
  6. [ロール] で [BigQuery データ編集者] を選択します。
  7. [保存] をクリックします。

これで、BigQuery サブスクリプションは、受信したメッセージを raw_events テーブルに直接書き込む権限を持つようになりました。

Pub/Sub サブスクリプションの変更を完了する

  1. Pub/Sub のブラウザタブに戻ります。

  2. [スキーマ構成] で [テーブル スキーマを使用する] を選択します。

  3. 残りのオプションはデフォルトのままにします。

  4. [更新] をクリックします。

    これでサブスクリプション構成が保存されました。サブスクリプションが適切に構成されたことにより、Pub/Sub はすべてのメッセージ(ストリーミング e スポーツデータ)を BigQuery の raw_events テーブルに転送することができます。

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。 Pub/Sub トピックとサブスクリプションを作成する

タスク 4. Pub/Sub IAM 権限を付与する

ソリューションがスムーズに実行されるようにするには、Compute サービス アカウントに Pub/Sub トピックへのメッセージをパブリッシュする権限を付与する必要があります。

これにより、Python スクリプトまたはアプリケーションから Pub/Sub トピックにメッセージを送信できるようになります。

  1. Google Cloud コンソールで、[IAM と管理] > [IAM] に移動します。現在権限が構成されているプリンシパルのリストが表示されます。

  2. メールアドレスが -compute@developer.gserviceaccount.com のプリンシパルを見つけます。

  3. このプリンシパルのロールを編集: [プリンシパルを編集] をクリックします。プリンシパルの [アクセス権の編集] パネルが開きます。編集者のロールがすでに含まれています。

  4. [+ 別のロールを追加] をクリックします。

  5. [ロールを選択] フィールドで、「Pub/Sub パブリッシャー」ロールを検索して選択します。

  6. [保存] をクリックします。

    これで、ロールが Compute プリンシパルに割り当てられました。

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。 Pub/Sub IAM 権限を付与する

タスク 5. Python ファイルを取得して構成する

このタスクでは、Cloud Shell で wget を使用して、一般公開の Cloud Storage バケットから Python ファイルを取得します。ファイルを取得したら、Cloud Shell エディタでファイルを開き、Gemini の Code Assist 機能を使用してファイルの詳細を確認します。最後に、Cloud Shell エディタを使用して、プロジェクトの詳細をファイルに落とし込んで構成します。

Python ファイルを取得する

  1. Cloud Shell に戻ります。

  2. 次のコマンドを実行して、ホーム ディレクトリに戻ります。

    cd ~
  3. esports ディレクトリを作成し、そのディレクトリに移動します。

    mkdir esports cd esports
  4. wget コマンドを使用して、次の Python ファイルを取得します。

    wget https://storage.googleapis.com/spls/gsp1342/esports-simulation.py

    ファイルがダウンロードされたことを示す確認メッセージがターミナルに表示されます。

Code Assist に Python ファイルの内容を解説してもらう

  1. Cloud Shell で [エディタを開く] ボタンをクリックします。Cloud Shell エディタが開きます。[Gemini Code Assist] ペインも表示されます。

  2. チュートリアルのタブを閉じます。

  3. [エクスプローラ] ペインで、esports フォルダを開きます。Python ファイルが表示されます。

  4. esports-simulation.py ファイルを開きます。

  5. [Gemini Code Assist] ペインの下部には、プロンプトを入力する場所があり、「Gemini に相談」と表示されています。次のプロンプトを入力します。

    esports-simulation.py ファイルのコードを確認します。このコードが何をするのか説明してください。

Code Assist がコードの内容を詳しく説明してくれます。大まかに言うと、e スポーツの試合イベントをシミュレートし、それらを Google Cloud Pub/Sub トピックにパブリッシュするという流れです。

また、Code Assist がコード改善のためにいくつか提案をしていることがわかります。これらの提案は受け入れないでください

振り返りの時間

  1. 自分のデータとユースケースの中から適切なものを選び、Python を使って合成データを生成するか、アプリケーションからデータを収集して、そのデータを独自の開発ワークフローで Pub/Sub トピックとしてパブリッシュする方法を考えてみましょう。
注: 上記で Gemini が使われた目的は、esports-simulation.py ファイルを作成した開発者を支援することにありました。同じように Gemini を使用して、Python で自分のプロジェクト用の合成ストリーミング データを生成し、Code Assist でコードの解説を見てトラブルシューティングしてみましょう。
  1. 自分のデータとユースケースから適切なものを選び、Pub/Sub を活用して Pub/Sub からストリーミングされたデータを BigQuery に保存して分析するにはどうすればよいか考えてみましょう。

プロジェクトのファイルを構成する

  1. 10 行目付近にある PROJECT_ID 変数を自分の Project_ID に設定します。他のファイルと同様に、この行を以下のコードに置き換えてください。

    PROJECT_ID = "{{{project_0.project_id|set at lab start}}}" 注: プロジェクトのファイルを編集しなければ、次のタスクでこれらのファイルを Cloud Shell で実行したときに、ランタイム エラーが発生します。
  2. ファイルを保存します。

タスク 6. 合成データを生成する

このタスクでは、Python ファイルを実行して合成データを生成し、パイプラインを実行します。

依存関係をインストールしてシミュレータを実行する

  1. Cloud Shell ターミナルに戻ります。

  2. ホーム ディレクトリにいることを確認します。

    cd ~
  3. esports ディレクトリに移動します。

    cd esports
  4. pip を使用して、Pub/Sub の Python ライブラリをはじめとする依存関係をインストールします。

    pip install google-cloud-pubsub
  5. シミュレータを実行します。このスクリプトは継続的に実行され、イベントが Pub/Sub トピックに送信されます。

    python3 esports-simulation.py

    ターミナルに、イベントがパブリッシュされていることを示す出力が表示されます。

    重要: このターミナルは開いたままにしておきます。

タスク 7. BigQuery で結果を確認する

このタスクでは、Pub/Sub サブスクリプションからの新しいメッセージで raw_events テーブルが更新されていることを確認します。まず、raw_events テーブルに対してクエリを実行します。次に、2 つのビューを作成し、それらのビューに対してクエリを実行して、プレーヤーとチームのリーダーボードを表示します。また「振り返りの時間」セクションでは、リーダーボードをより見やすくするために Looker をどのように活用できるかについて検討します。

raw_events テーブルをクエリする

  1. BigQuery に戻ります。

  2. [エクスプローラ] パネルで、raw_events テーブルを見つけて選択します。

  3. [クエリ] をクリックします。テンプレート クエリが用意されています。

  4. 次のクエリを参考にして、raw_events テーブルのすべてのレコードを選択するようにクエリを変更します。

    SELECT * FROM `{{{project_0.project_id|set at lab start}}}.esports_analytics.raw_events` LIMIT 1000
  5. クエリを実行します。レコードが表示された場合は、Pub/Sub がシミュレーションからの最新のメッセージ(e スポーツのゲームデータ)でテーブルを更新していることを意味します。

BigQuery でビューを作成する

  1. [エクスプローラ] でプロジェクトを開き、esports_analytics データセットを選択します。

  2. プラスボタンをクリックして、新しいクエリを作成します。

  3. [クエリ] タブに次のクエリを入力します。

    -- クエリ 1: プレーヤーのリーダーボード ビューを作成する -- このビューは、raw events テーブルからプレーヤーのスコアを計算し、ランク付けする。 CREATE OR REPLACE VIEW `esports_analytics.player_leaderboard_live` AS SELECT RANK() OVER (ORDER BY SUM(CASE WHEN event_type = 'match_end' THEN 5 ELSE 1 END) DESC) as rank, winner_player_id AS player_id, SUM(CASE WHEN event_type = 'match_end' THEN 5 ELSE 1 END) AS total_score, MAX(timestamp) AS last_updated FROM `{{{project_0.project_id|set at lab start}}}.esports_analytics.raw_events` WHERE winner_player_id IS NOT NULL AND (event_type = 'player_elimination' OR event_type = 'match_end') GROUP BY winner_player_id; --クエリ 2: チームのリーダーボード ビューを作成する -- このビューは、raw events テーブルからチームの勝利数を計算し、ランク付けする。 CREATE OR REPLACE VIEW `esports_analytics.team_leaderboard_live` AS SELECT RANK() OVER (ORDER BY COUNT(*) DESC) as rank, winner_team_id AS team_id, COUNT(*) AS total_wins, MAX(timestamp) AS last_updated FROM `{{{project_0.project_id|set at lab start}}}.esports_analytics.raw_events` WHERE winner_team_id IS NOT NULL AND event_type = 'match_end' GROUP BY winner_team_id; 注: 上記のクエリは、このプロジェクト用にすでにテンプレート化されています。これを自分のプロジェクトで実行する場合は、 を実際のプロジェクト ID に置き換える必要があります。

    このクエリは、プレーヤーのリーダーボードとチームのリーダーボードの 2 つのビューを作成します。プレーヤーとチームの最新のスコアを検索してランク付けします。

クエリを実行してプレーヤーのリーダーボードを表示する

  1. プラスボタンをクリックして、新しいクエリを作成します。

  2. [クエリ] タブに次のクエリを入力します。

    SELECT * FROM `esports_analytics.player_leaderboard_live` ORDER BY rank;

    クエリを実行すると、プレーヤーのリーダーボードが表示され、プレーヤーの合計勝利数に基づいて 1 位から 12 位までランク付けされます。

クエリを実行してチームのリーダーボードを表示する

  1. プラスボタンをクリックして、新しいクエリを作成します。

  2. [クエリ] タブに次のクエリを入力します。

    SELECT * FROM `esports_analytics.team_leaderboard_live` ORDER BY rank;

    クエリを実行すると、チームは合計勝利数に基づいて 1 位から 4 位までランク付けされます。

振り返りの時間

BigQuery で得られた結果について考えてみましょう。このラボでは、BigQuery の SQL クエリに基づくリーダーボードのみを使用しました。これらのリーダーボードのダッシュボードを Looker で構築する方法を検討し、ラボジャーナルを使用して次の質問に答えてください。

  1. どのようなダッシュボードを構築できるでしょうか。
  2. 既存の BigQuery クエリのうち、どれを活用しますか。
  3. 誰にダッシュボードへのアクセス権を付与する必要がありますか。
  4. Looker ダッシュボードが最新の状態に更新されるように、クエリを変更する必要がありますか。

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。 BigQuery で結果を確認する

お疲れさまでした

Python スクリプトを使用してゲームデータをシミュレートしました。また、Cloud Assist を使用して、これらのスクリプトのコードの説明を読んで理解しました。最後に、Pub/Sub トピックとサブスクリプション、BigQuery データセット、テーブル、ビューなど、e スポーツのストリーミング データをサポートする Google Cloud リソースを生成し、このデータをストリーミングして、上位にランク付けされているプレーヤーとチームのレポートを生成しました。Google Cloud を日々使いこなす中で、Gemini を使用してデータ エンジニアリングのワークフローに関する知識やスキルを深めていきましょう。

次のステップと詳細情報

Google Cloud トレーニングと認定資格

Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。

マニュアルの最終更新日: 2025 年 8 月 6 日

ラボの最終テスト日: 2025 年 8 月 6 日

Copyright 2025 Google LLC. All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。

始める前に

  1. ラボでは、Google Cloud プロジェクトとリソースを一定の時間利用します
  2. ラボには時間制限があり、一時停止機能はありません。ラボを終了した場合は、最初からやり直す必要があります。
  3. 画面左上の [ラボを開始] をクリックして開始します

シークレット ブラウジングを使用する

  1. ラボで使用するユーザー名パスワードをコピーします
  2. プライベート モードで [コンソールを開く] をクリックします

コンソールにログインする

    ラボの認証情報を使用して
  1. ログインします。他の認証情報を使用すると、エラーが発生したり、料金が発生したりする可能性があります。
  2. 利用規約に同意し、再設定用のリソースページをスキップします
  3. ラボを終了する場合や最初からやり直す場合を除き、[ラボを終了] はクリックしないでください。クリックすると、作業内容がクリアされ、プロジェクトが削除されます

このコンテンツは現在ご利用いただけません

利用可能になりましたら、メールでお知らせいたします

ありがとうございます。

利用可能になりましたら、メールでご連絡いたします

1 回に 1 つのラボ

既存のラボをすべて終了して、このラボを開始することを確認してください

シークレット ブラウジングを使用してラボを実行する

このラボを実行するには、シークレット モードまたはシークレット ブラウジング ウィンドウを使用することをおすすめします。これにより、個人アカウントと受講者アカウントの競合を防ぎ、個人アカウントに追加料金が発生することを防ぎます。