始める前に
- ラボでは、Google Cloud プロジェクトとリソースを一定の時間利用します
- ラボには時間制限があり、一時停止機能はありません。ラボを終了した場合は、最初からやり直す必要があります。
- 画面左上の [ラボを開始] をクリックして開始します
Create the Google Cloud resources
/ 20
Install packages and set environment variables
/ 20
Train the model
/ 20
Configure the Bigtable table and publish messages to Pub/Sub
/ 20
Use the BigTable enrichment handler and transform
/ 10
Run inference and the pipeline
/ 10
あなたは Cymbal Gaming のデータ エンジニアとして、開発チームとともに新しい e スポーツゲーム「Galactic Grand Prix」の開発に携わっています。このゲームでは、異なるチームに属する 2 人のプレーヤーの対戦に基づいてリアルタイムのデータが生成されます。たとえば、2 人のプレーヤーがイベントで競い合い、勝者が決まり、勝者とチームにポイントが与えられます。DLC の購入データに関する推奨事項を作成するよう依頼されました。プレーヤーが Galactic Grand Prix でキャラクターの DLC を購入した場合、他の対戦相手が購入しているものに基づいて、他のアイテムを提案します。
Pub/Sub についてはすでに学習済みで、Google Cloud でストリーミング データに使用できることを知っています。また、Dataflow(Google Cloud のマネージド Apache Beam サービス)と、Google Cloud の NoSQL データベースである Bigtable についても学びました。これらのサービスを Jupyter ノートブックで使用して、購入に基づいて他の DLC アイテムを顧客に提供するソリューションを構築できるのではないかと考えていますが、どこから始めればよいかわかりません。
ラボを開始すると、次の図に示すリソースが含まれる環境が提供されます。
ラボでは、このアーキテクチャを使用して複数のタスクを実行します。
次の表で、ラボのアーキテクチャに含まれる各タスクについて詳しく説明します。
| タスクの番号 | 詳細 |
|---|---|
| 1. | Google Cloud リソースを作成する: このタスクでは、Pub/Sub トピックとサブスクリプション、Bigtable インスタンスを作成します。テーブルは後でノートブックで作成します。 |
| 2. | Vertex AI Workbench でノートブックを開き、カーネルを選択する。 |
| 3. |
パッケージをインストールし、プロジェクトのノートブックを構成する: このラボでは、PyTorch(テンソルのモデルとして)や Apache Beam(Dataflow 統合をサポートするため)など、さまざまな Python ライブラリを使用します。これらのライブラリは、ラボがプロビジョニングされるとインストールされ、ラボ全体で Jupyter ノートブックで参照されます。また、ラボの開始時に提供された Cloud Storage バケットなど、プロジェクト内のリソースにアクセスできるようにノートブックを構成する必要もあります。 |
| 4. |
モデルをトレーニングする: このタスクでは、DLC プロダクトの Galactic Grand Prix プレーヤー購入データを使用して、PyTorch モデルをテンソルとしてトレーニングします。 |
| 5. |
Bigtable テーブルを構成し、Pub/Sub にメッセージをパブリッシュする: このタスクでは、インスタンス内の Bigtable テーブルを構成し、Pub/Sub サブスクリプションにメッセージをパブリッシュします。 |
| 6. |
Bigtable エンリッチメント ハンドラと変換を使用する: このタスクでは、Bigtable エンリッチメント ハンドラと変換を使用します。 |
| 7. |
推論とパイプラインを実行する: このタスクでは、PyTorchModelHandlerTensor インターフェースを使用して推論を実行し、パイプラインを実行します。 |
このラボでは、次の作業を行います。
こちらの説明をお読みください。ラボには時間制限があり、一時停止することはできません。タイマーは、Google Cloud のリソースを利用できる時間を示しており、[ラボを開始] をクリックするとスタートします。
このハンズオンラボでは、シミュレーションやデモ環境ではなく実際のクラウド環境を使って、ラボのアクティビティを行います。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。
このラボを完了するためには、下記が必要です。
[ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるダイアログでお支払い方法を選択してください。 左側の [ラボの詳細] ペインには、以下が表示されます。
[Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウで開く] を選択します)。
ラボでリソースがスピンアップし、別のタブで [ログイン] ページが表示されます。
ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。
必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。
[ラボの詳細] ペインでもユーザー名を確認できます。
[次へ] をクリックします。
以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。
[ラボの詳細] ペインでもパスワードを確認できます。
[次へ] をクリックします。
その後次のように進みます。
その後、このタブで Google Cloud コンソールが開きます。
このタスクでは、Pub/Sub トピックとサブスクリプション、Bigtable インスタンスなど、ラボをサポートする Google Cloud リソースを作成します。注: プロセスを迅速化するために、Cloud Shell コマンドを使用してこれらのリソースを作成します。
gcloud CLI コマンドを効果的に使用するには、まず Google Cloud Shell にアクセスして環境変数を設定します。
[Cloud Shell をアクティブにする] をクリックして Cloud Shell を開きます。
このラボで Cloud Shell を使用するのは初めてなので、使用を承認する必要があります。これを行うには、[続行] をクリックし、ポップアップ ウィンドウで [承認] をクリックします。
次のコマンドを実行します。
以下のコマンドを実行して、変数が保存されていることを確認します。
これらの変数はラボで後ほど使用します。
次のコマンドを実行して Bigtable インスタンスを作成します。
インスタンスが作成されたことを示す確認メッセージが表示されます。
次のコマンドを実行して、Pub/Sub トピックを作成します。
Pub/Sub トピックが作成されたことを示す確認メッセージが表示されます。
次のコマンドを実行して、トピックの Pub/Sub サブスクリプションを作成します。
サブスクリプションがトピックに追加されたことを示す確認メッセージが表示されます。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
Google Cloud コンソールのナビゲーション メニュー()で、[Vertex AI] > [ワークベンチ] の順にクリックします。
Workbench インスタンスの JupyterLab インターフェースが新しいブラウザタブで開きます。
1. JupyterLab のブラウザタブを閉じて、Workbench のホームページに戻ります。
2. インスタンス名の横にあるチェックボックスをオンにして、[リセット] をクリックします。
3. [JupyterLab を開く] ボタンが再度有効になったら、1 分待ってから [JupyterLab を開く] をクリックします。
[Select Kernel] ダイアログで、使用可能なカーネルのリストから [Python 3] を選択します。
このタスクでは、このノートブックを使用するために必要な Python パッケージをインポートし、環境変数を設定します。
ノートブックのタスク 3「パッケージをインストールし、ノートブックを構成する」セクションの手順を完了します。
[Project ID] に instance、[table_id] に customer_data を使用します。タスク 1 で Bigtable インスタンスを作成したことを思い出してください。これらの値を今設定しておくと、このノートブックの後のタスクを正常に完了できます。設定しなかった場合はエラーが発生する可能性があります。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このタスクでは、データセットを作成し、その中のデータをテンソルに変換します。次に、PyTorch モデルを構築し、これらのテンソルを使用してトレーニングします。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このタスクでは、列ファミリーを使用して Bigtable テーブルを作成して構成し、データをテーブルに読み込みます。また、Pub/Sub にメッセージをパブリッシュします。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このタスクでは、Bigtable エンリッチメント ハンドラを使用します。これは、Dataflow パイプライン内で使用される特殊なコネクタで、Bigtable をデータソースとして使用して拡充プロセスを実行します。また、Bigtable 拡充変換も使用します。Bigtable エンリッチメント ハンドラをツール、変換をコードでツールを起動する動詞と考えてください。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このタスクでは、PyTorch モデルで推論を実行し、Dataflow パイプラインを実行します。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このラボでは、テンソルとして表される購入データを使用して PyTorch モデルをトレーニングする方法を学びました。また、Pub/Sub からの新規購入を人口統計データで拡充し、Dataflow パイプラインを使用して新しい DLC プロダクトを顧客に推奨する方法も学びました。
Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。
マニュアルの最終更新日: 2026 年 1 月 22 日
ラボの最終テスト日: 2026 年 1 月 22 日
Copyright 2026 Google LLC. All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。
このコンテンツは現在ご利用いただけません
利用可能になりましたら、メールでお知らせいたします
ありがとうございます。
利用可能になりましたら、メールでご連絡いたします
1 回に 1 つのラボ
既存のラボをすべて終了して、このラボを開始することを確認してください