始める前に
- ラボでは、Google Cloud プロジェクトとリソースを一定の時間利用します
- ラボには時間制限があり、一時停止機能はありません。ラボを終了した場合は、最初からやり直す必要があります。
- 画面左上の [ラボを開始] をクリックして開始します
Create a Bigtable instance
/ 20
Simulate streaming traffic sensor data into Pub/Sub
/ 20
Launch dataflow pipeline
/ 20
Stop streaming jobs and delete Bigtable data
/ 20
Bigtable は、Google のフルマネージドでスケーラブルな NoSQL データベース サービスです。Bigtable は大量のデータを Key-Value ストアに格納する用途に最適です。パーソナライズ、広告テクノロジー、金融テクノロジー、デジタル メディア、モノのインターネット(IoT)などのユースケースに広く利用されています。また、低レイテンシで高スループットの読み取りと書き込みをサポートしており、大量のデータにすばやくアクセスして処理や分析を行うことができます。
センサーからのストリーミング データの場合、Bigtable は高頻度で書き込み処理を行い、大量のリアルタイム データをキャプチャします。
このラボでは、コマンドを使用して、テーブルを含む Bigtable インスタンスを作成し、シミュレートされたトラフィック センサーデータを保存します。次に、Dataflow パイプラインを起動して、Pub/Sub からシミュレートされたストリーミング データを Bigtable に読み込みます。Dataflow ジョブが Pub/Sub から Bigtable にストリーミング データを読み込んでいる間、テーブルにデータが正常に追加されていることを確認します。ラボの最後では、ストリーミング ジョブを停止し、Bigtable データを削除します。
このラボでは、コマンドを使用して Bigtable インスタンスとテーブルを作成する方法と、Dataflow を使用してストリーミング データを読み込む方法を学習します。
gcloud CLI)コマンドを使用して Bigtable インスタンスを作成する。cbt CLI)コマンドを使用して、列ファミリーを含む Bigtable テーブルを作成する。こちらの説明をお読みください。ラボには時間制限があり、一時停止することはできません。タイマーは、Google Cloud のリソースを利用できる時間を示しており、[ラボを開始] をクリックするとスタートします。
このハンズオンラボでは、シミュレーションやデモ環境ではなく実際のクラウド環境を使って、ラボのアクティビティを行います。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。
このラボを完了するためには、下記が必要です。
[ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるダイアログでお支払い方法を選択してください。 左側の [ラボの詳細] ペインには、以下が表示されます。
[Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウで開く] を選択します)。
ラボでリソースがスピンアップし、別のタブで [ログイン] ページが表示されます。
ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。
必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。
[ラボの詳細] ペインでもユーザー名を確認できます。
[次へ] をクリックします。
以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。
[ラボの詳細] ペインでもパスワードを確認できます。
[次へ] をクリックします。
その後次のように進みます。
その後、このタブで Google Cloud コンソールが開きます。
Cloud Shell は、開発ツールと一緒に読み込まれる仮想マシンです。5 GB の永続ホーム ディレクトリが用意されており、Google Cloud で稼働します。Cloud Shell を使用すると、コマンドラインで Google Cloud リソースにアクセスできます。
Google Cloud コンソールの上部にある「Cloud Shell をアクティブにする」アイコン をクリックします。
ウィンドウで次の操作を行います。
接続した時点で認証が完了しており、プロジェクトに各自の Project_ID、
gcloud は Google Cloud のコマンドライン ツールです。このツールは、Cloud Shell にプリインストールされており、タブ補完がサポートされています。
出力:
出力:
gcloud ドキュメントの全文については、gcloud CLI の概要ガイドをご覧ください。
Bigtable で新しいテーブルを作成するには、まずテーブルを格納する Bigtable インスタンスを作成する必要があります。Bigtable インスタンスの作成には、Google Cloud コンソール、gcloud CLI コマンド、または cbt CLI コマンドを使用します。
このタスクでは、Cloud Shell を使用してまず gcloud CLI コマンドを実行し、新しい Bigtable インスタンスを作成します。続いて cbt CLI コマンドを実行して Bigtable に接続し、新しいテーブルを作成します。
Cloud Shell へのアクセス方法を確認するには、このページの右側のメニューにある「設定と要件」をクリックしてください。
このコマンドによって、次のプロパティを持つ新しい Bigtable インスタンスが作成されます。
| プロパティ | 値 |
|---|---|
| インスタンス ID | sandiego |
| インスタンスの表示名 | San Diego Traffic Sensors |
| ストレージの種類 | SSD |
| クラスタ ID | sandiego-traffic-sensors-c1 |
| ゾーン | |
| ノード スケーリング モード | 手動割り当て |
| ノードの数 | 1 |
次の出力メッセージを受け取ったら、次の手順に進みます。
cbt CLI コマンドを使用して Bigtable に接続するには、まず Cloud Shell を使用して、.cbtrc 構成ファイルのプロジェクト ID と Bigtable インスタンス ID を更新する必要があります。
.cbtrc ファイルのプロジェクト ID とインスタンス ID を変更するには、次のコマンドを実行します。.cbtrc ファイルを正常に変更できたことを確認するには、次のコマンドを実行します。出力は次のようになります。
Cloud Shell で .cbtrc 構成ファイルを構成後、簡単な cbt CLI コマンドを実行して、列ファミリーを含む新しい Bigtable テーブルを作成できます。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このタスクでは、このラボ用に作成された Compute Engine 仮想マシン(VM)からストリーミング データ シミュレータを実行します。このタスクを開始するには、training-vm という名前の VM にコマンドを入力して環境をセットアップし、ストリーミング データ シミュレータに必要なファイルをダウンロードします。
Google Cloud コンソールのナビゲーション メニューで、[Compute Engine] > [VM インスタンス] をクリックします。
training-vm という名前のインスタンスを含む行を見つけ、[接続] の下にある [SSH] をクリックします。
training-vm のターミナル ウィンドウが開きます。
training-vm によってバックグラウンドでソフトウェアのインストールが行われます。次のステップで、新しいディレクトリのコンテンツを確認して、セットアップが完了していることを確かめます。
training という名前のディレクトリのコンテンツを一覧表示するには、次のコマンドを実行します。
ls コマンドから次の結果が出力されれば VM の準備は完了しています。次の手順に進んでください。
この 3 つのスクリプトが表示されない場合は、数分待ってからもう一度お試しください。
このスクリプトにより、$DEVSHELL_PROJECT_ID 環境変数と $BUCKET 環境変数が設定されるため、プロジェクト ID と Cloud Storage バケット名を手動で設定する必要はありません。
Cloud Storage バケットは、ラボリソースの初期化時に作成されています。
このスクリプトは、CSV ファイルからサンプルデータを読み取って Pub/Sub にパブリッシュします。このスクリプトを実行すると、1 時間分のデータが 1 分で送信されます。
現在のターミナルでスクリプトを実行したまま、次のタスクに進みます。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このタスクでは、training_vm で 2 つ目の SSH ターミナルを開き、コマンドを実行して Dataflow ジョブを起動し、Pub/Sub からのストリーミング データを Bigtable に書き込みます。
2 つ目のターミナル ウィンドウが開きます。この新しいターミナル セッションには、必要な環境変数が設定されていません。次のステップで、新しいターミナル セッションにその環境変数を設定します。
このスクリプトにより、新しいターミナル ウィンドウに DEVSHELL_PROJECT_ID 環境変数と BUCKET 環境変数が設定されます。
コードは変更しないでください。
このスクリプトは、Dataflow ジョブの実行に必要な次の 3 つの引数を取ります。
次のステップで、--bigtable オプションを使用して、Dataflow パイプラインに Bigtable へのデータの書き込みを指示します。
nano を終了するには、Ctrl+X キーを押します。
プロジェクトのデフォルト リージョンを使用するよう run_oncloud.sh スクリプトを構成するには、次のコマンドを実行します。
パイプラインが正常に起動すると、次のようなメッセージが表示されます。
Google Cloud コンソールのナビゲーション メニューで、[すべてのプロダクトを表示] をクリックします。[分析] の下にある [Dataflow] > [ジョブ] をクリックします。
新しいパイプライン ジョブ名をクリックします。
パイプライン グラフの write:cbt ステップを見つけます。書き込みの詳細を表示するには、write:cbt の横にある下矢印をクリックします。
表示された書き込みをクリックし、[ステップ情報] に記載の詳細を確認します。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
前のタスクで、Cloud Shell の .cbtrc 構成ファイルの構成が完了しているため、続いて簡単な cbt CLI コマンドを実行して、テーブルの最初の 5 件のレコードをクエリします。
出力は次のような構成になります。
出力値は次のようになります。
最後のタスクでは、コマンドを使用してストリーミング データジョブを停止し、Bigtable インスタンスとテーブルを削除します。
Google Cloud コンソールのナビゲーション メニューで、[Dataflow] > [ジョブ] をクリックします。
パイプライン ジョブ名をクリックします。
[停止] をクリックします。
[キャンセル] を選択してから [ジョブの停止] をクリックします。
確認を求めるメッセージが表示されたら、「Y」と入力します。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このラボでは、コマンドを使用して新しい Bigtable インスタンスとテーブルを作成し、Dataflow を使用してデータをテーブルにストリーミングしました。また、簡単な cbt CLI コマンドを実行して、データが Bigtable に正常にストリーミングされたことを確認しました。さらに、コマンドを使用してジョブを停止し、Bigtable テーブルとインスタンスを削除して、ラボを完了しました。
Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。
マニュアルの最終更新日: 2025 年 8 月 19 日
ラボの最終テスト日: 2025 年 8 月 19 日
Copyright 2025 Google LLC. All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。
このコンテンツは現在ご利用いただけません
利用可能になりましたら、メールでお知らせいたします
ありがとうございます。
利用可能になりましたら、メールでご連絡いたします
1 回に 1 つのラボ
既存のラボをすべて終了して、このラボを開始することを確認してください