
始める前に
- ラボでは、Google Cloud プロジェクトとリソースを一定の時間利用します
- ラボには時間制限があり、一時停止機能はありません。ラボを終了した場合は、最初からやり直す必要があります。
- 画面左上の [ラボを開始] をクリックして開始します
Copy sample files to the training_vm home directory
/ 5
Simulate traffic sensor data into Pub/Sub
/ 5
Launch Dataflow Pipeline
/ 5
このラボでは Dataflow を使用して、Google Cloud Pub/Sub で利用可能なトラフィック センサー シミュレーション データからトラフィック イベントを収集し、Bigtable テーブルに書き込みます。
このラボでは、次のタスクを行います。
各ラボでは、新しい Google Cloud プロジェクトとリソースセットを一定時間無料で利用できます。
Qwiklabs にシークレット ウィンドウでログインします。
ラボのアクセス時間(例: 1:15:00
)に注意し、時間内に完了できるようにしてください。
一時停止機能はありません。必要な場合はやり直せますが、最初からになります。
準備ができたら、[ラボを開始] をクリックします。
ラボの認証情報(ユーザー名とパスワード)をメモしておきます。この情報は、Google Cloud Console にログインする際に使用します。
[Google Console を開く] をクリックします。
[別のアカウントを使用] をクリックし、このラボの認証情報をコピーしてプロンプトに貼り付けます。
他の認証情報を使用すると、エラーが発生したり、料金の請求が発生したりします。
利用規約に同意し、再設定用のリソースページをスキップします。
Google Cloud で作業を開始する前に、Identity and Access Management(IAM)内で適切な権限がプロジェクトに付与されていることを確認する必要があります。
Google Cloud コンソールのナビゲーション メニュー()で、[IAM と管理] > [IAM] を選択します。
Compute Engine のデフォルトのサービス アカウント {project-number}-compute@developer.gserviceaccount.com
が存在し、編集者
のロールが割り当てられていることを確認します。アカウントの接頭辞はプロジェクト番号で、ナビゲーション メニュー > [Cloud の概要] > [ダッシュボード] から確認できます。
編集者
のロールがない場合は、以下の手順に沿って必要なロールを割り当てます。729328892908
)をコピーします。{project-number}
はプロジェクト番号に置き換えてください。トレーニング用 VM からセンサー シミュレータを実行します。複数のファイルと環境設定が必要になります。
コンソールのナビゲーション メニュー()で、[Compute Engine] > [VM インスタンス] をクリックします。
training-vm という名前のインスタンスがある行を確認します。
右端の [接続] 列で、[SSH] をクリックしてターミナル ウィンドウを開きます。次に [接続] をクリックします。
このラボでは、training-vm 上で CLI コマンドを入力します。
list(ls
)コマンド出力の結果が次の画像のように表示された場合、設定は完了しています。完全なリストが表示されない場合は、数分待ってからもう一度実行してください。
このスクリプトにより、$DEVSHELL_PROJECT_ID
と $BUCKET
の環境変数が設定されます。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このコマンドを実行すると、1 時間分のデータが 1 分で送信されます。現在のターミナルでスクリプトの実行を継続します。
新しいターミナル セッションには、必要な環境変数が設定されていません。これらの変数を設定するには、次の手順を実行します。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
このスクリプトは何を実行するのでしょうか。
このスクリプトは 3 つの必須の引数(project id、bucket name、classname)を入力として受け取ります。さらに 4 つ目の引数(options)を受け取ることもできます。ここでは、Cloud Bigtable への書き込みをパイプラインに指示する --bigtable
オプションを使用します。
Ctrl+X キーを押して終了します。
次のコマンドを実行して Bigtable インスタンスを作成します。
正常に実行された場合の例:
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
コンソールのブラウザタブに戻り、ナビゲーション メニュー()で [Dataflow] をクリックし、新しいパイプライン ジョブをクリックします。パイプライン ジョブがリストに表示されていること、およびエラーなく実行されていることを確認します。
パイプライン グラフの write:cbt ステップを確認して右側の下矢印をクリックすると、実行中の書き込みが表示されます。該当する書き込みをクリックします。[ステップの概要] で、[Bigtable のオプション] を確認してください。
返された行のリストが表示されるまで、scan コマンドを繰り返し実行してください。
出力を確認します。各行は列、タイムスタンプ、値の組み合わせで構成されています。
別のクエリを実行します。今度は [lane: speed] 列の 10 行のみを対象に、開始行と終了行の rowid パターンを指定してスキャンします。
出力を確認します。列、タイムスタンプ、値の組み合わせが 10 個表示されますが、これらはすべて Highway 15 に関するものです。列が [lane: speed] に限定されていることも確認してください。
クエリ構文の知識がある方は、他のクエリも実行してみてください。終了したら、「quit
」と入力してシェルを閉じます。
確認するメッセージが表示されたら、「Y
」と入力します。
Cloud コンソールの [Dataflow] ページでパイプライン ジョブ名をクリックします。
上部のメニューバーにある [停止] をクリックします。[キャンセル] を選択してから [ジョブの停止] をクリックします。
パブリッシャーを含む最初の SSH ターミナルに戻り、Ctrl+C
キーを入力して停止します。
BigQuery コンソールで、demos データセットの横にあるその他アイコンをクリックし、[削除] をクリックします。
「delete」と入力してから [削除] をクリックします。
ラボが完了したら、[ラボを終了] をクリックします。ラボで使用したリソースが Google Cloud Skills Boost から削除され、アカウントの情報も消去されます。
ラボの評価を求めるダイアログが表示されたら、星の数を選択してコメントを入力し、[送信] をクリックします。
星の数は、それぞれ次の評価を表します。
フィードバックを送信しない場合は、ダイアログ ボックスを閉じてください。
フィードバックやご提案の送信、修正が必要な箇所をご報告いただく際は、[サポート] タブをご利用ください。
Copyright 2020 Google LLC All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。
このコンテンツは現在ご利用いただけません
利用可能になりましたら、メールでお知らせいたします
ありがとうございます。
利用可能になりましたら、メールでご連絡いたします
1 回に 1 つのラボ
既存のラボをすべて終了して、このラボを開始することを確認してください