700 以上のラボとコースにアクセス

Vertex AI で雲の画像を分類する

ラボ 1時間 universal_currency_alt クレジット: 5 show_chart 中級
info このラボでは、学習をサポートする AI ツールが組み込まれている場合があります。
700 以上のラボとコースにアクセス

GSP223

Google Cloud セルフペース ラボのロゴ

概要

Vertex AI は、Google Cloud が提供する ML 用統合プラットフォームです。Vertex AI の AutoML 機能を使用すると、ML に関する深い専門知識がなくても、質の高いカスタム画像認識モデルを簡単にトレーニングできます。トレーニング後は、モデルをマネージド エンドポイントにデプロイし、使いやすい API を介してリアルタイム予測に使用します。

このラボでは、雲の画像を Cloud Storage にアップロードし、それらの画像から Vertex AI データセットを作成します。また、Vertex AI エンドポイントで事前トレーニング済みモデル(シミュレーション)を使用して予測を生成します。

目標

このラボでは、次のタスクを行います。

  • Vertex AI 環境と Cloud Storage バケットを設定する。
  • ラベル付きデータセットを Cloud Storage にアップロードする。
  • Vertex AI データセットを作成、検査する。
  • Vertex AI エンドポイントで予測を生成する。

設定と要件

[ラボを開始] ボタンをクリックする前に

こちらの説明をお読みください。ラボには時間制限があり、一時停止することはできません。タイマーは、Google Cloud のリソースを利用できる時間を示しており、[ラボを開始] をクリックするとスタートします。

このハンズオンラボでは、シミュレーションやデモ環境ではなく実際のクラウド環境を使って、ラボのアクティビティを行います。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。

このラボを完了するためには、下記が必要です。

  • 標準的なインターネット ブラウザ(Chrome を推奨)
注: このラボの実行には、シークレット モード(推奨)またはシークレット ブラウジング ウィンドウを使用してください。これにより、個人アカウントと受講者アカウント間の競合を防ぎ、個人アカウントに追加料金が発生しないようにすることができます。
  • ラボを完了するための時間(開始後は一時停止できません)
注: このラボでは、受講者アカウントのみを使用してください。別の Google Cloud アカウントを使用すると、そのアカウントに料金が発生する可能性があります。

ラボを開始して Google Cloud コンソールにログインする方法

  1. [ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるダイアログでお支払い方法を選択してください。 左側の [ラボの詳細] ペインには、以下が表示されます。

    • [Google Cloud コンソールを開く] ボタン
    • 残り時間
    • このラボで使用する必要がある一時的な認証情報
    • このラボを行うために必要なその他の情報(ある場合)
  2. [Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウで開く] を選択します)。

    ラボでリソースがスピンアップし、別のタブで [ログイン] ページが表示されます。

    ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。

    注: [アカウントの選択] ダイアログが表示されたら、[別のアカウントを使用] をクリックします。
  3. 必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。

    {{{user_0.username | "Username"}}}

    [ラボの詳細] ペインでもユーザー名を確認できます。

  4. [次へ] をクリックします。

  5. 以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。

    {{{user_0.password | "Password"}}}

    [ラボの詳細] ペインでもパスワードを確認できます。

  6. [次へ] をクリックします。

    重要: ラボで提供された認証情報を使用する必要があります。Google Cloud アカウントの認証情報は使用しないでください。 注: このラボでご自身の Google Cloud アカウントを使用すると、追加料金が発生する場合があります。
  7. その後次のように進みます。

    • 利用規約に同意してください。
    • 一時的なアカウントなので、復元オプションや 2 要素認証プロセスは設定しないでください。
    • 無料トライアルには登録しないでください。

その後、このタブで Google Cloud コンソールが開きます。

注: Google Cloud のプロダクトやサービスにアクセスするには、ナビゲーション メニューをクリックするか、[検索] フィールドにサービス名またはプロダクト名を入力します。 ナビゲーション メニュー アイコンと検索フィールド

Cloud Shell をアクティブにする

Cloud Shell は、開発ツールと一緒に読み込まれる仮想マシンです。5 GB の永続ホーム ディレクトリが用意されており、Google Cloud で稼働します。Cloud Shell を使用すると、コマンドラインで Google Cloud リソースにアクセスできます。

  1. Google Cloud コンソールの上部にある「Cloud Shell をアクティブにする」アイコン 「Cloud Shell をアクティブにする」アイコン をクリックします。

  2. ウィンドウで次の操作を行います。

    • Cloud Shell 情報ウィンドウで操作を進めます。
    • Cloud Shell が認証情報を使用して Google Cloud API を呼び出すことを承認します。

接続した時点で認証が完了しており、プロジェクトに各自の Project_ID が設定されます。出力には、このセッションの PROJECT_ID を宣言する次の行が含まれています。

Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}

gcloud は Google Cloud のコマンドライン ツールです。このツールは、Cloud Shell にプリインストールされており、タブ補完がサポートされています。

  1. (省略可)次のコマンドを使用すると、有効なアカウント名を一覧表示できます。
gcloud auth list
  1. [承認] をクリックします。

出力:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (省略可)次のコマンドを使用すると、プロジェクト ID を一覧表示できます。
gcloud config list project

出力:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} 注: Google Cloud における gcloud ドキュメントの全文については、gcloud CLI の概要ガイドをご覧ください。

タスク 1. Vertex AI 環境を設定する

必要な API を有効にし、Vertex AI コンソールにアクセスして、Storage バケットを準備します。

Vertex AI が有効になっていることを確認する

データセットの管理、モデルのトレーニングとデプロイには、Vertex AI API が必要です。

  1. Google Cloud コンソールのナビゲーション メニューナビゲーション メニュー アイコン)で、[API とサービス] > [ライブラリ] を選択します。

  2. [API とサービスを検索] フィールドに「Vertex AI API」と入力し、検索結果で [Vertex AI API] をクリックします。

  3. Vertex AI API有効状態になっていることを確認します。有効になっていない場合は、[有効にする] をクリックします。

Vertex AI ダッシュボードを開く

  • ナビゲーション メニューナビゲーション メニュー アイコン)で、[Vertex AI] をクリックします。

Storage バケットを作成する

Storage バケットには、トレーニング画像とマニフェスト ファイルを保存します。リージョンは、Vertex AI でサポートされている必要があります。

  • Cloud Shell で次のコマンドを実行して、-vcm という名前の Cloud Storage バケットを作成します。
gsutil mb -p $GOOGLE_CLOUD_PROJECT \ -c standard \ -l {{{project_0.default_region | Region}}} \ gs://$GOOGLE_CLOUD_PROJECT-vcm/

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。

Cloud Storage バケットを作成する

タスク 2. トレーニング画像を Cloud Storage にアップロードする

雲の画像を分類するようにモデルをトレーニングするには、さまざまな種類の雲に関連付けられた画像の特徴をモデルが理解できるように、ラベル付けしたトレーニング データを用意する必要があります。この例のモデルは、3 種類の雲(巻雲、積雲、積乱雲)を分類できるように学習します。

トレーニング画像を Cloud Storage バケットに配置するには:

  1. Cloud Shell で次のコマンドを実行して、バケットの名前で環境変数を作成します。
export BUCKET=$GOOGLE_CLOUD_PROJECT-vcm

トレーニング画像は Cloud Storage バケットで一般公開されています。

  1. Cloud Storage の gsutil コマンドライン ユーティリティを使用して、公開バケットから新しいバケットにトレーニング画像をコピーします。
gsutil -m cp -r gs://spls/gsp223/images/* gs://${BUCKET}
  1. バケットにコピーした画像を表示するには、ナビゲーション メニュー[Cloud Storage] > [バケット] をクリックし、バケット名をクリックします。雲の種類に対応する 3 つのフォルダが表示されます。

各フォルダ内の個々の画像ファイルをクリックすると、雲の種類ごとにモデルをトレーニングするための写真を表示できます。

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。

トレーニング画像を Cloud Storage バケットにアップロードする

タスク 3. データセットを作成する

トレーニング データを Cloud Storage に格納したので、次は Vertex AI からそのデータにアクセスする方法が必要となります。通常は、トレーニング画像の URL とその画像に対応するラベルが各行に含まれる、CSV ファイルを作成します。

このラボでは、すでに用意してある CSV ファイルを先ほどのバケット名で更新します。

  1. この CSV ファイルを Cloud Shell インスタンスにコピーします。
gsutil cp gs://spls/gsp223/data.csv .
  1. CSV ファイルを特定のバケット名で更新します。
sed -i -e "s/placeholder/${BUCKET}/g" ./data.csv
  1. 更新した CSV ファイルを Cloud Storage バケットにアップロードします。
gsutil cp ./data.csv gs://${BUCKET}
  1. コマンドが完了したら、Cloud Storage ブラウザの上部にある [更新] ボタンをクリックします。バケットに data.csv ファイルが表示されることを確認します。

  2. ナビゲーション メニューで、[Vertex AI] > [データセット] をクリックします。

  3. [] を選択して [作成] をクリックします。

  4. [データセット名] を「clouds_vertex_ai」に設定します。

  5. データ型として [画像] を選択します。

  6. 目標として [単一ラベル分類(単一ラベル)] を選択します。

注: ご自身のプロジェクトでは、マルチラベル分類を使用することもできます。
  1. リージョンの選択で [] を選択し、[作成] をクリックします。

次に、データをインポートします。

  1. [インポート ファイルを Cloud Storage から選択] を選択し、[参照] > [-vcm] > [data.csv] をクリックします。[選択] をクリックします。

  2. [続行]、[インポート] の順にクリックします。

画像のインポートが完了するまで、2~5 分ほど待ちます。

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。

データセットを作成する

タスク 4. 予測を生成する

モデルが事前トレーニング済みで、デプロイされていると想定して、(curl コマンド経由で)Vertex AI API を使用して予測を取得します。

デプロイされた事前トレーニング済みモデルのシミュレーション

次の手順では、事前トレーニング済みモデルが Vertex AI エンドポイントにデプロイされていると想定します。本番環境では、モデルをトレーニング後に Vertex AI エンドポイントにデプロイします。予測リクエスト構造では、モデルのリソース ID またはエンドポイントの URL を使用します。

入力画像を準備する

  1. 予測に使用する 2 つのサンプル画像をダウンロードします。
gsutil cp gs://spls/gsp223/examples/* .
  1. 予測するサンプル入力ファイル(CLOUD1-JSON)を表示します。このファイルには、プレースホルダ データが含まれます。
cat CLOUD1-JSON

Vertex AI エンドポイントで予測を生成する

汎用的な Vertex AI 予測 API 形式を使用します。そのためには、モデルがデプロイされている必要があります。次のコマンドでは、説明のためにプレースホルダのエンドポイント名とモデル名を使用します。また、clouds-model という名前のデプロイ済みモデルが存在すると想定しています。

テスト 1: CLOUD1 の予測

  1. 入力ファイルを最初の画像に設定します。
INPUT_DATA_FILE=CLOUD1-JSON
  1. Vertex AI 予測 URL をシミュレートします。
  • ライブ エンドポイントは自動的に提供されないため、Vertex AI API を反映したコマンド構造を使用します。このコマンド構造では、プロジェクト ID とモデル ID を使用します。

  • 実際のシナリオでは、最初に実際のエンドポイント ID を取得します。このコマンドは概念的なものです。

  1. ダミーの MODEL_IDREGION を設定します。
export MODEL_ID='clouds_vertex_model' export REGION='{{{project_0.default_region | Region}}}'
  1. (概念的な)Vertex AI 予測呼び出しを実行します。
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://${REGION}-aiplatform.googleapis.com/v1/projects/${GOOGLE_CLOUD_PROJECT}/locations/${REGION}/models/${MODEL_ID}:predict" \ -d "@${INPUT_DATA_FILE}" \ | jq > prediction1.txt

期待される出力(概念的): モデルは、これが巻雲であると高い信頼度で予測するはずです。

テスト 2: CLOUD2 の予測

  1. 入力ファイルを 2 つ目の画像に設定します。
INPUT_DATA_FILE=CLOUD2-JSON
  1. (概念的な)Vertex AI 予測呼び出しを実行します。
curl -X POST \ -H "Authorization: Bearer $(gcloud auth print-access-token)" \ -H "Content-Type: application/json" \ "https://${REGION}-aiplatform.googleapis.com/v1/projects/${GOOGLE_CLOUD_PROJECT}/locations/${REGION}/models/${MODEL_ID}:predict" \ -d "@${INPUT_DATA_FILE}" \ | jq > prediction2.txt

期待される出力(概念的): モデルは、これが積乱雲であると高い信頼度で予測するはずです。

  1. txt ファイルを Google Cloud Storage バケットにコピーします。
gsutil cp *.txt gs://${BUCKET}

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。

予測を生成する

お疲れさまでした

このラボでは、Vertex AI を使用して画像データセットを作成し、デプロイされたモデル エンドポイントで予測を生成しました。

次のステップと詳細情報

  • Vertex AI の概要を参照して API で各ステップを実施する方法を確認する

Google Cloud トレーニングと認定資格

Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。

マニュアルの最終更新日: 2025 年 10 月 17 日

ラボの最終テスト日: 2025 年 10 月 17 日

Copyright 2025 Google LLC. All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。

始める前に

  1. ラボでは、Google Cloud プロジェクトとリソースを一定の時間利用します
  2. ラボには時間制限があり、一時停止機能はありません。ラボを終了した場合は、最初からやり直す必要があります。
  3. 画面左上の [ラボを開始] をクリックして開始します

シークレット ブラウジングを使用する

  1. ラボで使用するユーザー名パスワードをコピーします
  2. プライベート モードで [コンソールを開く] をクリックします

コンソールにログインする

    ラボの認証情報を使用して
  1. ログインします。他の認証情報を使用すると、エラーが発生したり、料金が発生したりする可能性があります。
  2. 利用規約に同意し、再設定用のリソースページをスキップします
  3. ラボを終了する場合や最初からやり直す場合を除き、[ラボを終了] はクリックしないでください。クリックすると、作業内容がクリアされ、プロジェクトが削除されます

このコンテンツは現在ご利用いただけません

利用可能になりましたら、メールでお知らせいたします

ありがとうございます。

利用可能になりましたら、メールでご連絡いたします

1 回に 1 つのラボ

既存のラボをすべて終了して、このラボを開始することを確認してください

シークレット ブラウジングを使用してラボを実行する

このラボの実行には、シークレット モードまたはシークレット ブラウジング ウィンドウを使用してください。これにより、個人アカウントと受講者アカウントの競合を防ぎ、個人アカウントに追加料金が発生することを防ぎます。