arrow_back

Google Cloud での ML の API の使用: チャレンジラボ

ログイン 参加
700 以上のラボとコースにアクセス

Google Cloud での ML の API の使用: チャレンジラボ

ラボ 1時間 30分 universal_currency_alt クレジット: 5 show_chart 中級
info このラボでは、学習をサポートする AI ツールが組み込まれている場合があります。
700 以上のラボとコースにアクセス

GSP329

Google Cloud セルフペース ラボのロゴ

概要

チャレンジラボでは、シナリオと一連のタスクが提供されます。手順ガイドに沿って進める形式ではなく、コース内のラボで習得したスキルを駆使して、ご自身でタスクを完了していただきます。タスクが適切に完了したかどうかは、このページに表示される自動スコアリング システムで確認できます。

チャレンジラボは、Google Cloud の新しいコンセプトについて学習するためのものではありません。デフォルト値を変更する、エラー メッセージを読み調査を行ってミスを修正するなど、習得したスキルを応用する能力が求められます。

100% のスコアを達成するには、制限時間内に全タスクを完了する必要があります。

このラボは、「Google Cloud での ML の API の使用」コースに登録している受講者を対象としています。準備が整ったらチャレンジを開始しましょう。

テスト対象トピック

  • BigQuery と Cloud Storage のサービス アカウントに正しい権限を付与します。
  • Google Cloud の認証情報を Python アプリケーションに提供するために、サービス アカウントの認証情報ファイルを作成してダウンロードします。
  • Google Cloud Vision API を使用して画像ファイルからテキストを抽出するよう Python スクリプトを変更します。
  • Google Translate API を使用してテキストを翻訳するよう Python スクリプトを変更します。
  • BigQuery SQL クエリを実行して、抽出したデータの中に出現する言語を確認します。

設定と要件

[ラボを開始] ボタンをクリックする前に

こちらの説明をお読みください。ラボには時間制限があり、一時停止することはできません。タイマーは、Google Cloud のリソースを利用できる時間を示しており、[ラボを開始] をクリックするとスタートします。

このハンズオンラボでは、シミュレーションやデモ環境ではなく実際のクラウド環境を使って、ラボのアクティビティを行います。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。

このラボを完了するためには、下記が必要です。

  • 標準的なインターネット ブラウザ(Chrome を推奨)
注: このラボの実行には、シークレット モード(推奨)またはシークレット ブラウジング ウィンドウを使用してください。これにより、個人アカウントと受講者アカウント間の競合を防ぎ、個人アカウントに追加料金が発生しないようにすることができます。
  • ラボを完了するための時間(開始後は一時停止できません)
注: このラボでは、受講者アカウントのみを使用してください。別の Google Cloud アカウントを使用すると、そのアカウントに料金が発生する可能性があります。

ラボを開始して Google Cloud コンソールにログインする方法

  1. [ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるダイアログでお支払い方法を選択してください。 左側の [ラボの詳細] ペインには、以下が表示されます。

    • [Google Cloud コンソールを開く] ボタン
    • 残り時間
    • このラボで使用する必要がある一時的な認証情報
    • このラボを行うために必要なその他の情報(ある場合)
  2. [Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウで開く] を選択します)。

    ラボでリソースがスピンアップし、別のタブで [ログイン] ページが表示されます。

    ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。

    注: [アカウントの選択] ダイアログが表示されたら、[別のアカウントを使用] をクリックします。
  3. 必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。

    {{{user_0.username | "Username"}}}

    [ラボの詳細] ペインでもユーザー名を確認できます。

  4. [次へ] をクリックします。

  5. 以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。

    {{{user_0.password | "Password"}}}

    [ラボの詳細] ペインでもパスワードを確認できます。

  6. [次へ] をクリックします。

    重要: ラボで提供された認証情報を使用する必要があります。Google Cloud アカウントの認証情報は使用しないでください。 注: このラボでご自身の Google Cloud アカウントを使用すると、追加料金が発生する場合があります。
  7. その後次のように進みます。

    • 利用規約に同意してください。
    • 一時的なアカウントなので、復元オプションや 2 要素認証プロセスは設定しないでください。
    • 無料トライアルには登録しないでください。

その後、このタブで Google Cloud コンソールが開きます。

注: Google Cloud のプロダクトやサービスにアクセスするには、ナビゲーション メニューをクリックするか、[検索] フィールドにサービス名またはプロダクト名を入力します。 ナビゲーション メニュー アイコンと検索フィールド

チャレンジ シナリオ

あなたは Jooli Inc. のアナリティクス チームのメンバーとして新たな役割を担うことになりました。会社の ML プロジェクトにおいてデータセットの開発と評価を支援することが求められています。主なタスクとして、さまざまなデータセットの準備、クリーニング、分析が含まれます。

これらのタスクのスキルや知識があるという前提のため、手順ガイドは提供されません。

チャレンジ

サイネージの複数の画像を分析して、画像内のテキストを抽出、翻訳するプロセスを開発するように依頼されました。抽出したテキスト情報は、ML プロジェクトの一環として、画像の分類に役立てるために使用されます。なお、このプロジェクトでは、モデルのトレーニングと評価にその画像データセットが使用されます。すべての画像にはテキストが含まれますが、テキストの言語はさまざまです。画像は Cloud Storage バケットに保存され、いつでも利用可能な状態です。

Python スクリプトを使用して、各画像ファイルを Google Vision API に送信して処理し、画像内のテキストを特定します。各画像から抽出したテキストは、それぞれ別のファイルとして、Cloud Storage に保存しなおす必要があります。テキストのロケールが(locale='')以外の場合、テキストを Google Translate API に送信して、に翻訳されたテキストを取得する必要があります。すべての画像の処理が完了したら、スクリプトを使用して結果を BigQuery テーブルにアップロードする必要があります。

次の図にプロセスの概略を示します。ML の API のチャレンジ図

処理されたテキスト データは必ず、プロジェクト(image_classification_dataset)のデータセットにある既存の BigQuery テーブル(image_text_detail)に書き出されます。

チームメンバーの 1 人が、以前 Natural Language API を使用して一連のテキスト ファイルを処理するのに使用した Python スクリプトをベースにして、画像を処理するためのコードの編集に取り掛かっていました。このメンバーが別のプロジェクトに異動してしまったので、あなたがこのタスクを完了させなければなりません。

スクリプトの編集はほとんど完了しており、引き継いだバージョンでは、ストレージ バケットにアクセスでき、画像ファイルが検出されるたびに反復処理が行われるようになっています。しかし、各画像からテキストを検出して、そのテキストを Translation API に送信するための API 呼び出しがまだ実装されていません。

手元には、作業中の Python スクリプトのコピーと、ラボ プロジェクト ID の名前が付けられた Cloud Storage バケットに保存されているサンプル画像セットがあります。

チームメンバーは、スクリプトの完成していない箇所を特定し、作成する必要がある API 呼び出しについてコメントを残してくれています。スクリプトには完成していないところが 3 箇所あります。この未完成部分を完了させ、適切な ML の API 呼び出しを作成する必要があります。未完成部分にはすべて、先頭に # TBD: というコメントが付いています。

最後の行には、結果データを BigQuery にアップロードするコードが記述されていますが、この行はコメント文字で無効になっています。スクリプトの他の部分が問題なく機能することを確認したら、コメント文字を削除して最後の行を有効にします。

スクリプトを編集する前に、環境を準備する必要があります。適切な権限を持つサービス アカウントを作成し、そのアカウントの認証情報ファイルをダウンロードします。サービス アカウントの認証情報を取得すると、Python スクリプトを変更し、それを使用して画像ファイルを処理することができます。

課題を完了するには、すべての画像に対して、最初に抽出したテキスト、言語、翻訳済みのテキストデータを BigQuery テーブル(image_text_detail)に読み込む必要があります。この処理を行うコードはスクリプトの最後の行に記述されています。この行を有効にするには、コメント文字を削除する必要があります。

更新した Python スクリプトを使用して、画像ファイルを処理し、データを BigQuery にアップロードできたら、次の BigQuery クエリを実行して、画像データが正常に処理されることを確認する必要があります。

SELECT locale,COUNT(locale) as lcount FROM image_classification_dataset.image_text_detail GROUP BY locale ORDER BY lcount DESC

このクエリを実行すると、サンプル画像セットから検出された、それぞれの言語タイプごとのサイネージの数が報告されます。

タスク 1. ML の API、BigQuery、Cloud Storage にアクセスするためのサービス アカウントを構成する

  1. 新しいサービス アカウントを作成します。このアカウントで、スクリプトの認証情報を提供します。
  2. サービス アカウントは一度作成されると、 および のロールと紐づけられ、IAM 権限が付与されます。IAM 権限は、Cloud Storage のファイルを処理し、結果データを BigQuery テーブルに挿入するために必要なアクセス権限です。サービス アカウントに、BigQuery と Cloud Storage にアクセスするための管理者権限が付与されていることを確認します。

タスク 2. 新しいサービス アカウントの認証情報ファイルを作成し、ダウンロードする

  1. サービス アカウントの権限を構成したら、そのサービス アカウントに対応する JSON 形式の IAM 認証情報ファイルをダウンロードします。
  2. 必ず、Python スクリプトの認証情報ファイルの名前を提供する環境変数を設定してください。サービス アカウントに対応する IAM 認証情報ファイルが作成されたことを確認します。

タスク 3. イメージ ファイルからテキストを抽出するよう Python スクリプトを変更する

  1. analyze-images-v2.py ファイルを、作成された Cloud Storage バケットから Cloud Shell にコピーします。

  2. プロジェクト バケットに保存した画像ファイルからテキストを抽出するよう Python スクリプトを変更して、各ファイルのテキストデータをテキスト ファイルに保存して、同じバケットに書き戻す必要があります。スクリプトには、API にアクセスするためのコードを追加する必要がある箇所に # TBD というコメントが付いています。

  3. Cloud Vision API を使用して画像ファイルからテキストデータを抽出するようにスクリプトの最初の部分を変更します。変更したら、その時点でスクリプトを実行し、処理が正しく進んでいることを確認します。

アプリケーションにより、画像からテキストが抽出されることを確認する

タスク 4. Translation API を使用してテキストを翻訳するよう Python スクリプトを変更する

  • 次に、Vision API で検出されたのテキストデータを特定し、Translation API を使用してそのテキストをに翻訳するよう Python スクリプト の 2 番目の箇所を変更します。

    アプリケーションにより、テキストが翻訳され、結果が BigQuery に保存されることを確認する

タスク 5. データセット内のサイネージに最もよく使用されている言語を特定する

  1. スクリプトを更新し、画像内のテキストの検出と翻訳を正常に行えるようになったら、BigQuery にデータをアップロードするためのスクリプトの最後の行からコメント文字を削除します。
  2. BigQuery にデータがアップロードされたら、言語ごとに出現回数を数えるクエリを実行して、必要なデータがすべて BigQuery に読み込まれていることを確認します。BigQuery クエリを実行して、各言語が画像内でどのくらいの頻度で検出されるかを報告します。

ヒントとアドバイス

お疲れさまでした

サイネージの複数の画像を分析し、それらの画像内のテキストを抽出して翻訳するプロセスの開発が完了しました。

Google Cloud トレーニングと認定資格

Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。

マニュアルの最終更新日: 2024 年 8 月 30 日

ラボの最終テスト日: 2024 年 8 月 30 日

Copyright 2025 Google LLC. All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。

始める前に

  1. ラボでは、Google Cloud プロジェクトとリソースを一定の時間利用します
  2. ラボには時間制限があり、一時停止機能はありません。ラボを終了した場合は、最初からやり直す必要があります。
  3. 画面左上の [ラボを開始] をクリックして開始します

シークレット ブラウジングを使用する

  1. ラボで使用するユーザー名パスワードをコピーします
  2. プライベート モードで [コンソールを開く] をクリックします

コンソールにログインする

    ラボの認証情報を使用して
  1. ログインします。他の認証情報を使用すると、エラーが発生したり、料金が発生したりする可能性があります。
  2. 利用規約に同意し、再設定用のリソースページをスキップします
  3. ラボを終了する場合や最初からやり直す場合を除き、[ラボを終了] はクリックしないでください。クリックすると、作業内容がクリアされ、プロジェクトが削除されます

このコンテンツは現在ご利用いただけません

利用可能になりましたら、メールでお知らせいたします

ありがとうございます。

利用可能になりましたら、メールでご連絡いたします

1 回に 1 つのラボ

既存のラボをすべて終了して、このラボを開始することを確認してください

シークレット ブラウジングを使用してラボを実行する

このラボの実行には、シークレット モードまたはシークレット ブラウジング ウィンドウを使用してください。これにより、個人アカウントと受講者アカウントの競合を防ぎ、個人アカウントに追加料金が発生することを防ぎます。