参加 ログイン

Muthu Veilu

メンバー加入日: 2024

ゴールドリーグ

29779 ポイント
Agent Development Kit(ADK)を使用したエージェントの構築を始める Earned 3月 13, 2026 EDT
生成 AI の概要 Earned 8月 18, 2025 EDT
Google Cloud におけるデータ分析の概要 Earned 8月 1, 2025 EDT
Professional Data Engineer の取得に向けた準備 Earned 9月 22, 2024 EDT
BigQuery のデータから分析情報を引き出す Earned 7月 29, 2024 EDT
ストリーミング分析を BigQuery に読み込む Earned 7月 29, 2024 EDT
BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング Earned 7月 29, 2024 EDT
Google データクラウドを使用してデータを共有する Earned 7月 24, 2024 EDT
Google Cloud の ML API 用にデータを準備 Earned 7月 20, 2024 EDT
Networking in Google Cloud: Hands-On Practice Earned 7月 19, 2024 EDT
Google Cloud でのクラウド セキュリティの基礎の実践 Earned 7月 19, 2024 EDT
Dataflow を使用したサーバーレスのデータ処理: 基礎 Earned 7月 16, 2024 EDT
BigQuery でデータ ウェアハウスを構築する Earned 7月 15, 2024 EDT
Google Cloud でストリーミング データ パイプラインを構築する Earned 7月 14, 2024 EDT
The Arcade June Speedrun Earned 7月 2, 2024 EDT
Google Cloud でのバッチデータ パイプラインの構築 Earned 6月 26, 2024 EDT
Google Cloud でデータレイクとデータ ウェアハウスを構築する Earned 6月 23, 2024 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - 日本語版 Earned 6月 18, 2024 EDT

Google の Agent Development Kit(ADK)を使用して AI エージェントを初めて構築、構成、実行してみることで、エージェントに関する理解を実践に活かしましょう。 この実践的なコースでは、完全な ADK 開発環境をセットアップしたうえで、Python コードと YAML 構成の両方を使用してエージェントを作成し、複数のインターフェースを介してエージェントを実行します。また、エージェントの動作を定義するコア パラメータについても学習し、コース 1 で学習した内容を実際に使えるコードに適用します。

詳細

この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。

詳細

これは、5 つのコースからなる「Google Cloud データ アナリティクス認定証」プログラムの 1 つ目のコースです。このコースでは、クラウドデータ分析とは何かについて、そしてデータの取得、保存、処理、可視化に関連するクラウド データ アナリストの役割と責任について学びます。受講者は、Google Cloud ベースのツール(BigQuery や Cloud Storage など)のアーキテクチャと、それらを使用してデータを効果的に整理、提示し、レポートを作成する方法を確認します。

詳細

このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。

詳細

「BigQuery のデータから分析情報を引き出す」の入門スキルバッジを獲得すると、 SQL クエリの作成、一般公開テーブルに対するクエリの実行、BigQuery へのサンプルデータの読み込み、BigQuery でのクエリ バリデータを使用した一般的な構文エラーのトラブルシューティング、 BigQuery データへの接続による Looker Studio でのレポート作成といったスキルを実証できます。

詳細

「ストリーミング分析を BigQuery に読み込む」 スキルバッジ コースを修了してスキルバッジを獲得し、ストリーミングで Pub/Sub、Dataflow、BigQuery を組み合わせて 分析のためにデータをストリーミングしましょう。

詳細

「BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。

詳細

「Google データクラウドを使用してデータを共有する」スキルバッジ コースを修了して、スキルバッジを獲得しましょう。 このコースでは、Google Cloud の データ共有パートナーに関する実践的な経験を積むことができます。これらのパートナーは、顧客が分析ユースケースで活用できる独自のデータセットを 保有しています。顧客は、このデータをサブスクライブし、自身のプラットフォーム内で クエリを実行し、それを独自のデータセットで拡張して、 可視化ツールを使用して顧客向けのダッシュボードを作成します。

詳細

「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。

詳細

This course consists of a series of labs, designed to provide the learner hands-on experience performing a variety of tasks pertaining to setup and maintenance of their Google VPC networks.

詳細

Google Cloud でのクラウド セキュリティの基礎の実践 スキルバッジを獲得できる中級コースを修了すると、 Identity and Access Management(IAM)でのロールの作成と割り当て、 サービス アカウントの作成と管理、Virtual Private Cloud(VPC)ネットワーク全体でのプライベート接続の有効化、 Identity-Aware Proxy を使用したアプリケーション アクセスの制限、Cloud Key Management Service(KMS)を使用した鍵と暗号化されたデータの管理、 限定公開 Kubernetes クラスタの作成に関するスキルを実証できます。

詳細

このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。

詳細

「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。

詳細

このコースでは、ストリーミング データ パイプラインの構築時に直面する実際の問題を解決するために、実践的な演習を行います。ポイントは、Google Cloud プロダクトを使用して、絶えず流れ続けるデータを効果的に管理することです。

詳細

Race to the finish line with the Arcade June Speedrun and pick up valuable skills along with an exclusive Google Cloud Credential. Get hands-on experience with APIs, learn how to build a serverless app, and more! No prior experience needed.

詳細

この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。

詳細

データレイクとデータ ウェアハウスを使用する従来のアプローチは効果的ですが、特に大規模な企業環境においては欠点があります。このコースでは、データ レイクハウスのコンセプトと、データ レイクハウスの作成に使用する Google Cloud プロダクトについて説明します。レイクハウス アーキテクチャは、オープン スタンダードのデータソースを使用し、データレイクとデータ ウェアハウスの優れた機能を組み合わせて、両者の欠点の多くに対処します。

詳細

ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。

詳細