参加 ログイン

Keraudren Irvin

メンバー加入日: 2024

ダイヤモンド リーグ

14298 ポイント
Dataflow を使用したサーバーレスのデータ処理: パイプラインの開発 Earned 12月 15, 2025 EST
Dataflow を使用したサーバーレスのデータ処理: 運用 Earned 10月 2, 2025 EDT
Dataplex を使用したデータメッシュの構築 Earned 9月 26, 2025 EDT
BigQuery でデータ ウェアハウスを構築する Earned 9月 26, 2025 EDT
BigQuery で Gemini モデルを操作する Earned 9月 26, 2025 EDT
Gemini in BigQuery で生産性を高める Earned 9月 24, 2025 EDT
Google Cloud でストリーミング データ パイプラインを構築する Earned 9月 24, 2025 EDT
Google Cloud でのバッチデータ パイプラインの構築 Earned 9月 23, 2025 EDT
Google Cloud でデータレイクとデータ ウェアハウスを構築する Earned 9月 16, 2025 EDT
Dataflow を使用したサーバーレスのデータ処理: 基礎 Earned 5月 9, 2025 EDT
Data Engineering on Google Cloud の概要 Earned 11月 20, 2024 EST
Professional Data Engineer の取得に向けた準備 Earned 10月 30, 2024 EDT

Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。

詳細

Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。

詳細

「Dataplex を使用したデータメッシュの構築」入門コースを修了してスキルバッジを獲得すると、Dataplex を使用してデータメッシュを構築し、 Google Cloud 上のデータ セキュリティ、ガバナンス、検出を強化するスキルを実証できます。このコースでは、Dataplex でアセットにタグを付け、IAM ロールを割り当て、データ品質を評価する方法を練習し、そのスキルをテストします。

詳細

「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。

詳細

このコースでは、BigQuery の生成 AI タスクで AI / ML モデルを使用する方法をご紹介します。顧客管理を含む実際のユースケースを通して、Gemini モデルを使用してビジネス上の問題を解決するワークフローを学びます。また、理解を深めるために、このコースでは SQL クエリと Python ノートブックの両方を使用したコーディング ソリューションの詳細な手順も提供しています。

詳細

このコースでは、データを AI 活用へつなげるためのワークフローに役立つ AI 搭載の機能スイート、Gemini in BigQuery について説明します。この機能スイートには、データの探索と準備、コード生成とトラブルシューティング、ワークフローの検出と可視化などが含まれます。このコースでは、概念の説明、実際のユースケース、ハンズオンラボを通じて、データ実務者が生産性を高め、開発パイプラインを迅速化できるよう支援します。

詳細

このコースでは、ストリーミング データ パイプラインの構築時に直面する実際の問題を解決するために、実践的な演習を行います。ポイントは、Google Cloud プロダクトを使用して、絶えず流れ続けるデータを効果的に管理することです。

詳細

この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。

詳細

データレイクとデータ ウェアハウスを使用する従来のアプローチは効果的ですが、特に大規模な企業環境においては欠点があります。このコースでは、データ レイクハウスのコンセプトと、データ レイクハウスの作成に使用する Google Cloud プロダクトについて説明します。レイクハウス アーキテクチャは、オープン スタンダードのデータソースを使用し、データレイクとデータ ウェアハウスの優れた機能を組み合わせて、両者の欠点の多くに対処します。

詳細

このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。

詳細

このコースでは、Google Cloud におけるデータ エンジニアリング、データ エンジニアの役割と責任、それらが Google Cloud の各サービスにどのように対応しているかについて学びます。また、データ エンジニアリングの課題に対処する方法も学習します。

詳細

このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。

詳細