Geelen Pieter
メンバー加入日: 2023
シルバーリーグ
21115 ポイント
メンバー加入日: 2023
多くの IT 組織では、アジリティを求める開発者と、安定性を重視する運用担当者の間で、インセンティブが調整されていません。サイト信頼性エンジニアリング(SRE)は、Google が開発と運用の間のインセンティブを調整し、ミッション クリティカルな本番環境サポートを行う方法です。SRE の文化的および技術的手法を導入することで、ビジネスと IT の連携を改善できます。このコースでは、Google の SRE の主な手法を紹介し、SRE の組織的な導入を成功させるうえで IT リーダーとビジネス リーダーが果たす重要な役割について説明します。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
あらゆる規模の組織が、事業運営の変革にクラウドの能力と柔軟性を活用しているなかで、クラウド リソースを効果的に管理、スケーリングすることが複雑なタスクになる可能性もあります。 ここでは、Google Cloud Operations を使用したスケーリングを通して、クラウドにおける最新の運用、信頼性、レジリエンスに関する基本的概念と、Google Cloud がこういった取り組みをどのように支援できるのかについて理解を深めます。 このコースは クラウド デジタル リーダー 学習プログラムの一部で、個人が自分の役割において成長し、ビジネスの未来を構築することを目的としています。
組織がデータやアプリケーションをクラウドへ移行する際には、新たなセキュリティ上の課題に対処することが求められます。この「Google Cloud で実現する信頼とセキュリティ」コースでは、クラウド セキュリティの基礎、およびインフラストラクチャ セキュリティに対する Google Cloud のマルチレイヤ型アプローチが持つ価値について学ぶとともに、Google がクラウドへのお客様の信頼をどのように獲得し維持しているのかについて学びます。 このコースは クラウド デジタル リーダー 学習プログラムの一部で、個人が自分の役割において成長し、ビジネスの未来を構築することを目的としています。
多くの従来型企業では、既存のシステムやアプリケーションで昨今の顧客の期待に応え続けることが難しくなっています。この場合、経営者は、老朽化した IT システムの保守を続けるのか、新たな製品やサービスに投資をするのか、選択を迫られることになります。「Google Cloud によるインフラストラクチャとアプリケーションのモダナイゼーション」ではそうした課題を明らかにするとともに、そうした課題をクラウド テクノロジーによって乗り越えるためのソリューションについて学びます。 このコースは クラウド デジタル リーダー 学習プログラムの一部で、個人が自分の役割において成長し、ビジネスの未来を構築することを目的としています。
AI と ML は、幅広い業種に急速な変革をもたらしているインフォメーション テクノロジーにおける重要な進化です。「Google Cloud の AI を活用したイノベーション」では、AI と ML を活用して組織でビジネス プロセスを変革する方法について学習します。 このコースは クラウド デジタル リーダー 学習プログラムの一部で、個人が自分の役割において成長し、ビジネスの未来を構築することを目的としています。
クラウド テクノロジーは組織に大きな価値をもたらします。クラウド テクノロジーの力をデータと組み合わせることで、その価値はさらに大きなものとなり、新しいカスタマー エクスペリエンスを提供できる可能性があります。「Google Cloud によるデータ トランスフォーメーションの探求」では、データが組織にもたらす価値と、Google Cloud でデータを有用かつアクセス可能なものにする方法を学習します。このコースは「クラウド デジタル リーダー」学習プログラムの一部で、個人が自分の役割において成長し、ビジネスの未来を構築することを目的としています。
クラウド テクノロジーとデジタル トランスフォーメーションに大きな期待が寄せられていますが、疑問点も多く残っています。 例: クラウド テクノロジーとは何か?デジタル トランスフォーメーションとは何を意味しているか?クラウド テクノロジーが組織にどう役立つのか?どこから着手するのか? このような疑問をお持ちなら、このコースはぴったりです。このコースでは、デジタル トランスフォーメーションにおいて多くの企業が直面する機会と課題のタイプについてご説明します。このデジタル トランスフォーメーションの入門コースなら、クラウド テクノロジーに関する知識を深めて自分の業務に活用するとともに、今後のビジネスの成長にも役立てていただけます。このコースは クラウド デジタル リーダー 学習プログラムの一部です。
このコースでは、これまで主に SQL のデベロッパーやアナリストが行っていたようなデータの探索や分析を Looker で実施する方法について学びます。このコースを修了すると、Looker の最新の分析プラットフォームを活用して、組織の Looker インスタンスにおける関連性の高いコンテンツの検索と探索、データに関する問い合わせ、必要に応じた新しい指標の作成、データドリブンな意思決定を促進するためのビジュアリゼーションとダッシュボードの作成や共有を行えるようになります。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
このコースでは、まず、データ品質を向上させる方法や探索的データ分析を行う方法など、データについての議論から始めます。Vertex AI AutoML について確認し、コードを一切記述せずに ML モデルを構築、トレーニング、デプロイする方法を説明します。また、BigQuery ML のメリットを確認します。その後、ML モデルを最適化する方法、一般化とサンプリングを活用してカスタム トレーニング向けに ML モデルの品質を評価する方法を説明します。
Google Cloud で機械学習を実装する際のベスト プラクティスには何があるでしょうか。Vertex AI とは何であり、このプラットフォームを使用してコードを 1 行も記述せずに AutoML 機械学習モデルを迅速に構築、トレーニング、デプロイするにはどうすればよいでしょうか。機械学習とはどのようなもので、どのような問題の解決に役立つのでしょうか。 Google では機械学習について独自の視点で考えています。マネージド データセット、特徴量ストア、そしてコードを 1 行も記述せずに迅速に機械学習モデルを構築、トレーニング、デプロイする手段を 1 つにまとめた統合プラットフォームを提供するとともに、データにラベル付けし、TensorFlow、SciKit Learn、Pytorch、R やその他のフレームワークを使用して Workbench ノートブックを作成できるようにすることが、Google の考える機械学習の在り方です。Google の Vertex AI プラットフォームでは、カスタムモデルをトレーニングしたり、コンポーネント パイプラインを構築したりすることもできます。さらに、オンライン予測とバッチ予測の両方を実施できます。このコースでは、候補となるユースケースを機械学習で学習できる形に変換する 5 つのフェーズについても説明し、これらのフェーズを省略しないことが重要である理由について論じます。最後に、機械学習によって増幅される可能性のあるバイアスの認識と、それを識別する方法について説明します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
このコースでは、ストリーミング データ パイプラインの構築時に直面する実際の問題を解決するために、実践的な演習を行います。ポイントは、Google Cloud プロダクトを使用して、絶えず流れ続けるデータを効果的に管理することです。
この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
データレイクとデータ ウェアハウスを使用する従来のアプローチは効果的ですが、特に大規模な企業環境においては欠点があります。このコースでは、データ レイクハウスのコンセプトと、データ レイクハウスの作成に使用する Google Cloud プロダクトについて説明します。レイクハウス アーキテクチャは、オープン スタンダードのデータソースを使用し、データレイクとデータ ウェアハウスの優れた機能を組み合わせて、両者の欠点の多くに対処します。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。