Shitole Siddhi
メンバー加入日: 2022
メンバー加入日: 2022
This course discusses how environments are managed in Apigee hybrid, and how runtime plane components are secured. You will also learn how to deploy and debug API proxies in Apigee hybrid, and about capacity planning and scaling.
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
このコースでは、BigQuery の生成 AI タスクで AI / ML モデルを使用する方法をご紹介します。顧客管理を含む実際のユースケースを通して、Gemini モデルを使用してビジネス上の問題を解決するワークフローを学びます。また、理解を深めるために、このコースでは SQL クエリと Python ノートブックの両方を使用したコーディング ソリューションの詳細な手順も提供しています。
このコースでは、データを AI 活用へつなげるためのワークフローに役立つ AI 搭載の機能スイート、Gemini in BigQuery について説明します。この機能スイートには、データの探索と準備、コード生成とトラブルシューティング、ワークフローの検出と可視化などが含まれます。このコースでは、概念の説明、実際のユースケース、ハンズオンラボを通じて、データ実務者が生産性を高め、開発パイプラインを迅速化できるよう支援します。
Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。
「Dataplex を使用したデータメッシュの構築」入門コースを修了してスキルバッジを獲得すると、Dataplex を使用してデータメッシュを構築し、 Google Cloud 上のデータ セキュリティ、ガバナンス、検出を強化するスキルを実証できます。このコースでは、Dataplex でアセットにタグを付け、IAM ロールを割り当て、データ品質を評価する方法を練習し、そのスキルをテストします。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
このコースでは、Google Cloud におけるデータ エンジニアリング、データ エンジニアの役割と責任、それらが Google Cloud の各サービスにどのように対応しているかについて学びます。また、データ エンジニアリングの課題に対処する方法も学習します。
「BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
このコースでは、ストリーミング データ パイプラインの構築時に直面する実際の問題を解決するために、実践的な演習を行います。ポイントは、Google Cloud プロダクトを使用して、絶えず流れ続けるデータを効果的に管理することです。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
このコースでは、Google Cloud の AI および ML 機能について紹介します。特に、生成 AI と予測 AI の両方のプロジェクトの開発に重点を置きます。データから AI へのライフサイクル全体で利用可能なさまざまなテクノロジー、プロダクト、ツールについて説明するとともに、データ サイエンティスト、AI デベロッパー、ML エンジニアがインタラクティブな演習を通じて専門知識を強化できるよう支援します。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。
This 1-week, accelerated on-demand course builds upon Google Cloud Platform Big Data and Machine Learning Fundamentals. Through a combination of video lectures, demonstrations, and hands-on labs, you'll learn to build streaming data pipelines using Google cloud Pub/Sub and Dataflow to enable real-time decision making. You will also learn how to build dashboards to render tailored output for various stakeholder audiences.
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
このコースでは、生成 AI モデルとのやりとり、ビジネス アイデアのプロトタイプ作成、本番環境へのリリースを行うツールである Vertex AI Studio をご紹介します。現実感のあるユースケースや、興味深い講義、ハンズオンラボを通して、プロンプトの作成から成果の実現に至るまでのライフサイクルを詳細に学び、Gemini マルチモーダル アプリケーションの開発、プロンプトの設計、モデルのチューニングに Vertex AI を活用する方法を学習します。Vertex AI Studio を利用することで、生成 AI をプロジェクトに最大限に活かせるようになることを目指します。
このコースでは、ディープ ラーニングを使用して画像キャプション生成モデルを作成する方法について学習します。エンコーダやデコーダなどの画像キャプション生成モデルのさまざまなコンポーネントと、モデルをトレーニングして評価する方法を学びます。このコースを修了すると、独自の画像キャプション生成モデルを作成し、それを使用して画像のキャプションを生成できるようになります。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
Earn a skill badge by passing the final quiz, you'll demonstrate your understanding of foundational concepts in generative AI. A skill badge is a digital badge issued by Google Cloud in recognition of your knowledge of Google Cloud products and services. Share your skill badge by making your profile public and adding it to your social media profile.
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
クラウド アーキテクチャ: 設計、実装、管理 コースを修了して、スキルバッジを獲得しましょう。 Apache ウェブサーバーを使用した一般公開ウェブサイトのデプロイ、 起動スクリプトを使用した Compute Engine VM の構成、 Windows の踏み台インスタンスとファイアウォール ルールを使用したセキュアな RDP の構成、ビルドした Docker イメージの Kubernetes クラスタへのデプロイと更新、 CloudSQL インスタンスの作成と MySQL データベースのインポートといったスキルを実証できます。 このスキルバッジは、 Google Cloud Certified Professional Cloud Architect 認定資格試験に出題されるトピックを理解するのに 役立つリソースです。
「Google Kubernetes Engine の費用の最適化」の中級スキルバッジを獲得すると、 マルチテナント クラスタの作成と管理、各 Namespace のリソース使用状況のモニタリング、 効率向上のためのクラスタと Pod の自動スケーリングの構成、最適なリソース配分のためのロード バランシングの設定、 アプリケーションの健全性と費用対効果を確保するための liveness プローブと readiness プローブの実装といったスキルを実証できます。
Google Cloud ネットワークの設定コースを修了してスキルバッジを獲得しましょう。 このコースでは、Google Cloud Platform で基本的なネットワーキング タスクを実行する方法を学習します。具体的には、カスタム ネットワークの作成、サブネット ファイアウォール ルールの追加、VM の作成、そして VM 同士が通信する際のレイテンシのテストについて学びます。
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。
This course introduces you to the fundamentals and advanced practices applicable to the installation and management of Google Cloud's Apigee API Platform for private cloud. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, install, secure, manage, and scale Apigee API Platform. This is the first course of the Installing and Managing Google Cloud's Apigee API Platform for Private Cloud series. After completing this course, enroll in the On Premises Management, Security, and Upgrade with Google Cloud's Apigee API Platform course.
「Apigee X のデプロイと管理」クエストを修了するとスキルバッジを獲得できます。 X このクエストでは、Apigee X アーキテクチャ、Google Cloud プロジェクト内の Apigee X 組織のプロビジョニング方法、 Apigee API と UI を使用した Apigee X の管理、 Cloud Armor と Apigee 脅威保護ポリシーを使用して API を保護する方法を学びます。
Learn how to upgrade capacity for the Apigee for private cloud platform installation, and how to monitor the platform. This is the third and final course of the Installing and Managing Google Cloud's Apigee API Platform for Private Cloud series.
This course discusses the management and operation of the Apigee platform for private cloud. It includes topics on operational practices, API deployment, analytics, security and upgrade of the platform. This is the second course of the Installing and Managing Google Cloud's Apigee API Platform for Private Cloud course series. After completing this course, enroll in the On Premises Capacity Upgrade and Monitoring with Google Cloud's Apigee API Platform course.
This course introduces you to the fundamentals and practices used to install and manage Google Cloud's Apigee API Platform for hybrid cloud. Through a combination of lectures, a hands-on lab, and supplemental materials, you will learn how to install and operate the Apigee API Platform.
In this course, you learn how to create APIs that utilize multiple services and how you can use custom code on Apigee. You will also learn about fault handling, and how to share logic between proxies. You learn about traffic management and caching. You also create a developer portal, and publish your API to the portal. You learn about logging and analytics, as well as CI/CD and the different deployment models supported by Apigee. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud's Apigee API Platform.This is the third and final course of the Developing APIs with Google Cloud's Apigee API Platform course series.
In this course, you learn how to secure your APIs. You explore the security concerns you will encounter for your APIs. You learn about OAuth, the primary authorization method for REST APIs. You will learn about JSON Web Tokens (JWTs) and federated security. You also learn about securing against malicious requests, safely sending requests across a public network, and how to secure your data for users of Apigee. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud's Apigee API Platform. This is the second course of the Developing APIs with Google Cloud's Apigee API Platform series. After completing this course, enroll in the API Development on Google Cloud's Apigee API Platform course.
In this course, you learn how to design APIs, and how to use OpenAPI specifications to document them. You learn about the API life cycle, and how the Apigee API platform helps you manage all aspects of the life cycle. You learn about how APIs can be designed using API proxies, and how APIs are packaged as API products to be used by app developers. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud's Apigee API Platform. This is the first course of the Developing APIs with Google Cloud's Apigee API Platform series. After completing this course, enroll in the API Security on Google Cloud's Apigee API Platform course.
このコースでは、実績ある設計パターンを利用して、信頼性と効率に優れたソリューションを Google Cloud で構築する方法を学習します。本コースは、Google Compute Engine を使用した構築 または Google Kubernetes Engine を使用した構築 のコースの続きで、これらのコースで取り上げているテクノロジーの実践経験があることを前提としています。参加者は、講義、設計アクティビティ、ハンズオンラボを通して、ビジネス要件と技術要件を定義し、バランスを取りながら、信頼性、可用性、安全性、費用対効果に優れた Google Cloud のデプロイを設計する方法を学びます。
このコースでは、PCA(Professional Cloud Architect)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
このコースでは、本番環境で高パフォーマンスな ML システムを構築するためのコンポーネントとベスト プラクティスについて学習します。また、ML システムを構築するうえで最も一般的な考慮事項を紹介します。これには、静的トレーニング、動的トレーニング、静的な推論、動的な推論、分散型 TensorFlow、TPU などが含まれます。このコースでは、優れた予測能力にとどまらない、優れた ML システムの特性を探索することに焦点を当てています。
このコースでは、ML ワークフローに対する実践的なアプローチを取り上げます。具体的には、いくつかの ML のビジネス要件とユースケースに取り組む ML チームをケーススタディ形式で紹介します。このチームは、データ マネジメントとガバナンスに必要なツールを理解し、データの前処理に最適なアプローチを検討する必要があります。 2 つのユースケースに対して ML モデルを構築するための 3 つのオプションがチームに提示されます。このコースでは、チームの目標を達成するために、AutoML、BigQuery ML、カスタム トレーニングを使用する理由について説明します。
このコースでは、Vertex AI Feature Store を使用するメリット、ML モデルの精度を向上させる方法、最も有効な特徴を抽出できるデータ列の見極め方について説明します。また、BigQuery ML、Keras、TensorFlow を使用した特徴量エンジニアリングに関するコンテンツとラボも用意されています。
このコースでは、TensorFlow と Keras を使用した ML モデルの構築、ML モデルの精度の向上、スケーリングに対応した ML モデルの作成について取り上げます。
このコースでは、まず、データ品質を向上させる方法や探索的データ分析を行う方法など、データについての議論から始めます。Vertex AI AutoML について確認し、コードを一切記述せずに ML モデルを構築、トレーニング、デプロイする方法を説明します。また、BigQuery ML のメリットを確認します。その後、ML モデルを最適化する方法、一般化とサンプリングを活用してカスタム トレーニング向けに ML モデルの品質を評価する方法を説明します。
Google Cloud で機械学習を実装する際のベスト プラクティスには何があるでしょうか。Vertex AI とは何であり、このプラットフォームを使用してコードを 1 行も記述せずに AutoML 機械学習モデルを迅速に構築、トレーニング、デプロイするにはどうすればよいでしょうか。機械学習とはどのようなもので、どのような問題の解決に役立つのでしょうか。 Google では機械学習について独自の視点で考えています。マネージド データセット、特徴量ストア、そしてコードを 1 行も記述せずに迅速に機械学習モデルを構築、トレーニング、デプロイする手段を 1 つにまとめた統合プラットフォームを提供するとともに、データにラベル付けし、TensorFlow、SciKit Learn、Pytorch、R やその他のフレームワークを使用して Workbench ノートブックを作成できるようにすることが、Google の考える機械学習の在り方です。Google の Vertex AI プラットフォームでは、カスタムモデルをトレーニングしたり、コンポーネント パイプラインを構築したりすることもできます。さらに、オンライン予測とバッチ予測の両方を実施できます。このコースでは、候補となるユースケースを機械学習で学習できる形に変換する 5 つのフェーズについても説明し、これらのフェーズを省略しないことが重要である理由について論じます。最後に、機械学習によって増幅される可能性のあるバイアスの認識と、それを識別する方法について説明します。
このコースでは、Google Cloud のインフラストラクチャとアプリケーションのパフォーマンスをモニタリングして改善するための手法を学びます。 プレゼンテーション、デモ、ハンズオンラボ、実際の事例紹介を組み合わせて活用することにより、フルスタック モニタリング、リアルタイムでのログ管理と分析、本番環境でのコードのデバッグ、アプリケーション パフォーマンスのボトルネックのトレース、CPU とメモリ使用量のプロファイリングに関する経験を積むことができます。
この自習式トレーニング コースでは、Google Cloud でのセキュリティの管理と手法全般について学習します。録画された講義、デモ、ハンズオンラボを通して、Cloud Storage アクセス制御テクノロジー、セキュリティ キー、顧客指定の暗号鍵、API アクセス制御、スコーピング、Shielded VM、暗号化、署名付き URL など、安全な Google Cloud ソリューションを構築するためのコンポーネントについて学習し、演習を行います。また、Kubernetes 環境の保護についても説明します。
この自習式トレーニング コースでは、Google Cloud でのセキュリティの管理と手法全般について学習します。録画された講義、デモ、ハンズオンラボを通して、Cloud Identity、Resource Manager、Cloud IAM、Virtual Private Cloud ファイアウォール、Cloud Load Balancing、Cloud ピアリング、Cloud Interconnect、VPC Service Controls など、安全な Google Cloud ソリューションのコンポーネントについて学び、演習を行います。 これは「Google Cloud におけるセキュリティ」シリーズの最初のコースです。このコースを修了したら、「Google Cloud におけるセキュリティのベスト プラクティス」コースを受講してください。
「Google Cloud のネットワーキング」シリーズの 2 番目のコース「ルーティングとアドレス指定」へようこそ。 このコースでは、Google Cloud のネットワーク機能に関連するルーティングとアドレス指定の中核となるコンセプトについて説明します。 モジュール 1 では、Google Cloud でのネットワーク ルーティングとアドレス指定について学習し、IPv4 のルーティング、お客様所有 IP アドレスの使用、Cloud DNS の設定などの主要な構成要素を取り上げることで、基礎知識を身に付けます。モジュール 2 では、プライベート接続のオプションに話題を移し、内部 IP アドレスを使用して Google やその他のサービスにプライベート アクセスするユースケースや手法について説明します。 このコースを修了すると、Google Cloud 内のネットワーク トラフィックを効果的にルーティングおよびアドレス指定する方法をしっかりと把握できるようになります。
Google Cloud のネットワーキングは、6 部構成のコースシリーズです。6 部構成のコースシリーズの最初のコース「Google Cloud のネットワーキング: 基礎」へようこそ。 このコースでは、ネットワーキングの基礎、Virtual Private Cloud(VPC)、VPC ネットワークの共有など、ネットワーキングの主なコンセプトに関する包括的な概要を説明します。また、ネットワークのロギング手法とモニタリング手法についても説明します。
このコースは、Professional Cloud Security Engineer(PCSE)認定試験への準備に役立ちます。受講者は、一連の講義、診断用の問題、理解度チェックを通じて試験内容についての理解を深め、準備を整えることができます。このコースを修了した暁には、受講者それぞれに独自のワークブックができあがるので、認定試験に向けてほかにどのような準備を行うべきかがわかるようになります。
この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。
データレイクとデータ ウェアハウスを使用する従来のアプローチは効果的ですが、特に大規模な企業環境においては欠点があります。このコースでは、データ レイクハウスのコンセプトと、データ レイクハウスの作成に使用する Google Cloud プロダクトについて説明します。レイクハウス アーキテクチャは、オープン スタンダードのデータソースを使用し、データレイクとデータ ウェアハウスの優れた機能を組み合わせて、両者の欠点の多くに対処します。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
「Google Cloud における Terraform を使用したインフラストラクチャの構築」の中級スキルバッジを獲得すると、 Terraform を使用した Infrastructure as Code(IaC)の原則、Terraform 構成を使用した Google Cloud リソースのプロビジョニングと管理、 状態の効果的な管理(ローカルおよびリモート)、組織内での再利用性を念頭に置いた Terraform コードのモジュール化といったスキルを実証できます。
「Google Cloud ネットワークの構築」コースを修了してスキルバッジを獲得しましょう。このコースでは、 アプリケーションをデプロイしてモニタリングするための複数の方法について学びます。具体的には、IAM ロールの確認とプロジェクト アクセスの追加 / 削除、 VPC ネットワークの作成、Compute Engine VM のデプロイとモニタリング、 SQL クエリの記述、Compute Engine での VM のデプロイとモニタリング、Kubernetes を使用した複数のデプロイ アプローチによるアプリケーションのデプロイなどです。
「Google Cloud におけるアプリ開発環境の設定」コースを完了すると、スキルバッジを獲得できます。このコースでは、 Cloud Storage、Identity and Access Management、Cloud Functions、Pub/Sub のテクノロジーの基本機能を使用して、ストレージ中心のクラウド インフラストラクチャを構築し接続する方法を学びます。
「Compute Engine での Cloud Load Balancing の実装」入門コースを修了してスキルバッジを獲得すると、次のスキルを実証できます: Compute Engine における仮想マシンの作成とデプロイ、 ネットワーク ロードバランサとアプリケーション ロードバランサの構成。
"「Google Kubernetes Engine を使ってみる」コースへようこそ。Kubernetes にご興味をお持ちいただきありがとうございます。Kubernetes は、アプリケーションとハードウェア インフラストラクチャとの間にあるソフトウェア レイヤです。Google Kubernetes Engine は、Google Cloud 上のマネージド サービスとしての Kubernetes を提供します。 このコースでは、Google Kubernetes Engine(一般に GKE と呼ばれています)の基礎と、Google Cloud でアプリケーションをコンテナ化して実行する方法を学びます。このコースでは、まず Google Cloud の基本事項を確認します。続けて、コンテナ、Kubernetes、Kubernetes アーキテクチャ、Kubernetes オペレーションの概要について学びます。"
このオンデマンド速習コースでは、Google Cloud が提供する包括的で柔軟なインフラストラクチャとプラットフォーム サービスについて紹介します。動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの要素について学び、実際にデプロイしてみます。これにはセキュリティを維持しながらネットワークを相互接続する方法や、ロード バランシング、自動スケーリング、インフラストラクチャの自動化、マネージド サービスも含まれます。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してソリューションの各要素について学習し、演習を行います。これらの要素には、ネットワーク、システム、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。また、実践的なソリューションの実装も取り上げ、顧客指定の暗号鍵、セキュリティとアクセス管理、割り当てと課金、リソース モニタリングなどについても学習します。
このオンデマンド速習コースでは、Google Cloud で提供される包括的かつ柔軟なインフラストラクチャとプラットフォームのサービスについて、Compute Engine を中心に紹介します。受講者は、動画講義、デモ、ハンズオンラボを通してさまざまなソリューションの各要素について学習し、実際のデプロイを演習します。これらの要素には、ネットワークや仮想マシン、アプリケーション サービスなどのインフラストラクチャ コンポーネントが含まれます。コンソールと Cloud Shell を使用して Google Cloud を運用する方法についても学習します。また、クラウド アーキテクトの役割、インフラストラクチャ設計の方法、Virtual Private Cloud(VPC)を使用した仮想ネットワークの構成、プロジェクト、ネットワーク、サブネットワーク、IP アドレス、ルート、ファイアウォール ルールについても学習します。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。
このコースでは、Associate Cloud Engineer 認定試験の合格を目指す方が受験の準備を進めることができます。試験範囲に含まれる Google Cloud ドメインの概要と、ドメインに関する知識を高めるための学習計画の作成方法について学習します。