Li Ken
メンバー加入日: 2022
ゴールドリーグ
8140 ポイント
メンバー加入日: 2022
Demonstrate your ability to implement updated prompt engineering techniques and utilize several of Gemini's key capacilities including multimodal understanding and function calling. Then integrate generative AI into a RAG application deployed to Cloud Run. This course contains labs that are to be used as a test environment. They are deployed to test your understanding as a learner with a limited scope. These technologies can be used with fewer limitations in a real world environment.
This course on Integrate Vertex AI Search and Conversation into Voice and Chat Apps is composed of a set of labs to give you a hands on experience to interacting with new Generative AI technologies. You will learn how to create end-to-end search and conversational experiences by following examples. These technologies complement predefined intent-based chat experiences created in Dialogflow with LLM-based, generative answers that can be based on your own data. Also, they allow you to porvide enterprise-grade search experiences for internal and external websites to search documents, structure data and public websites.
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
Text Prompt Engineering Techniques introduces you to consider different strategic approaches & techniques to deploy when writing prompts for text-based generative AI tasks.
このコースでは、生成 AI モデルとのやりとり、ビジネス アイデアのプロトタイプ作成、本番環境へのリリースを行うツールである Vertex AI Studio をご紹介します。現実感のあるユースケースや、興味深い講義、ハンズオンラボを通して、プロンプトの作成から成果の実現に至るまでのライフサイクルを詳細に学び、Gemini マルチモーダル アプリケーションの開発、プロンプトの設計、モデルのチューニングに Vertex AI を活用する方法を学習します。Vertex AI Studio を利用することで、生成 AI をプロジェクトに最大限に活かせるようになることを目指します。
このコースでは、ディープ ラーニングを使用して画像キャプション生成モデルを作成する方法について学習します。エンコーダやデコーダなどの画像キャプション生成モデルのさまざまなコンポーネントと、モデルをトレーニングして評価する方法を学びます。このコースを修了すると、独自の画像キャプション生成モデルを作成し、それを使用して画像のキャプションを生成できるようになります。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャである Encoder-Decoder アーキテクチャの概要を説明します。Encoder-Decoder アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するための Encoder-Decoder アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
「Introduction to Generative AI」、「Introduction to Large Language Models」、「Introduction to Responsible AI」の各コースを修了すると、スキルバッジを獲得できます。最終テストに合格することで、ジェネレーティブ AI の基礎概念を理解していることが証明されます。 スキルバッジは、Google Cloud のプロダクトとサービスに関する知識を認定するために Google Cloud が発行するデジタルバッジです。スキルバッジは、ソーシャル メディアの公開プロフィールを作成してそこに追加することで一般向けに共有できます。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
「BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。
Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
「Compute Engine での Cloud Load Balancing の実装」入門コースを修了してスキルバッジを獲得すると、次のスキルを実証できます: Compute Engine における仮想マシンの作成とデプロイ、 ネットワーク ロードバランサとアプリケーション ロードバランサの構成。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
このコースでは、ストリーミング データ パイプラインの構築時に直面する実際の問題を解決するために、実践的な演習を行います。ポイントは、Google Cloud プロダクトを使用して、絶えず流れ続けるデータを効果的に管理することです。
この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。
データレイクとデータ ウェアハウスを使用する従来のアプローチは効果的ですが、特に大規模な企業環境においては欠点があります。このコースでは、データ レイクハウスのコンセプトと、データ レイクハウスの作成に使用する Google Cloud プロダクトについて説明します。レイクハウス アーキテクチャは、オープン スタンダードのデータソースを使用し、データレイクとデータ ウェアハウスの優れた機能を組み合わせて、両者の欠点の多くに対処します。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。