Patel Dhruvil
メンバー加入日: 2025
シルバーリーグ
3212 ポイント
メンバー加入日: 2025
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
このコースでは、責任ある AI および AI に関する原則のコンセプトを紹介します。AI / ML の実践における公平性とバイアスを特定し、バイアスを軽減するための実践的な手法を取り扱います。具体的には、Google Cloud プロダクトとオープンソース ツールを使用して責任ある AI のベスト プラクティスを実装するための実践的な方法とツールを検証します。
このコースでは、ML の実務担当者に、生成 AI モデルと予測 AI モデルの両方を評価するための重要なツール、手法、ベスト プラクティスを身につけていただきます。モデル評価は、ML システムが本番環境で信頼性が高く、正確で、高性能な結果を確実に提供するための重要な分野です。 参加者は、さまざまな評価指標、方法論のほか、さまざまなモデルタイプやタスクにおけるそれらの適切な適用について理解を深めます。このコースでは、生成 AI モデルによってもたらされる固有の課題に重点を置き、それらの課題に効果的に取り組むための戦略を提供します。参加者は、Google Cloud の Vertex AI プラットフォームを活用して、モデルの選択、最適化、継続的なモニタリングのための堅牢な評価プロセスを実装する方法を学びます。
このコースでは、生成 AI モデルのデプロイと管理において MLOps チームが直面する特有の課題に対処するために必要な知識とツールを提供し、AI チームが MLOps プロセスを合理化して生成 AI プロジェクトを成功させるうえで Vertex AI がどのように役立つかを説明します。
Moving to the cloud creates numerous opportunities to start working in a new way and it empowers the workforce to better collaborate and innovate. But it’s also a big change. Sometimes the success of the change hinges not on the change itself, but on how it’s managed. This course will help people managers to understand some of the key challenges associated with cloud adoption, and provide them with a verified in-the-field framework that will assist them in supporting their teams on the change journey. By addressing the human factor of moving to the cloud, organizations increase their chances of realizing business objectives and investing in their future talent.
This course is for developers interested in learning how to use TPUs for inference—from architecture to deployment, and how to solve common implementation challenges.
This course is designed for developers looking to build an optimized AI inference stack on Google Cloud. Whether you’re working with GPUs or TPUs, you’ll explore the fundamental components of an inference stack, learn design principles for maximizing performance and reliability, and explore practical techniques to take your workloads from 0 to 1.