Colomer Francisco
メンバー加入日: 2023
ダイヤモンド リーグ
46909 ポイント
メンバー加入日: 2023
In this video, you'll learn to build a working music synthesizer using a simple text prompt in Gemini Canvas. You'll see how to specify controls like waveform, attack, and sustain, and then interact with the generated instrument to create and experiment with your own unique sounds.
「バイブ コーディングと MCP を使用してスマートなクラウド アプリケーションを構築する」コースでは、 Google の AI コーディング アシスタントと MCP サーバーの力を活用する方法を学びます。コースを修了するとスキル バッジを獲得できます。
Complete the Streamline Application Development with Gemini CLI skill badge to demonstrate your proficiency in using the full capabilities of Gemini CLI in application development tasks. You will be tasked with defining multi-step plans, creating a reusable CLI extension, managing context, experimenting with checkpoints and deploying to Cloud Run all from Gemini CLI. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the assessment challenge lab, to receive a skill badge that you can share with your network. When you complete this course, you can earn the badge displayed here and claim it on Credly! Boost your cloud career by showing the world the skills you have developed!
このコースは、Gemini CLI(ターミナル用に開発された、Gemini を搭載した生成 AI エージェント)を活用して、よりスマートに作業したいと考えているアプリ デベロッパーや DevOps エンジニアを対象としています。 このコースでは、Gemini CLI のインストールと構成について説明し、ユースケースとセキュリティのベスト プラクティスを紹介します。コマンド、ツール、MCP サーバー、拡張機能についても説明します。実践型演習では、Gemini CLI のインストールと構成、Gemini CLI を使用したコードの分析とアプリの構築、変更に取り組みます。
Welcome to the "AI Infrastructure: Networking Techniques" course. In this course, you'll learn to leverage Google Cloud's high-bandwidth, low-latency infrastructure to optimize data transfer and communication between all the components of your AI system. By the end, you'll grasp the critical role networking plays across the entire AI pipeline from data ingestion and training to inference and be able to apply best practices to ensure your workloads run at maximum speed.
In this course, you’ll take a comprehensive journey through the storage solutions available on Google Cloud, specifically tailored for AI and high-performance computing (HPC) workloads. You’ll learn how to choose the right storage for each stage of the ML lifecycle. You’ll explore how to optimize for I/O performance during training, manage massive datasets for data preparation, and serve model artifacts with low latency. Through practical examples and demonstrations, you’ll gain the expertise to design robust storage solutions that accelerate your AI innovation.
This course provides a comprehensive guide to deploying, managing, and optimizing AI and high-performance computing (HPC) workloads on Google Cloud. Through a series of lessons and practical demonstrations, you’ll explore diverse deployment strategies, ranging from highly customizable environments using Google Compute Engine (GCE) to managed solutions like Google Kubernetes Engine (GKE). Specifically, you’ll learn how to create clusters and deploy GKE for inference.
Cloud TPU コースへようこそ。このコースでは、さまざまなシナリオにおける TPU の長所と短所を検討し、各種 TPU アクセラレータを比較して最適なものを選択できるようにします。また、AI モデルのパフォーマンスと効率を最大化する戦略を学び、柔軟な ML ワークフローにおける GPU / TPU の相互運用性の重要性について理解を深めます。魅力的なコンテンツと実践的なデモを通じて、TPU を効果的に活用するための方法を段階的に確認していきます。
Curious about the powerful hardware behind AI? This course breaks down performance-optimized AI computers, showing you why they're so important. We'll explore how CPUs, GPUs, and TPUs make AI tasks super fast, what makes each one unique, and how AI software gets the most out of them. By the end, you'll know exactly how to pick the right compute for your AI projects, helping you make smart choices for your AI workkoads.
AI Hypercomputer を使い始めたい方に最適なコースです。AI Hypercomputer の基礎と、それが AI ワークロードで AI を支援する仕組みについて説明します。GPU、TPU、CPU など、ハイパーコンピュータ内の各種コンポーネントについて学び、ニーズに合った適切なデプロイ アプローチを選択する方法を知ることができます。
In this Google DeepMind course you will focus on the training process for machine learning models. You will learn how to spot and mitigate issues when training a model, such as overfitting and underfitting. In practical coding labs, you will implement and evaluate the multilayer perceptron for simple classification tasks. This will provide insights into the mechanics of training a neural network model and the backpropagation algorithm. Research case studies will demonstrate how neural networks power real-world models. Additionally, you will consider the broader social impacts of innovation by looking beyond immediate benefits to anticipate potential risks, safety concerns, and further-reaching societal consequences.
In this Google DeepMind course you will learn how to prepare text data for language models to process. You will investigate the tools and techniques used to prepare, structure, and represent text data for language models, with a focus on tokenization and embeddings. You will be encouraged to think critically about the decisions behind data preparation, and what biases within the data may be introduced into models. You will analyze trade-offs, learn how to work with vectors and matrices, how meaning is represented in language models. Finally, you will practice designing a dataset ethically using the Data Cards process, ensuring transparency, accountability, and respect for community values in AI development.
In this Google DeepMind course, you will learn the fundamentals of language models and gain a high-level understanding of the machine learning development pipeline. You will consider the strengths and limitations of traditional n-gram models and advanced transformer models. Practical coding labs will enable you to develop insights into how machine learning models work and how they can be used to generate text and identify patterns in language. Through real-world case studies, you will build an understanding around how research engineers operate. Drawing on these insights you will identify problems that you wish to tackle in your own community and consider how to leverage the power of machine learning responsibly to address these problems within a global and local context.
The course aims to train Google technical sales partners on the business value discovery process using proprietary content. Course activities use an external tool (Yoodli). Refer to Yoodli's Terms of Service and Privacy Notice.
Want to learn more about Google Cloud? Grow your Google Cloud knowledge, strengthen your skills to win with customers, and scale your Google Cloud business. Find it here in one handy location.
This course enables system integrators and partners to understand the principles of automated migrations, plan legacy system migrations to Google Cloud leveraging G4 Platform, and execute a trial code conversion.
「AlloyDB インスタンスの作成と管理」スキルバッジを獲得できる入門コースを修了すると、次のスキルを身につけていることを実証できます。AlloyDB の主なオペレーションと タスクを実行する、PostgreSQL から AlloyDB に移行する、AlloyDB データベースを管理する、 AlloyDB カラム型エンジンを使用して分析クエリを高速化する。
「Bigtable インスタンスの作成と管理」入門コースを修了してスキルバッジを獲得すると、インスタンスの作成、スキーマの設計、 データのクエリ、Bigtable での管理タスク実行(パフォーマンスのモニタリング、ノードの自動スケーリングとレプリケーションの構成など)のスキルを実証できます。
「Cloud Spanner インスタンスの作成と管理」スキルバッジを 獲得できる入門コースを修了すると、 Cloud Spanner のインスタンスとデータベースの作成と操作、 さまざまな手法による Cloud Spanner データベースの読み込み、 Cloud Spanner データベースのバックアップ、スキーマの定義、クエリプランの理解、 Cloud Spanner インスタンスに接続された最新ウェブアプリのデプロイといったスキルを実証できます。
「Cloud SQL for PostgreSQL インスタンスの作成と管理」入門スキルバッジ コースを完了すると、 Cloud SQL for PostgreSQL インスタンスとデータベースを移行、構成、管理するスキルを証明できます。
このコースでは、生成 AI モデルとのやりとり、ビジネス アイデアのプロトタイプ作成、本番環境へのリリースを行うツールである Vertex AI Studio をご紹介します。現実感のあるユースケースや、興味深い講義、ハンズオンラボを通して、プロンプトの作成から成果の実現に至るまでのライフサイクルを詳細に学び、Gemini マルチモーダル アプリケーションの開発、プロンプトの設計、モデルのチューニングに Vertex AI を活用する方法を学習します。Vertex AI Studio を利用することで、生成 AI をプロジェクトに最大限に活かせるようになることを目指します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
This course introduces you to the world of reliable deep learning, a critical discipline focused on developing machine learning models that not only make accurate predictions but also understand and communicate their own uncertainty. You'll learn how to create AI systems that are trustworthy, robust, and adaptable, particularly in high-stakes scenarios where errors can have significant consequences.
「Database Migration Service を使用した MySQL データの Cloud SQL への移行」入門スキルバッジ コースを完了すると、 Database Migration Service で利用可能なさまざまなジョブタイプと接続オプションを使用した、 MySQL データの Cloud SQL への移行や、 Database Migration Service ジョブを実行する際の MySQL ユーザーデータの移行などのスキルを証明できます。
This course is intended to give architects, engineers, and developers the skills required to help enterprise customers architect, plan, execute, and test database migration projects. Through a combination of presentations, demos, and hands-on labs participants move databases to Google Cloud while taking advantage of various services. This course covers how to move on-premises, enterprise databases like SQL Server to Google Cloud (Compute Engine and Cloud SQL) and Oracle to Google Cloud bare metal.
このコースでは、Google Cloud でアプリケーションを効果的に開発するために、ニーズに適したデータベースを分析して選択する方法を学びます。リレーショナル データベースと NoSQL データベースについて理解し、Cloud SQL、AlloyDB、Spanner の知識を深めて、データベースの強みを生成 AI などのアプリケーションの要件に合わせる方法を学びます。また、Vector Search の構成とアプリケーションのクラウド移行の実践的な経験を積むことができます。
Google Cloud の基礎: コア インストラクチャ では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。
このコースでは、ML ワークフローに対する実践的なアプローチを取り上げます。具体的には、いくつかの ML のビジネス要件とユースケースに取り組む ML チームをケーススタディ形式で紹介します。このチームは、データ マネジメントとガバナンスに必要なツールを理解し、データの前処理に最適なアプローチを検討する必要があります。 2 つのユースケースに対して ML モデルを構築するための 3 つのオプションがチームに提示されます。このコースでは、チームの目標を達成するために、AutoML、BigQuery ML、カスタム トレーニングを使用する理由について説明します。
Google Cloud で機械学習を実装する際のベスト プラクティスには何があるでしょうか。Vertex AI とは何であり、このプラットフォームを使用してコードを 1 行も記述せずに AutoML 機械学習モデルを迅速に構築、トレーニング、デプロイするにはどうすればよいでしょうか。機械学習とはどのようなもので、どのような問題の解決に役立つのでしょうか。 Google では機械学習について独自の視点で考えています。マネージド データセット、特徴量ストア、そしてコードを 1 行も記述せずに迅速に機械学習モデルを構築、トレーニング、デプロイする手段を 1 つにまとめた統合プラットフォームを提供するとともに、データにラベル付けし、TensorFlow、SciKit Learn、Pytorch、R やその他のフレームワークを使用して Workbench ノートブックを作成できるようにすることが、Google の考える機械学習の在り方です。Google の Vertex AI プラットフォームでは、カスタムモデルをトレーニングしたり、コンポーネント パイプラインを構築したりすることもできます。さらに、オンライン予測とバッチ予測の両方を実施できます。このコースでは、候補となるユースケースを機械学習で学習できる形に変換する 5 つのフェーズについても説明し、これらのフェーズを省略しないことが重要である理由について論じます。最後に、機械学習によって増幅される可能性のあるバイアスの認識と、それを識別する方法について説明します。
「BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。
Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
この中級コースでは、Google Cloud で堅牢なバッチデータ パイプラインを設計、構築、最適化する方法を学習します。基本的なデータ処理から一歩進んで、大規模なデータ変換と効率的なワークフロー オーケストレーションを確認します。この内容は、タイムリーなビジネス インテリジェンスと重要なレポートの作成に不可欠です。 実装に Apache Beam 用の Dataflow と Apache Spark 向け Serverless(Dataproc Serverless)を使用する実践的な演習を行い、パイプラインの信頼性の確保と効果的な運用を実現するために、データの品質、モニタリング、アラートに関する重要な考慮事項に対処します。データ ウェアハウジング、ETL / ELT、SQL、Python、Google Cloud のコンセプトに関する基本的な知識があることが推奨されます。
このコースでは、ストリーミング データ パイプラインの構築時に直面する実際の問題を解決するために、実践的な演習を行います。ポイントは、Google Cloud プロダクトを使用して、絶えず流れ続けるデータを効果的に管理することです。
データレイクとデータ ウェアハウスを使用する従来のアプローチは効果的ですが、特に大規模な企業環境においては欠点があります。このコースでは、データ レイクハウスのコンセプトと、データ レイクハウスの作成に使用する Google Cloud プロダクトについて説明します。レイクハウス アーキテクチャは、オープン スタンダードのデータソースを使用し、データレイクとデータ ウェアハウスの優れた機能を組み合わせて、両者の欠点の多くに対処します。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。