zhalifunas wildy
メンバー加入日: 2021
ダイヤモンド リーグ
26305 ポイント
メンバー加入日: 2021
Earn a skill badge by completing the Build Custom Processors with Document AI course. You learn how to extract data and classify documents by creating custom ML models specific to your business needs. This course teaches the foundation skills of building your own processors, working with optical character recognition, form parsing, processor creation, and uptraining the DocumentAI model.
「安全なソフトウェア デリバリー」の中級スキルバッジを獲得すると、DevSecOps の原則に沿って、ソフトウェア開発ライフサイクル(SDLC) にセキュリティをプロアクティブに統合するスキルを証明できます。 Google Kubernetes Engine(GKE)と Cloud Run を活用して安全なコンテナ イメージのデプロイを行う方法、自動化された脆弱性スキャンを実装してリスクを事前に特定する方法、 Artifact Registry を使用してアプリケーション開発を効率化しながらセキュリティに重点を置く方法を学びます。さらに、堅牢な開発プロセスを実現する Cloud Build の統合スキルや、環境をきめ細かく制御するアドミッション コントロール ポリシーの実装スキルも習得できます。」
Gemini によるマルチモダリティとマルチモーダル RAG を使用したリッチ ドキュメントの検査 スキルバッジを獲得できる中級コースを修了すると、次のスキルを実証できます。 Gemini を使用したマルチモダリティにより、マルチモーダル プロンプトを使用してテキストと視覚データから情報を抽出し、動画の説明を生成して、 動画の範囲を超えた追加情報を取得する。Gemini を使用したマルチモーダル検索拡張生成(RAG)により、テキストと画像を含むドキュ引用を出力する。
「Google Cloud での ML の API の使用 」コースを修了して、上級スキルバッジを獲得しましょう。このコースでは、ML と AI テクノロジーを活用する 3 つの API(Cloud Vision API、Cloud Translation API、Cloud Natural Language API) の基本機能について学習します。
「Document AI を使用して大規模なデータ キャプチャを自動化」コースを修了して、入門レベルのスキルバッジを獲得しましょう。このコースでは、 Document AI を使用してデータを抽出、処理、取得する方法を学びます。
このコースでは、BigQuery の生成 AI タスクで AI / ML モデルを使用する方法をご紹介します。顧客管理を含む実際のユースケースを通して、Gemini モデルを使用してビジネス上の問題を解決するワークフローを学びます。また、理解を深めるために、このコースでは SQL クエリと Python ノートブックの両方を使用したコーディング ソリューションの詳細な手順も提供しています。
「Sensitive Data Protection を使ってみる」コースを修了して初級 スキルバッジを獲得すると、Sensitive Data Protection サービス (Cloud Data Loss Prevention API を含む)を使用して、Google Cloud 上の機密データを検査、秘匿化、匿名化するためのスキルを実証できます。
Vertex AI での ML ソリューションの構築とデプロイ コースを修了して、 中級スキルバッジを獲得しましょう。このコースでは、Google Cloud の Vertex AI プラットフォーム、AutoML、カスタム トレーニング サービスを使用して、 ML モデルのトレーニング、評価、チューニング、説明、デプロイを行う方法を学びます。 このスキルバッジ コースは、データ サイエンティストと ML エンジニアのプロフェッショナルを 対象としています。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキルバッジと 最終評価チャレンジラボを完了し、デジタルバッジを獲得して ネットワークで共有しましょう。
「BigLake データの保護」入門スキルバッジ コースを修了すると、Dataplex 内の IAM、BigQuery、BigLake、 Data Catalog を使用して BigLake テーブルを作成し、保護するスキルを証明できます。
「Vertex AI の Gemini API で生成 AI を使ってみる」の中級スキルバッジを獲得すると、 テキスト生成、画像と動画の分析によるコンテンツ作成の強化、Gemini API 内での関数呼び出し手法の適用といったスキルを実証できます。 Gemini の高度な手法の活用、マルチモーダル コンテンツの生成、AI を活用したプロジェクトの機能拡張を行う方法を学びましょう。
「Google Cloud コンピューティングの基礎」クエストを修了してスキルバッジを獲得しましょう。 クエストでは、Compute Engine を使用して、仮想マシン(VM)、永続ディスク、ウェブサーバーを操作する方法を学習します。
TensorFlow is an open source software library for high performance numerical computation that's great for writing models that can train and run on platforms ranging from your laptop to a fleet of servers in the Cloud to an edge device. This quest takes you beyond the basics of using predefined models and teaches you how to build, train and deploy your own on Google Cloud.
音声関連の API ツールを使用して、音声の合成と文字起こしを行う方法を学ぶ「Cloud Speech API: 3 つの方法」コースを修了して 初級スキルバッジを獲得しましょう。
「Gemini と Streamlit を使用した生成 AI アプリの開発」の中級スキルバッジを獲得すると、 テキストの生成、Python SDK と Gemini API を使用した関数呼び出し、Cloud Run を使用した Streamlit アプリケーションのデプロイといったスキルを実証できます。 ここでは、Gemini にテキスト生成のプロンプトを与えるさまざまな方法を確認し、Cloud Shell を使用して Streamlit アプリケーションのテストとイテレーションを行い、Cloud Run にデプロイされる Docker コンテナとしてパッケージ化します。
「Vertex AI におけるプロンプト設計」スキルバッジを獲得できる入門コースを修了すると、 Vertex AI のプロンプト エンジニアリング、画像分析、マルチモーダル生成手法のスキルを実証できます。効果的なプロンプトを作成する方法、目的どおりの生成 AI 出力を生成する方法、 Gemini モデルを実際のマーケティング シナリオに適用する方法を学びます。
このコースでは、AI のプライバシーと安全性に関する重要なトピックを紹介します。具体的には、Google Cloud プロダクトとオープンソース ツールを使用して AI のプライバシーと安全性の推奨プラクティスを実装するための実践的な方法とツールを検証します。
「Gemini と Imagen を使用した実際の AI アプリケーションの構築」入門スキルバッジを取得して、画像認識、自然言語処理、 Google の強力な Gemini モデルと Imagen モデルを使用した画像生成、Vertex AI プラットフォームへのアプリケーションのデプロイなどのスキルを証明しましょう。
「BigQuery でデータ ウェアハウスを構築する」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。
ビッグデータ、機械学習、科学的データ。完璧な組み合わせといえます。このクエストは上級レベルであり、実際の科学的データセットを使用するユースケースに BigQuery、Dataproc、Tensorflow などの GCP サービスを当てはめ、実践的な演習を行います。「科学的データ処理」では、地震データの分析や衛星画像の集約といったタスクを実践し、ビッグデータと機械学習に関するスキルの強化を図ります。これにより、多岐にわたる科学的分野でさまざまな問題に取り組むことができるようになります。
「BigQuery ML を使用した ML モデルの作成」コースの中級スキルバッジを獲得できるアクティビティを修了すると、 BigQuery ML を使用して ML モデルを作成および評価し、データを予測するスキルを証明できます。
「BigQuery ML を使用した予測モデリング向けのデータ エンジニアリング」のスキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、 Cloud Storage、Dataflow、BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、 BigQuery ML を使用した ML モデルの構築に関するスキルを実証できます。
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
マーケティングデータを洞察し、ダッシュボード構築はいかがでしょう?大規模な分析とモデル構築のために、すべてのデータを1か所にまとめましょう。クエリ方法を学び、また BigQuery を使用しながら、再現性があり、拡張可能、そして価値ある洞察を データ化します。 BigQuery は、Google が完全管理しており、 NoOpsで、低コストの分析データベースです。 BigQuery を使用すれば、管理すべき インフラストラクチャを持たずに、またはデータベース管理者を必要とすることなく、何テラバイトものデータをクエリすることができます。 BigQuery は SQL を使用し、従量制モデルを利用できます。 BigQuery を使用すれば、データ分析に集中でき、意味ある洞察を見い出だすことができます。
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Blockchain and related technologies, such as distributed ledger and distributed apps, are becoming new value drivers and solution priorities in many industries. In this course you will gain hands-on experience with distributed ledger and the exploration of blockchain datasets in Google Cloud. It brings the research and solution work of Google's Allen Day into self-paced labs for you to run and learn directly. Since this course uses advanced SQL in BigQuery, a SQL-in-BigQuery refresher lab is at the start.
「BigQuery のデータから分析情報を引き出す」の入門スキルバッジを獲得すると、 SQL クエリの作成、一般公開テーブルに対するクエリの実行、BigQuery へのサンプルデータの読み込み、BigQuery でのクエリ バリデータを使用した一般的な構文エラーのトラブルシューティング、 BigQuery データへの接続による Looker Studio でのレポート作成といったスキルを実証できます。
In this series of labs you will learn how to use BigQuery to analyze NCAA basketball data with SQL. Build a Machine Learning Model to predict the outcomes of NCAA March Madness basketball tournament games.
「Looker ダッシュボードとレポート用にデータを準備する」スキルバッジを獲得できる入門コースを修了すると、 データのフィルタ、並べ替え、ピボット、異なる Looker Explore から取得した結果の統合、 関数と演算子を使用してデータを分析し可視化するための Looker ダッシュボードとレポートの作成に関するスキルを実証できます。
Data Catalog is deprecated and will be discontinued on January 30, 2026. You can still complete this course if you want to. For steps to transition your Data Catalog users, workloads, and content to Dataplex Catalog, see Transition from Data Catalog to Dataplex Catalog (https://cloud.google.com/dataplex/docs/transition-to-dataplex-catalog). Data Catalog is a fully managed and scalable metadata management service that empowers organizations to quickly discover, understand, and manage all of their data. In this quest you will start small by learning how to search and tag data assets and metadata with Data Catalog. After learning how to build your own tag templates that map to BigQuery table data, you will learn how to build MySQL, PostgreSQL, and SQLServer to Data Catalog Connectors.
「Google Cloud の ML API 用にデータを準備」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。
これは 2 つのクエストから構成されるハンズオンラボの 1 つ目のクエストで、『Data Science on Google Cloud Platform』(著者: Valliappa Lakshmanan、出版元: O'Reilly Media, Inc.)という書籍から抜粋した演習をもとに作成されたものです。1 つ目のクエストでは第 8 章までを扱い、Google Cloud Platform のツールとサービスを使用して、データセットの取り込み、準備、処理、クエリ、探索、可視化に関するあらゆる面について学習することができます。