Modupe Ajala
Mitglied seit 2023
Silver League
37866 Punkte
Mitglied seit 2023
This structured course is for developers interested in building intelligent agents using the Agent Development Kit (ADK). It combines hands-on experience, core concepts, and practical application, to provide a comprehensive guide to using ADK. You can also join our community of Google Cloud experts and peers to ask questions, collaborate on answers, and connect with the Googlers making the products you use every day.
In diesem Kurs lernen Sie Data Engineering on Google Cloud sowie die Rollen und Verantwortlichkeiten von Data Engineers kennen und sehen, wie diese mit den Angeboten von Google Cloud zusammenhängen. Außerdem erfahren Sie, wie Sie Herausforderungen im Bereich Data Engineering meistern können.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
This course introduces participants to MLOps tools and best practices for deploying, evaluating, monitoring and operating production ML systems on Google Cloud. MLOps is a discipline focused on the deployment, testing, monitoring, and automation of ML systems in production. Machine Learning Engineering professionals use tools for continuous improvement and evaluation of deployed models. They work with (or can be) Data Scientists, who develop models, to enable velocity and rigor in deploying the best performing models.
Dieser Kurs vermittelt Ihnen das Wissen und die nötigen Tools, um die speziellen Herausforderungen zu erkennen, mit denen MLOps-Teams bei der Bereitstellung und Verwaltung von Modellen basierend auf generativer KI konfrontiert sind. Sie erfahren, wie KI-Teams durch Vertex AI dabei unterstützt werden, MLOps-Prozesse zu optimieren und mit Projekten erfolgreich zu sein, in denen generative KI zum Einsatz kommt.
In diesem Kurs wird eine Lösung für Retrieval-Augmented Generation (RAG) in BigQuery vorgestellt, die KI-Halluzinationen minimiert. Sie lernen einen RAG-Workflow kennen, der die Erstellung von Einbettungen, die Suche in einem Vektorraum und die Generierung verbesserter Antworten umfasst. Darüber hinaus werden die konzeptionellen Gründe für diese Schritte und ihre praktische Umsetzung mit BigQuery erklärt. Am Ende des Kurses werden Sie in der Lage sein, eine RAG-Pipeline mithilfe von BigQuery und generativen KI-Modellen wie Gemini zu erstellen und Modelle einzubetten, um KI-Halluzinationen zu verhindern.
In diesem Kurs wird gezeigt, wie Sie KI-/ML-Modelle für Aufgaben basierend auf generativer KI in BigQuery verwenden. Anhand eines praktischen Anwendungsfalls zum Customer-Relationship-Management lernen Sie den Workflow zur Lösung eines Geschäftsproblems mit Gemini-Modellen kennen. Zur besseren Nachvollziehbarkeit bietet der Kurs auch eine Schritt-für-Schritt-Anleitung für das Programmieren von Lösungen mithilfe von SQL-Abfragen und Python-Notebooks.
Dieser Kurs behandelt Gemini in BigQuery, eine Suite KI-gesteuerter Funktionen zur Aufbereitung von Daten für die Verwendung in künstlicher Intelligenz. Zu diesen Funktionen gehören explorative Datenanalyse und ‑aufbereitung, Codegenerierung und Fehlerbehebung sowie Workflow-Erkennung und ‑Visualisierung. Durch konzeptionelle Erläuterungen, einen praxisnahen Anwendungsfall und praktische Übungen können Datenexperten mit diesem Kurs ihre Produktivität steigern und die Entwicklungspipeline beschleunigen.
Mit dem Skill-Logo zum Kurs Data Warehouse mit BigQuery erstellen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Daten zusammenführen, um neue Tabellen zu erstellen, Probleme mit Joins lösen, Daten mit Unions anhängen, nach Daten partitionierte Tabellen erstellen und JSON, Arrays sowie Strukturen in BigQuery nutzen.
In „Google Cloud-Grundlagen: Kerninfrastruktur“ werden wichtige Konzepte und die Terminologie für die Arbeit mit Google Cloud vorgestellt. In Videos und praxisorientierten Labs werden viele Computing- und Speicherdienste von Google Cloud sowie wichtige Tools für die Ressourcen- und Richtlinienverwaltung präsentiert und miteinander verglichen.
This Data Analytics course consists of a series of advanced-level labs designed to validate your proficiency in using Google Cloud services. Each lab presents a set of the required tasks that you must complete with minimal assistance. The labs in this course have replaced the previous L300 Data Analytics Challenge Lab. If you have already completed the Challenge Lab as part of your L300 accreditation requirement, it will be carried over and count towards your L300 status. You must score 80% or higher for each lab to complete this course, and fulfill your CEPF L300 Data Analytics requirement. For technical issues with a Challenge Lab, please raise a Buganizer ticket using this CEPF Buganizer template: go/cepfl300labsupport
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Incorporating machine learning into data pipelines increases the ability to extract insights from data. This course covers ways machine learning can be included in data pipelines on Google Cloud. For little to no customization, this course covers AutoML. For more tailored machine learning capabilities, this course introduces Notebooks and BigQuery machine learning (BigQuery ML). Also, this course covers how to productionalize machine learning solutions by using Vertex AI.
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
This course, Building Resilient Streaming Analytics Systems on Google Cloud - Locales, is intended for non-English learners. If you want to take this course in English, please enroll in Building Resilient Streaming Analytics Systems on Google Cloud. Processing streaming data is becoming increasingly popular as streaming enables businesses to get real-time metrics on business operations. This course covers how to build streaming data pipelines on Google Cloud. Pub/Sub is described for handling incoming streaming data. The course also covers how to apply aggregations and transformations to streaming data using Dataflow, and how to store processed records to BigQuery or Cloud Bigtable for analysis. Learners will get hands-on experience building streaming data pipeline components on Google Cloud using QwikLabs.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.