Victor Kinuthia
Mitglied seit 2021
Mitglied seit 2021
„Ihre Organisation mit generativen KI-Agenten voranbringen“ ist der fünfte und letzte Kurs des Lernpfads „Gen AI Leader“. In diesem Kurs erfahren Sie, wie Unternehmen mit benutzerdefinierten generativen KI-Agenten spezifische geschäftliche Herausforderungen meistern können. Sie lernen, wie Sie einen einfachen Agenten für generative KI erstellen, und machen sich mit den Komponenten dieser Agenten vertraut, z. B. mit Modellen, Reasoning Loops und Tools.
„Generative KI-Apps heben Ihre Arbeit auf das nächste Level“ ist der vierte Kurs des Lernpfads „Generative AI Leader“. In diesem Kurs werden die auf generativer KI basierenden Anwendungen von Google vorgestellt, zum Beispiel Gemini für Workspace und NotebookLM. Darin werden Konzepte wie Fundierung, Retrieval-Augmented Generation, das Erstellen effektiver Prompts und das Entwickeln automatisierter Workflows erläutert.
„Die vielfältigen Formen generativer KI“ ist der dritte Kurs des Lernpfads „Generative AI Leader“. Generative KI verändert die Art und Weise, wie wir arbeiten und mit der Welt um uns herum interagieren. Aber wie können Sie als Führungskraft die Möglichkeiten von KI nutzen, um echte Geschäftsergebnisse zu erzielen? In diesem Kurs lernen Sie die verschiedenen Ebenen der Entwicklung von generativen KI-Lösungen, die Angebote von Google Cloud und die Faktoren kennen, die bei der Auswahl einer Lösung zu berücksichtigen sind.
„Generative KI: Grundlegende Konzepte“ ist der zweite Kurs des Lernpfads „Generative AI Leader“. In diesem Kurs lernen Sie die grundlegenden Konzepte der generativen KI kennen. Sie erfahren, wie sich KI, ML und generative KI unterscheiden und wie generative KI geschäftliche Herausforderungen mithilfe verschiedener Datentypen bewältigt. Außerdem erhalten Sie Einblicke in die Strategien von Google Cloud, um die Einschränkungen von Foundation Models zu überwinden, und in die wichtigsten Herausforderungen für eine verantwortungsbewusste und sichere KI-Entwicklung und ‑Bereitstellung.
„Generative KI ist mehr als nur Chatbots“ ist der erste Kurs des Lernpfads „Generative AI Leader“ und hat keine Voraussetzungen. In diesem Kurs geht es nicht nur um die Grundlagen von Chatbots, sondern auch um das wahre Potenzial von generativer KI für Ihr Unternehmen. Sie lernen Konzepte wie Foundation Models und Prompt Engineering kennen, die für die Nutzung der Leistungsfähigkeit von generativer KI entscheidend sind. Außerdem werden wichtige Überlegungen behandelt, die Sie bei der Entwicklung einer erfolgreichen Strategie für generative KI für Ihr Unternehmen berücksichtigen sollten.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Mit dem Skill-Logo Data Mesh mit Dataplex aufbauen weisen Sie die folgenden Kenntnisse nach: Aufbauen eines Data Mesh mit Dataplex für mehr Datensicherheit, Governance und Discovery in Google Cloud. Sie fördern und testen Ihre Fähigkeiten beim Tagging von Assets, Zuweisen von IAM-Rollen und Bewerten der Datenqualität in Dataplex.
Mit dem Skill-Logo zum Kurs Data Warehouse mit BigQuery erstellen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Daten zusammenführen, um neue Tabellen zu erstellen, Probleme mit Joins lösen, Daten mit Unions anhängen, nach Daten partitionierte Tabellen erstellen und JSON, Arrays sowie Strukturen in BigQuery nutzen.
In diesem Kurs wird gezeigt, wie Sie KI-/ML-Modelle für Aufgaben basierend auf generativer KI in BigQuery verwenden. Anhand eines praktischen Anwendungsfalls zum Customer-Relationship-Management lernen Sie den Workflow zur Lösung eines Geschäftsproblems mit Gemini-Modellen kennen. Zur besseren Nachvollziehbarkeit bietet der Kurs auch eine Schritt-für-Schritt-Anleitung für das Programmieren von Lösungen mithilfe von SQL-Abfragen und Python-Notebooks.
Dieser Kurs behandelt Gemini in BigQuery, eine Suite KI-gesteuerter Funktionen zur Aufbereitung von Daten für die Verwendung in künstlicher Intelligenz. Zu diesen Funktionen gehören explorative Datenanalyse und ‑aufbereitung, Codegenerierung und Fehlerbehebung sowie Workflow-Erkennung und ‑Visualisierung. Durch konzeptionelle Erläuterungen, einen praxisnahen Anwendungsfall und praktische Übungen können Datenexperten mit diesem Kurs ihre Produktivität steigern und die Entwicklungspipeline beschleunigen.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
In diesem Kurs lernen Sie Data Engineering on Google Cloud sowie die Rollen und Verantwortlichkeiten von Data Engineers kennen und sehen, wie diese mit den Angeboten von Google Cloud zusammenhängen. Außerdem erfahren Sie, wie Sie Herausforderungen im Bereich Data Engineering meistern können.
This course goes beyond the basics of Looker Studio to explore the powerful features and capabilities of Looker Studio Pro. Learn how to leverage team workspaces for efficient collaboration, enhance data security and administration, and utilize Google Cloud Customer Care for support. Discover premium features that elevate your data visualization and reporting capabilities. This course is designed for users who already have a foundational understanding of Looker Studio and want to unlock its full potential for their business or organization.
MMit dem Skill-Logo zum Kurs Daten für Looker-Dashboards und ‑Berichte vorbereiten weisen Sie Grundkenntnisse in folgenden Bereichen nach: Filtern, Sortieren und Pivotieren von Daten, Zusammenführen der Ergebnisse von verschiedenen Looker-Explores sowie Verwenden von Funktionen und Operatoren zum Erstellen von Looker-Dashboards und ‑Berichten für Analyse und Visualisierung von Daten.
Sie möchten Machine-Learning-Modelle mithilfe von SQL in Minuten statt in Stunden erstellen? BigQuery ML sorgt für eine breite Nutzung von Machine Learning, indem es Datenanalysten ermöglicht, ML-Modelle zu erstellen, zu trainieren und zu bewerten sowie mit den Modellen und vorhandenen SQL-Tools und ‑Fähigkeiten Vorhersagen zu treffen. In dieser Lab-Reihe experimentieren Sie mit verschiedenen Modelltypen und erfahren, was für ein gutes Modell notwendig ist.
This is the first of two Quests of hands-on labs is derived from the exercises from the book Data Science on Google Cloud Platform, 2nd Edition by Valliappa Lakshmanan, published by O'Reilly Media, Inc. In this first Quest, covering up through chapter 8, you are given the opportunity to practice all aspects of ingestion, preparation, processing, querying, exploring and visualizing data sets using Google Cloud tools and services.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
This quest assesses your ability to create and use BigQuery ML machine learning models.
This quest assesses a Data Engineer's ability to build data transformation pipelines using Cloud Data Fusion.
This quest assesses a Data Analyst's ability to use Google Data Studio to build an interactive dashboard that presents aggregated data from multiple BigQuery tables.