Martin Frey
Mitglied seit 2023
Mitglied seit 2023
Mit dem Skill-Logo zum Kurs Data Warehouse mit BigQuery erstellen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Daten zusammenführen, um neue Tabellen zu erstellen, Probleme mit Joins lösen, Daten mit Unions anhängen, nach Daten partitionierte Tabellen erstellen und JSON, Arrays sowie Strukturen in BigQuery nutzen.
In diesem Kurs erfahren Sie, wie Sie mithilfe von Deep Learning ein Modell zur Bilduntertitelung erstellen. Sie lernen die verschiedenen Komponenten eines solchen Modells wie den Encoder und Decoder und die Schritte zum Trainieren und Bewerten des Modells kennen. Nach Abschluss dieses Kurses haben Sie folgende Kompetenzen erworben: Erstellen eigener Modelle zur Bilduntertitelung und Verwenden der Modelle zum Generieren von Untertiteln
Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.
Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.
In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.
In diesem Einführungskurs im Microlearning-Format wird erklärt, was generative KI ist, wie sie genutzt wird und wie sie sich von herkömmlichen Methoden für Machine Learning unterscheidet. Darüber hinaus werden Tools von Google behandelt, mit denen Sie eigene Anwendungen basierend auf generativer KI entwickeln können.
Dieser Kurs vermittelt Ihnen das Wissen und die nötigen Tools, um die speziellen Herausforderungen zu erkennen, mit denen MLOps-Teams bei der Bereitstellung und Verwaltung von Modellen basierend auf generativer KI konfrontiert sind. Sie erfahren, wie KI-Teams durch Vertex AI dabei unterstützt werden, MLOps-Prozesse zu optimieren und mit Projekten erfolgreich zu sein, in denen generative KI zum Einsatz kommt.
„Ihre Organisation mit generativen KI-Agenten voranbringen“ ist der fünfte und letzte Kurs des Lernpfads „Gen AI Leader“. In diesem Kurs erfahren Sie, wie Unternehmen mit benutzerdefinierten generativen KI-Agenten spezifische geschäftliche Herausforderungen meistern können. Sie lernen, wie Sie einen einfachen Agenten für generative KI erstellen, und machen sich mit den Komponenten dieser Agenten vertraut, z. B. mit Modellen, Reasoning Loops und Tools.
„Generative KI-Apps heben Ihre Arbeit auf das nächste Level“ ist der vierte Kurs des Lernpfads „Generative AI Leader“. In diesem Kurs werden die auf generativer KI basierenden Anwendungen von Google vorgestellt, zum Beispiel Gemini für Workspace und NotebookLM. Darin werden Konzepte wie Fundierung, Retrieval-Augmented Generation, das Erstellen effektiver Prompts und das Entwickeln automatisierter Workflows erläutert.
„Die vielfältigen Formen generativer KI“ ist der dritte Kurs des Lernpfads „Generative AI Leader“. Generative KI verändert die Art und Weise, wie wir arbeiten und mit der Welt um uns herum interagieren. Aber wie können Sie als Führungskraft die Möglichkeiten von KI nutzen, um echte Geschäftsergebnisse zu erzielen? In diesem Kurs lernen Sie die verschiedenen Ebenen der Entwicklung von generativen KI-Lösungen, die Angebote von Google Cloud und die Faktoren kennen, die bei der Auswahl einer Lösung zu berücksichtigen sind.
„Generative KI: Grundlegende Konzepte“ ist der zweite Kurs des Lernpfads „Generative AI Leader“. In diesem Kurs lernen Sie die grundlegenden Konzepte der generativen KI kennen. Sie erfahren, wie sich KI, ML und generative KI unterscheiden und wie generative KI geschäftliche Herausforderungen mithilfe verschiedener Datentypen bewältigt. Außerdem erhalten Sie Einblicke in die Strategien von Google Cloud, um die Einschränkungen von Foundation Models zu überwinden, und in die wichtigsten Herausforderungen für eine verantwortungsbewusste und sichere KI-Entwicklung und ‑Bereitstellung.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
„Generative KI ist mehr als nur Chatbots“ ist der erste Kurs des Lernpfads „Generative AI Leader“ und hat keine Voraussetzungen. In diesem Kurs geht es nicht nur um die Grundlagen von Chatbots, sondern auch um das wahre Potenzial von generativer KI für Ihr Unternehmen. Sie lernen Konzepte wie Foundation Models und Prompt Engineering kennen, die für die Nutzung der Leistungsfähigkeit von generativer KI entscheidend sind. Außerdem werden wichtige Überlegungen behandelt, die Sie bei der Entwicklung einer erfolgreichen Strategie für generative KI für Ihr Unternehmen berücksichtigen sollten.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
In diesem Kurs lernen Sie Data Engineering on Google Cloud sowie die Rollen und Verantwortlichkeiten von Data Engineers kennen und sehen, wie diese mit den Angeboten von Google Cloud zusammenhängen. Außerdem erfahren Sie, wie Sie Herausforderungen im Bereich Data Engineering meistern können.