Teilnehmen Anmelden

Thierno Diallo

Mitglied seit 2025

Gold League

13126 Punkte
Gemini-Modelle in BigQuery nutzen Earned Apr 9, 2026 EDT
Mit Gemini in BigQuery produktiver arbeiten Earned Feb 13, 2026 EST
Data Mesh mit Dataplex aufbauen Earned Feb 3, 2026 EST
Data Warehouse mit BigQuery erstellen Earned Jan 29, 2026 EST
Serverless Data Processing with Dataflow: Operations Earned Jan 27, 2026 EST
Serverless Data Processing with Dataflow: Develop Pipelines Earned Jan 8, 2026 EST
Serverless Data Processing with Dataflow: Foundations Earned Jan 7, 2026 EST
Build Streaming Data Pipelines on Google Cloud Earned Jan 7, 2026 EST
Build Batch Data Pipelines on Google Cloud Earned Dez 23, 2025 EST
Build Data Lakes and Data Warehouses on Google Cloud Earned Dez 8, 2025 EST
Einführung in Data Engineering in Google Cloud Earned Dez 3, 2025 EST
Verantwortungsbewusste Anwendung von KI für Entwickler: Interpretierbarkeit und Transparenz Earned Okt 30, 2025 EDT
Verantwortungsbewusste Anwendung von KI für Entwickler: Fairness und Bias Earned Okt 28, 2025 EDT
Vektorsuche und Einbettungen Earned Okt 24, 2025 EDT
Einführung in Vertex AI Studio Earned Okt 23, 2025 EDT
Modelle zur Bilduntertitelung erstellen Earned Okt 23, 2025 EDT
Transformer-Modelle und BERT-Modell Earned Okt 21, 2025 EDT
Encoder-Decoder-Architektur Earned Okt 21, 2025 EDT
Aufmerksamkeitsmechanismus Earned Okt 15, 2025 EDT
Einstieg in die Bildgenerierung Earned Okt 15, 2025 EDT
Preparing for your Professional Data Engineer Journey Earned Mär 10, 2025 EDT

In diesem Kurs wird gezeigt, wie Sie KI-/ML-Modelle für Aufgaben basierend auf generativer KI in BigQuery verwenden. Anhand eines praktischen Anwendungsfalls zum Customer-Relationship-Management lernen Sie den Workflow zur Lösung eines Geschäftsproblems mit Gemini-Modellen kennen. Zur besseren Nachvollziehbarkeit bietet der Kurs auch eine Schritt-für-Schritt-Anleitung für das Programmieren von Lösungen mithilfe von SQL-Abfragen und Python-Notebooks.

Weitere Informationen

Dieser Kurs behandelt Gemini in BigQuery, eine Suite KI-gesteuerter Funktionen zur Aufbereitung von Daten für die Verwendung in künstlicher Intelligenz. Zu diesen Funktionen gehören explorative Datenanalyse und ‑aufbereitung, Codegenerierung und Fehlerbehebung sowie Workflow-Erkennung und ‑Visualisierung. Durch konzeptionelle Erläuterungen, einen praxisnahen Anwendungsfall und praktische Übungen können Datenexperten mit diesem Kurs ihre Produktivität steigern und die Entwicklungspipeline beschleunigen.

Weitere Informationen

Mit dem Skill-Logo Data Mesh mit Dataplex aufbauen weisen Sie die folgenden Kenntnisse nach: Aufbauen eines Data Mesh mit Dataplex für mehr Datensicherheit, Governance und Discovery in Google Cloud. Sie fördern und testen Ihre Fähigkeiten beim Tagging von Assets, Zuweisen von IAM-Rollen und Bewerten der Datenqualität in Dataplex.

Weitere Informationen

Mit dem Skill-Logo zum Kurs Data Warehouse mit BigQuery erstellen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Daten zusammenführen, um neue Tabellen zu erstellen, Probleme mit Joins lösen, Daten mit Unions anhängen, nach Daten partitionierte Tabellen erstellen und JSON, Arrays sowie Strukturen in BigQuery nutzen.

Weitere Informationen

In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.

Weitere Informationen

In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.

Weitere Informationen

This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.

Weitere Informationen

In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.

Weitere Informationen

In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.

Weitere Informationen

While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.

Weitere Informationen

In diesem Kurs lernen Sie Data Engineering on Google Cloud sowie die Rollen und Verantwortlichkeiten von Data Engineers kennen und sehen, wie diese mit den Angeboten von Google Cloud zusammenhängen. Außerdem erfahren Sie, wie Sie Herausforderungen im Bereich Data Engineering meistern können.

Weitere Informationen

In diesem Kurs werden Konzepte in Bezug auf die Interpretierbarkeit und Transparenz von künstlicher Intelligenz vorgestellt. Sie erfahren, warum die Transparenz der KI für Entwickler-Teams wichtig ist. Dabei lernen Sie praktische Techniken und Tools kennen, mit denen Sie sowohl die Interpretierbarkeit als auch die Transparenz von Daten und KI-Modellen optimieren können.

Weitere Informationen

In diesem Kurs werden Konzepte für die verantwortungsbewusste Anwendung von KI und KI-Grundsätze vorgestellt. Es werden Techniken behandelt, wie Sie Fairness und Verzerrung (Bias) in der Praxis erkennen sowie Verzerrung in KI- und ML-Anwendungen reduzieren können. Dabei lernen Sie, wie Sie mit Google Cloud-Produkten und Open-Source-Tools Best Practices für eine verantwortungsbewusste Anwendung von KI umsetzen.

Weitere Informationen

In diesem Kurs lernen Sie KI-basierte Suchtechnologien, Tools und Anwendungen kennen. Er umfasst folgende Themen: die semantische Suche mithilfe von Vektoreinbettungen, die Hybridsuche, bei der semantische und stichwortbezogene Ansätze kombiniert werden, und Retrieval-Augmented Generation (RAG), die KI-Halluzinationen durch einen fundierten KI-Agenten minimiert. Sie sammeln praktische Erfahrungen mit der Vektorsuche in Vertex AI zum Entwickeln einer intelligenten Suchmaschine.

Weitere Informationen

Dieser Kurs bietet eine Einführung in Vertex AI Studio, ein Tool für die Interaktion mit generativen KI-Modellen sowie das Prototyping von Geschäftsideen und ihre Umsetzung. Anhand eines eindrucksvollen Anwendungsfalls, ansprechender Lektionen und einer praktischen Übung lernen Sie den Lebenszyklus vom Prompt bis zum Produkt kennen und erfahren, wie Sie Vertex AI Studio für multimodale Gemini-Anwendungen, Prompt-Design, Prompt Engineering und Modellabstimmung einsetzen können. Ziel ist es, Ihnen aufzuzeigen, wie Sie das Potenzial von generativer KI in Ihren Projekten mit Vertex AI Studio ausschöpfen.

Weitere Informationen

In diesem Kurs erfahren Sie, wie Sie mithilfe von Deep Learning ein Modell zur Bilduntertitelung erstellen. Sie lernen die verschiedenen Komponenten eines solchen Modells wie den Encoder und Decoder und die Schritte zum Trainieren und Bewerten des Modells kennen. Nach Abschluss dieses Kurses haben Sie folgende Kompetenzen erworben: Erstellen eigener Modelle zur Bilduntertitelung und Verwenden der Modelle zum Generieren von Untertiteln

Weitere Informationen

Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.

Weitere Informationen

Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.

Weitere Informationen

In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.

Weitere Informationen

In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.

Weitere Informationen

This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.

Weitere Informationen