Markos Muche
Mitglied seit 2022
Gold League
73775 Punkte
Mitglied seit 2022
Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.
Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.
In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.
In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.
In diesem Anfängerkurs erhalten Sie Informationen über den Datenanalyse-Workflow in Google Cloud. Außerdem werden Ihnen die verfügbaren Tools zum Auswerten, Analysieren und Visualisieren von Daten sowie zur Freigabe Ihrer gewonnenen Erkenntnisse an Stakeholder vorgestellt. Anhand einer Fallstudie sowie von praxisorientierten Labs, Vorlesungen und Quizzen/Demos zeigt der Kurs, wie Rohdaten bereinigt und daraus wirkungsvolle Visualisierungen und Dashboards erstellt werden. Ganz gleich, ob Sie bereits mit Daten arbeiten und erfahren möchten, wie Sie in Google Cloud erfolgreich sein können, oder ob Sie sich beruflich weiterbilden möchten – dieser Kurs erleichtert Ihnen den Einstieg. Fast jeder, der bei seiner Arbeit Datenanalysen ausführt oder verwendet, kann von diesem Kurs profitieren.
Mit dem Skill-Logo Data Mesh mit Dataplex aufbauen weisen Sie die folgenden Kenntnisse nach: Aufbauen eines Data Mesh mit Dataplex für mehr Datensicherheit, Governance und Discovery in Google Cloud. Sie fördern und testen Ihre Fähigkeiten beim Tagging von Assets, Zuweisen von IAM-Rollen und Bewerten der Datenqualität in Dataplex.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Enterprise data sharing made easy with Dataplex and Analytics Hub Learn how to share data securely in your lakehouse with minimized data duplication and more data governance through Dataplex and Analytics Hub - enterprise data management made easy. Creating Data Pipelines with Data Fusion In this session, we will explore using Data Fusion to create code-free point and click pipelines that can ETL high-volumes of data with support for popular data sources, including file systems and object stores, relational and NoSQL databases, and SaaS systems.
The third course in this course series is Achieving Advanced Insights with BigQuery. Here we will build on your growing knowledge of SQL as we dive into advanced functions and how to break apart a complex query into manageable steps. We will cover the internal architecture of BigQuery (column-based sharded storage) and advanced SQL topics like nested and repeated fields through the use of Arrays and Structs. Lastly we will dive into optimizing your queries for performance and how you can secure your data through authorized views. After completing this course, enroll in the Applying Machine Learning to your Data with Google Cloud course.
This course covers BigQuery fundamentals for professionals who are familiar with SQL-based cloud data warehouses in Redshift and want to begin working in BigQuery. Through interactive lecture content and hands-on labs, you learn how to provision resources, create and share data assets, ingest data, and optimize query performance in BigQuery. Drawing upon your knowledge of Redshift, you also learn about similarities and differences between Redshift and BigQuery to help you get started with data warehouses in BigQuery. After this course, you can continue your BigQuery journey by completing the skill badge quest titled Build and Optimize Data Warehouses with BigQuery.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Mit dem Skill-Logo zum Kurs Daten für die Vorhersagemodellierung mit BigQuery ML vorbereiten weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Erstellen von Pipelines für die Datentransformation nach BigQuery mithilfe von Dataprep von Trifacta; Extrahieren, Transformieren und Laden (ETL) von Workflows mit Cloud Storage, Dataflow und BigQuery; und Erstellen von Machine-Learning-Modellen mithilfe von BigQuery ML.
Mit dem Skill-Logo zum Kurs Data Warehouse mit BigQuery erstellen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Daten zusammenführen, um neue Tabellen zu erstellen, Probleme mit Joins lösen, Daten mit Unions anhängen, nach Daten partitionierte Tabellen erstellen und JSON, Arrays sowie Strukturen in BigQuery nutzen.
Mit dem Skill-Logo zum Kurs Daten für ML-APIs in Google Cloud vorbereiten weisen Sie Grundkenntnisse in folgenden Bereichen nach: Bereinigen von Daten mit Dataprep von Trifacta, Ausführen von Datenpipelines in Dataflow, Erstellen von Clustern und Ausführen von Apache Spark-Jobs in Dataproc sowie Aufrufen von ML-APIs, einschließlich der Cloud Natural Language API, Cloud Speech-to-Text API und Video Intelligence API.
Incorporating machine learning into data pipelines increases the ability to extract insights from data. This course covers ways machine learning can be included in data pipelines on Google Cloud. For little to no customization, this course covers AutoML. For more tailored machine learning capabilities, this course introduces Notebooks and BigQuery machine learning (BigQuery ML). Also, this course covers how to productionalize machine learning solutions by using Vertex AI.
In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
Erhalten Sie ein Skill-Logo, indem Sie den Kurs Google Cloud-Netzwerk einrichten abschließen. Dabei lernen Sie, wie Sie grundlegende Netzwerkaufgaben in Google Cloud ausführen. Sie richten ein benutzerdefiniertes Netzwerk ein, fügen Firewallregeln für Subnetze hinzu, erstellen VMs und testen dann die Latenz bei der Kommunikation zwischen den VMs.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
This course helps learners create a study plan for the PCA (Professional Cloud Architect) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Willkommen beim Kurs „Erste Schritte mit der Google Kubernetes Engine“. Sie interessieren sich für Kubernetes, eine Software-Ebene, die sich zwischen Ihren Anwendungen und der Hardwareinfrastruktur befindet? Dann sind Sie hier genau richtig! Die Google Kubernetes Engine bietet Ihnen Kubernetes als verwalteten Dienst in Google Cloud. In diesem Kurs lernen Sie die Grundlagen der Google Kubernetes Engine (GKE) kennen und erfahren, wie Sie Anwendungen containerisieren und in Google Cloud ausführen. Er beginnt mit einer Einführung in Google Cloud, gefolgt von einem Überblick über Container und Kubernetes, die Kubernetes-Architektur sowie Kubernetes-Vorgänge.
This course equips students to build highly reliable and efficient solutions on Google Cloud using proven design patterns. It is a continuation of the Architecting with Google Compute Engine or Architecting with Google Kubernetes Engine courses and assumes hands-on experience with the technologies covered in either of those courses. Through a combination of presentations, design activities, and hands-on labs, participants learn to define and balance business and technical requirements to design Google Cloud deployments that are highly reliable, highly available, secure, and cost-effective.
Dieser On-Demand-Intensivkurs bietet Teilnehmenden eine Einführung in die umfangreiche und flexible Infrastruktur und die Plattformdienste von Google Cloud, mit Schwerpunkt auf der Compute Engine. In Videovorträgen, Demos und praxisorientierten Labs lernen die Teilnehmenden Lösungselemente kennen und stellen sie dann bereit. Dazu gehören Infrastrukturkomponenten wie Netzwerke, Systeme und Anwendungsdienste. Außerdem werden praktische Lösungen vorgestellt, beispielsweise für von Kundinnen und Kunden bereitgestellte Verschlüsselungsschlüssel, die Sicherheits- und Zugriffsverwaltung, Kontingente und Abrechnung sowie das Ressourcenmonitoring.
Dieser On-Demand-Intensivkurs bietet Teilnehmenden eine Einführung in die umfangreiche und flexible Infrastruktur und die Plattformdienste von Google Cloud, mit Schwerpunkt auf der Compute Engine. In Videovorträgen, Demos und praxisorientierten Labs lernen Sie Lösungselemente kennen und stellen sie bereit. Dazu gehören Infrastrukturkomponenten wie Netzwerke, virtuelle Maschinen (VMs) und Anwendungsdienste. Darüber hinaus erfahren Sie, wie Sie über die Console und Cloud Shell mit Google Cloud arbeiten. Außerdem lernen Sie mehr über die Aufgaben eines Cloud Architects, über verschiedene Arten von Infrastrukturdesign und über die Konfiguration virtueller Netzwerke mithilfe von Virtual Private Cloud (VPC), Projekten, Netzwerken, Subnetzwerken, IP-Adressen, Routes und Firewallregeln.
In „Google Cloud-Grundlagen: Kerninfrastruktur“ werden wichtige Konzepte und die Terminologie für die Arbeit mit Google Cloud vorgestellt. In Videos und praxisorientierten Labs werden viele Computing- und Speicherdienste von Google Cloud sowie wichtige Tools für die Ressourcen- und Richtlinienverwaltung präsentiert und miteinander verglichen.
This course offers hands-on practice with migrating MySQL data to Cloud SQL using Database Migration Service. You start with an introductory lab that briefly reviews how to get started with Cloud SQL for MySQL, including how to connect to Cloud SQL instances using the Cloud Console. Then, you continue with two labs focused on migrating MySQL databases to Cloud SQL using different job types and connectivity options available in Database Migration Service. The course ends with a lab on migrating MySQL user data when running Database Migration Service jobs.
Mit dem Skill-Logo Infrastruktur mit Terraform in Google Cloud erstellen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Grundsätze von Infrastruktur als Code (IaC) unter Verwendung von Terraform, Bereitstellen und Verwalten von Google Cloud-Ressourcen mit Terraform-Konfigurationen, effektives Statusmanagement (lokal und remote) und die Modularisierung von Terraform-Code für Wiederverwendbarkeit und Organisation.
Erhalten Sie ein Skill-Logo, indem Sie den Kurs Google Cloud-Netzwerk entwickeln abschließen. Dabei wird anhand verschiedener Aufgaben behandelt, wie Sie Anwendungen bereitstellen und beobachten, darunter: IAM-Rollen prüfen, den Zugriff auf Projekte ermöglichen/entfernen, VPC-Netzwerke erstellen, Compute Engine-VMs bereitstellen und beobachten, SQL-Abfragen schreiben, VMs in der Compute Engine bereitstellen und beobachten sowie Anwendungen mithilfe von Kubernetes und mehreren Deploymentmodellen bereitstellen.
In diesem Kurs lernen Sie die KI- und ML-Funktionen von Google Cloud kennen. Der Schwerpunkt liegt auf der Entwicklung von Projekten mit generativer und prädiktiver KI. Dabei werden die verschiedenen Technologien, Produkte und Tools vorgestellt, die für den gesamten Lebenszyklus der Datenaufbereitung für KI verfügbar sind. Data Scientists, KI-Entwickler*innen und ML-Engineers können ihr Fachwissen durch interaktive Übungen erweitern.
Erhalten Sie ein Skill-Logo, indem Sie den Kurs „Umgebung für die Anwendungsentwicklung in Google Cloud einrichten“ abschließen. Dabei lernen Sie, wie Sie eine speicherorientierte Cloud-Infrastruktur mithilfe der grundlegenden Funktionen der folgenden Technologien erstellen und verbinden: Cloud Storage, Identity and Access Management, Cloud Functions und Pub/Sub.
Mit dem Skill-Logo zum Kurs Cloud Load Balancing in der Compute Engine implementieren weisen Sie Kenntnisse in folgenden Bereichen nach: virtuelle Maschinen in der Compute Engine erstellen und bereitstellen und Netzwerk- und Application Load Balancer konfigurieren.
In diesem Einführungskurs erhalten Sie praktische Fertigkeiten im Umgang mit den grundlegenden Tools und Services der Google Cloud. Ihnen werden optionale Videos bereitgestellt, in denen Sie sich weitergehend über die in den Labs behandelten Konzepte informieren können, so oft Sie möchten. „Google Cloud Essentials“ ist ein empfohlener erster Kurs für Google Cloud-Lernende. Selbst wenn Sie vor diesem Kurs wenig bis gar nichts über die Cloud gewusst haben, verfügen Sie danach über praktische Erfahrungen, die Sie in Ihrem ersten Google Cloud-Projekt anwenden können. Vom Schreiben von Cloud Shell- Befehlen und dem Bereitstellen Ihrer ersten virtuellen Maschine bis hin zum Ausführen von Anwendungen auf Kubernetes Engine oder mit Load-Balancing – Google Cloud Essentials ist eine erstklassige Einführung in die grundlegenden Funktionen der Plattform.