Ruqiya Bin Safi
Mitglied seit 2019
Silver League
4650 Punkte
Mitglied seit 2019
Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.
In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.
Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.
In diesem Einführungskurs im Microlearning-Format wird erklärt, was verantwortungsbewusste Anwendung von KI bedeutet, warum sie wichtig ist und wie Google dies in seinen Produkten berücksichtigt. Darüber hinaus werden die 7 KI-Grundsätze von Google behandelt.
In diesem Einführungskurs im Microlearning-Format wird untersucht, was Large Language Models (LLM) sind, für welche Anwendungsfälle sie genutzt werden können und wie die LLM-Leistung durch Feinabstimmung von Prompts gesteigert werden kann. Darüber hinaus werden Tools von Google behandelt, die das Entwickeln eigener Anwendungen basierend auf generativer KI ermöglichen.
Welcome Gamers! Learn the fundamentals of BQML, all while having fun! In this game, you will learn to use the python-based command line tool for BigQuery. The hands-on labs will help you create a machine learning model, a classification model, and a forecasting model. Earn the points by completing the steps in the lab... Be sure to click "End" when you're done with each lab to get the maximum points. All players will be awarded the game badge.
In diesem Einführungskurs im Microlearning-Format wird erklärt, was generative KI ist, wie sie genutzt wird und wie sie sich von herkömmlichen Methoden für Machine Learning unterscheidet. Darüber hinaus werden Tools von Google behandelt, mit denen Sie eigene Anwendungen basierend auf generativer KI entwickeln können.
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Incorporating machine learning into data pipelines increases the ability to extract insights from data. This course covers ways machine learning can be included in data pipelines on Google Cloud. For little to no customization, this course covers AutoML. For more tailored machine learning capabilities, this course introduces Notebooks and BigQuery machine learning (BigQuery ML). Also, this course covers how to productionalize machine learning solutions by using Vertex AI.
In this course you will get hands-on in order to work through real-world challenges faced when building streaming data pipelines. The primary focus is on managing continuous, unbounded data with Google Cloud products.
Mit dem Skill-Logo zum Kurs Daten für die Vorhersagemodellierung mit BigQuery ML vorbereiten weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Erstellen von Pipelines für die Datentransformation nach BigQuery mithilfe von Dataprep von Trifacta; Extrahieren, Transformieren und Laden (ETL) von Workflows mit Cloud Storage, Dataflow und BigQuery; und Erstellen von Machine-Learning-Modellen mithilfe von BigQuery ML.
In this intermediate course, you will learn to design, build, and optimize robust batch data pipelines on Google Cloud. Moving beyond fundamental data handling, you will explore large-scale data transformations and efficient workflow orchestration, essential for timely business intelligence and critical reporting. Get hands-on practice using Dataflow for Apache Beam and Serverless for Apache Spark (Dataproc Serverless) for implementation, and tackle crucial considerations for data quality, monitoring, and alerting to ensure pipeline reliability and operational excellence. A basic knowledge of data warehousing, ETL/ELT, SQL, Python, and Google Cloud concepts is recommended.
Mit dem Skill-Logo zum Kurs Data Warehouse mit BigQuery erstellen weisen Sie fortgeschrittene Kenntnisse in folgenden Bereichen nach: Daten zusammenführen, um neue Tabellen zu erstellen, Probleme mit Joins lösen, Daten mit Unions anhängen, nach Daten partitionierte Tabellen erstellen und JSON, Arrays sowie Strukturen in BigQuery nutzen.
Mit dem Skill-Logo zum Kurs Daten für ML-APIs in Google Cloud vorbereiten weisen Sie Grundkenntnisse in folgenden Bereichen nach: Bereinigen von Daten mit Dataprep von Trifacta, Ausführen von Datenpipelines in Dataflow, Erstellen von Clustern und Ausführen von Apache Spark-Jobs in Dataproc sowie Aufrufen von ML-APIs, einschließlich der Cloud Natural Language API, Cloud Speech-to-Text API und Video Intelligence API.
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.
While the traditional approaches of using data lakes and data warehouses can be effective, they have shortcomings, particularly in large enterprise environments. This course introduces the concept of a data lakehouse and the Google Cloud products used to create one. A lakehouse architecture uses open-standard data sources and combines the best features of data lakes and data warehouses, which addresses many of their shortcomings.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
In this quest you will use several tools available in Google Cloud to manipulate data and create a Google Map - map location details to find subway stations or a business; use geocoding and Apps Script to send an email of a map; visualize data on a customized map; and build a server-side proxy to create a map on a mobile device.
Workspace is Google's collaborative applications platform, delivered from Google Cloud. In this introductory-level course you will get hands-on practice with Workspace’s core applications from a user perspective. Although there are many more applications and tool components to Workspace than are covered here, you will get experience with the primary apps: Gmail, Calendar, Sheets and a handful of others. Each lab can be completed in 10-15 minutes, but extra time is provided to allow self-directed free exploration of the applications.
Machine Learning is one of the most innovative fields in technology, and the Google Cloud Platform has been instrumental in furthering its development. With a host of APIs, Google Cloud has a tool for just about any machine learning job. In this advanced-level course, you will get hands-on practice with machine learning at scale and how to employ the advanced ML infrastructure available on Google Cloud.
TensorFlow is an open source software library for high performance numerical computation that's great for writing models that can train and run on platforms ranging from your laptop to a fleet of servers in the Cloud to an edge device. This quest takes you beyond the basics of using predefined models and teaches you how to build, train and deploy your own on Google Cloud.
Machine Learning gehört zu den am schnellsten wachsenden Technologiefeldern – und Google Cloud hat zu dessen Weiterentwicklung maßgeblich beigetragen. Dank zahlreicher APIs bietet Google Cloud ein Tool für nahezu jede Aufgabe im Bereich des maschinellen Lernens. In diesem Kurs für Einsteiger können Sie praktische Erfahrungen mit Machine Learning hinsichtlich der Sprachverarbeitung sammeln. Sie absolvieren Labs, in denen Sie Entitäten aus Text extrahieren, Sentiment- und Syntaxanalysen durchführen und die Speech-to-Text API für Transkriptionen verwenden.
Using large scale computing power to recognize patterns and "read" images is one of the foundational technologies in AI, from self-driving cars to facial recognition. The Google Cloud Platform provides world class speed and accuracy via systems that can utilized by simply calling APIs. With these and a host of other APIs, GCP has a tool for just about any machine learning job. In this introductory quest, you will get hands-on practice with machine learning as it applies to image processing by taking labs that will enable you to label images, detect faces and landmarks, as well as extract, analyze, and translate text from within images.
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
Big Data, Machine Learning und künstliche Intelligenz sind heutzutage sehr wichtige Themen. Diese Technologiefelder bringen jedoch sehr spezielle Anforderungen mit sich und es ist schwierig, einführende Materialien dafür zu finden. Google Cloud bietet nutzerfreundliche Dienste in diesen Bereichen an, die in diesem Kurs für Einsteiger behandelt werden. Verschaffen Sie sich Einblicke in die Nutzung von Tools wie BigQuery, der Cloud Speech API und Video Intelligence.
It's no secret that machine learning is one of the fastest growing fields in tech, and Google Cloud has been instrumental in furthering its development. With a host of APIs, Google Cloud has a tool for just about any machine learning job. In this advanced-level course, you will get hands-on practice with machine learning APIs by taking labs like Detect Labels, Faces, and Landmarks in Images with the Cloud Vision API. Looking for a hands-on challenge lab to demonstrate your skills and validate your knowledge? Enroll in and finish the additional challenge lab at the end of this quest to receive an exclusive Google Cloud digital badge.
In diesem Einführungskurs erhalten Sie praktische Fertigkeiten im Umgang mit den grundlegenden Tools und Services der Google Cloud. Ihnen werden optionale Videos bereitgestellt, in denen Sie sich weitergehend über die in den Labs behandelten Konzepte informieren können, so oft Sie möchten. „Google Cloud Essentials“ ist ein empfohlener erster Kurs für Google Cloud-Lernende. Selbst wenn Sie vor diesem Kurs wenig bis gar nichts über die Cloud gewusst haben, verfügen Sie danach über praktische Erfahrungen, die Sie in Ihrem ersten Google Cloud-Projekt anwenden können. Vom Schreiben von Cloud Shell- Befehlen und dem Bereitstellen Ihrer ersten virtuellen Maschine bis hin zum Ausführen von Anwendungen auf Kubernetes Engine oder mit Load-Balancing – Google Cloud Essentials ist eine erstklassige Einführung in die grundlegenden Funktionen der Plattform.