Teilnehmen Anmelden

Sagar K

Mitglied seit 2024

Silver League

7624 Punkte
Networking in Google Cloud: Network Architecture Earned Nov 1, 2025 EDT
Modelle zur Bilduntertitelung erstellen Earned Feb 18, 2025 EST
Transformer-Modelle und BERT-Modell Earned Dez 11, 2024 EST
Encoder-Decoder-Architektur Earned Dez 11, 2024 EST
Aufmerksamkeitsmechanismus Earned Dez 11, 2024 EST
Einstieg in die Bildgenerierung Earned Dez 11, 2024 EST
Prompt-Design mit Vertex AI Earned Dez 5, 2024 EST
Einführung in die verantwortungsbewusste Anwendung von KI Earned Dez 5, 2024 EST
Einführung in Large Language Models Earned Dez 5, 2024 EST
Einführung in generative KI Earned Dez 5, 2024 EST

Welcome to the third course of the "Networking in Google Cloud" series: Network Architecture! In this course, you will explore the fundamentals of designing efficient and scalable network architectures within Google Cloud. In the first module, Introduction to Network Architecture, we'll start by introducing you to the core components and concepts of network architecture, including subnets, routes, firewalls, and load balancing. Then in the second module, network topologies, we'll dive into various network topologies commonly used in Google Cloud, discussing their strengths, and weaknesses.

Weitere Informationen

In diesem Kurs erfahren Sie, wie Sie mithilfe von Deep Learning ein Modell zur Bilduntertitelung erstellen. Sie lernen die verschiedenen Komponenten eines solchen Modells wie den Encoder und Decoder und die Schritte zum Trainieren und Bewerten des Modells kennen. Nach Abschluss dieses Kurses haben Sie folgende Kompetenzen erworben: Erstellen eigener Modelle zur Bilduntertitelung und Verwenden der Modelle zum Generieren von Untertiteln

Weitere Informationen

Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.

Weitere Informationen

Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.

Weitere Informationen

In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.

Weitere Informationen

In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.

Weitere Informationen

Mit dem Skill-Logo Prompt-Design mit Vertex AI weisen Sie Grundkenntnisse in folgenden Bereichen nach: Prompt Engineering, Bildanalyse und multimodale generative Techniken in Vertex AI. Entdecken Sie, wie Sie wirksame Prompts erstellen, auf generativer KI basierende Ausgaben steuern und Gemini-Modelle in Marketing-Szenarien aus der Praxis anwenden.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird erklärt, was verantwortungsbewusste Anwendung von KI bedeutet, warum sie wichtig ist und wie Google dies in seinen Produkten berücksichtigt. Darüber hinaus werden die 7 KI-Grundsätze von Google behandelt.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird untersucht, was Large Language Models (LLM) sind, für welche Anwendungsfälle sie genutzt werden können und wie die LLM-Leistung durch Feinabstimmung von Prompts gesteigert werden kann. Darüber hinaus werden Tools von Google behandelt, die das Entwickeln eigener Anwendungen basierend auf generativer KI ermöglichen.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird erklärt, was generative KI ist, wie sie genutzt wird und wie sie sich von herkömmlichen Methoden für Machine Learning unterscheidet. Darüber hinaus werden Tools von Google behandelt, mit denen Sie eigene Anwendungen basierend auf generativer KI entwickeln können.

Weitere Informationen