Teilnehmen Anmelden

Usama Mehmood

Mitglied seit 2025

Silver League

555 Punkte
Transformer-Modelle und BERT-Modell Earned Sep 18, 2025 EDT
Encoder-Decoder-Architektur Earned Sep 18, 2025 EDT
Aufmerksamkeitsmechanismus Earned Sep 15, 2025 EDT
Einstieg in die Bildgenerierung Earned Sep 13, 2025 EDT
Google Cloud: Prompt Engineering Guide Earned Sep 13, 2025 EDT
Generative KI ist mehr als nur Chatbots Earned Sep 13, 2025 EDT
Einführung in generative KI Earned Sep 12, 2025 EDT

Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.

Weitere Informationen

Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.

Weitere Informationen

In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.

Weitere Informationen

In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.

Weitere Informationen

Google Cloud : Prompt Engineering Guide examines generative AI tools, how they work. We'll explore how to combine Google Cloud knowledge with prompt engineering to improve Gemini responses.

Weitere Informationen

„Generative KI ist mehr als nur Chatbots“ ist der erste Kurs des Lernpfads „Generative AI Leader“ und hat keine Voraussetzungen. In diesem Kurs geht es nicht nur um die Grundlagen von Chatbots, sondern auch um das wahre Potenzial von generativer KI für Ihr Unternehmen. Sie lernen Konzepte wie Foundation Models und Prompt Engineering kennen, die für die Nutzung der Leistungsfähigkeit von generativer KI entscheidend sind. Außerdem werden wichtige Überlegungen behandelt, die Sie bei der Entwicklung einer erfolgreichen Strategie für generative KI für Ihr Unternehmen berücksichtigen sollten.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird erklärt, was generative KI ist, wie sie genutzt wird und wie sie sich von herkömmlichen Methoden für Machine Learning unterscheidet. Darüber hinaus werden Tools von Google behandelt, mit denen Sie eigene Anwendungen basierend auf generativer KI entwickeln können.

Weitere Informationen