Teilnehmen Anmelden

Aleti Dhanush

Mitglied seit 2025

Gold League

2703 Punkte
Daten über die Befehlszeile in Google Cloud speichern, verarbeiten und verwalten Earned Dez 13, 2025 EST
Daten für ML-APIs in Google Cloud vorbereiten Earned Dez 11, 2025 EST
Datenerfassung mit Document AI automatisieren Earned Dez 9, 2025 EST
Modelle zur Bilduntertitelung erstellen Earned Dez 5, 2025 EST
Transformer-Modelle und BERT-Modell Earned Dez 5, 2025 EST
Aufmerksamkeitsmechanismus Earned Dez 5, 2025 EST
Encoder-Decoder-Architektur Earned Dez 5, 2025 EST
Einstieg in die Bildgenerierung Earned Nov 26, 2025 EST
Einführung in die verantwortungsbewusste Anwendung von KI Earned Nov 26, 2025 EST
Einführung in Large Language Models Earned Nov 26, 2025 EST
Einführung in generative KI Earned Nov 25, 2025 EST

Cloud Storage, Cloud Functions und Cloud Pub/Sub sind Google Cloud- Plattformdienste, die zum Speichern, Verarbeiten und Verwalten von Daten verwendet werden können. Alle drei Dienste können zusammen verwendet werden, um eine Vielzahl datengesteuerter Anwendungen zu erstellen. In diesem Kurs verwenden Sie Cloud Storage zum Speichern von Bildern, Cloud Functions zum Verarbeiten der Bilder und Cloud Pub/Sub, um die Bilder an eine andere Anwendung zu senden.

Weitere Informationen

Mit dem Skill-Logo zum Kurs Daten für ML-APIs in Google Cloud vorbereiten weisen Sie Grundkenntnisse in folgenden Bereichen nach: Bereinigen von Daten mit Dataprep von Trifacta, Ausführen von Datenpipelines in Dataflow, Erstellen von Clustern und Ausführen von Apache Spark-Jobs in Dataproc sowie Aufrufen von ML-APIs, einschließlich der Cloud Natural Language API, Cloud Speech-to-Text API und Video Intelligence API.

Weitere Informationen

Mit dem Skill-Logo zum Kurs Datenerfassung mit Document AI automatisieren weisen Sie Grundkenntnisse nach. In diesem Kurs lernen Sie, wie Sie mit Document AI Daten extrahieren, verarbeiten und erheben.

Weitere Informationen

In diesem Kurs erfahren Sie, wie Sie mithilfe von Deep Learning ein Modell zur Bilduntertitelung erstellen. Sie lernen die verschiedenen Komponenten eines solchen Modells wie den Encoder und Decoder und die Schritte zum Trainieren und Bewerten des Modells kennen. Nach Abschluss dieses Kurses haben Sie folgende Kompetenzen erworben: Erstellen eigener Modelle zur Bilduntertitelung und Verwenden der Modelle zum Generieren von Untertiteln

Weitere Informationen

Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.

Weitere Informationen

In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.

Weitere Informationen

Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.

Weitere Informationen

In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird erklärt, was verantwortungsbewusste Anwendung von KI bedeutet, warum sie wichtig ist und wie Google dies in seinen Produkten berücksichtigt. Darüber hinaus werden die 7 KI-Grundsätze von Google behandelt.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird untersucht, was Large Language Models (LLM) sind, für welche Anwendungsfälle sie genutzt werden können und wie die LLM-Leistung durch Feinabstimmung von Prompts gesteigert werden kann. Darüber hinaus werden Tools von Google behandelt, die das Entwickeln eigener Anwendungen basierend auf generativer KI ermöglichen.

Weitere Informationen

In diesem Einführungskurs im Microlearning-Format wird erklärt, was generative KI ist, wie sie genutzt wird und wie sie sich von herkömmlichen Methoden für Machine Learning unterscheidet. Darüber hinaus werden Tools von Google behandelt, mit denen Sie eigene Anwendungen basierend auf generativer KI entwickeln können.

Weitere Informationen