Dieser Kurs wurde speziell für Fachkräfte im Gesundheitswesen entwickelt und vermittelt die Grundlagen von generativer KI, der neuesten Innovation im Bereich der künstlichen Intelligenz, und der zugrunde liegenden Large Language Models (LLMs). Sie lernen Anwendungsfälle von generativer KI im Gesundheitswesen kennen und erfahren, wie Sie effektive Prompts erstellen, die auf Ihre Anforderungen zugeschnitten sind.
This course is for developers interested in learning how to use TPUs for inference—from architecture to deployment, and how to solve common implementation challenges.
This course is designed for developers looking to build an optimized AI inference stack on Google Cloud. Whether you’re working with GPUs or TPUs, you’ll explore the fundamental components of an inference stack, learn design principles for maximizing performance and reliability, and explore practical techniques to take your workloads from 0 to 1.
Sie haben Ihren ersten KI-Agenten erstellt – jetzt ist es an der Zeit, ihn weiterzuentwickeln. In diesem weiterführenden Kurs lernen Sie, wie Sie einen einfachen KI-Agenten in einen ausgereiften, präzisen Assistenten umwandeln – durch die Anwendung fortgeschrittener Anweisungen, eine passende Modellauswahl, Planungsfunktionen und Muster für strukturierte Ausgabe. In unserem Community-Forum können Sie sich mit anderen austauschen.
In diesem Modul können Sie Ihr Verständnis von KI-Agenten in die Praxis umsetzen und mit dem Agent Development Kit (ADK) von Google Ihren ersten KI-Agenten erstellen, konfigurieren und ausführen. In diesem praxisorientierten Kurs richten Sie zuerst eine vollständige ADK-Entwicklungsumgebung ein. Dann erstellen Sie KI-Agenten sowohl mit Python-Code als auch mit einer YAML-Konfiguration und führen diese über verschiedene Benutzeroberflächen aus. Außerdem lernen Sie die wichtigsten Parameter kennen, die das Verhalten von KI-Agenten definieren. Dazu wenden Sie das in Kurs 1 Gelernte auf funktionierenden Code an.
Erstellen Sie Ihre erste Gemini Enterprise-Anwendung! Verknüpfen Sie verschiedene Datenquellen mit Ihrer Anwendung. Wenden Sie erweiterte Funktionen wie Deep Research-Agenten, Ideenfindung mit mehreren KI-Agenten und NotebookLM für fokussierte Analysen souverän an.
Erfahren Sie, wie KI-Agenten den Geschäftserfolg steigern können. Anschließend erfahren Sie, wie Gemini Enterprise Sie in die Lage versetzt, die richtigen KI-Agenten zu erstellen und zu orchestrieren – von No-Code- bis hin zu High-Code-Lösungen.
Sie erhalten einen konzeptionellen Überblick über KI-Agenten. Wir zeigen Ihnen, wie KI-Agenten autonomes Handeln und logisches Denken nutzen, um komplexe Probleme zu lösen.
KI‑Agenten stellen einen bedeutenden Wandel gegenüber traditionellen Large Language Models (LLMs) dar: Anstatt lediglich textbasierte Lösungen zu generieren, können sie diese Lösungen auch selbstständig ausführen. Dieser Kurs behandelt die Grundlagen von KI‑Agenten und zeigt, wie sie sich von LLM-APIs unterscheiden und in der realen Welt einen Mehrwert bieten. Er basiert auf dem Whitepaper zu Agenten von Google und bietet eine theoretische Grundlage, die man kennen sollte, bevor man die ersten Zeilen Code für einen KI‑Agenten schreibt. Der Kurs ist somit ideal für Personen in der Softwareentwicklung und -Architektur sowie für all diejenigen, die technische Entscheidungen fällen müssen und KI‑Systeme im Kontext von selbstständigen, zielorientierten Handlungen (Anstatt nur als Textgeneratoren) verstehen möchten. In unserem Community-Forum können Sie sich am Diskurs beteiligen.
Dieser Kurs vermittelt Ihnen das Wissen und die nötigen Tools, um die speziellen Herausforderungen zu erkennen, mit denen MLOps-Teams bei der Bereitstellung und Verwaltung von Modellen basierend auf generativer KI konfrontiert sind. Sie erfahren, wie KI-Teams durch Vertex AI dabei unterstützt werden, MLOps-Prozesse zu optimieren und mit Projekten erfolgreich zu sein, in denen generative KI zum Einsatz kommt.
In diesem Kurs werden wichtige Themen zu Datenschutz und Sicherheit beim Einsatz von künstlicher Intelligenz vorgestellt. Dabei lernen Sie, wie Sie mit Google Cloud-Produkten und Open-Source-Tools empfohlene Vorgehensweisen im Zusammenhang mit Datenschutz und Sicherheit beim Einsatz von KI umsetzen.
In diesem Kurs werden Konzepte in Bezug auf die Interpretierbarkeit und Transparenz von künstlicher Intelligenz vorgestellt. Sie erfahren, warum die Transparenz der KI für Entwickler-Teams wichtig ist. Dabei lernen Sie praktische Techniken und Tools kennen, mit denen Sie sowohl die Interpretierbarkeit als auch die Transparenz von Daten und KI-Modellen optimieren können.
In diesem Kurs werden Konzepte für die verantwortungsbewusste Anwendung von KI und KI-Grundsätze vorgestellt. Es werden Techniken behandelt, wie Sie Fairness und Verzerrung (Bias) in der Praxis erkennen sowie Verzerrung in KI- und ML-Anwendungen reduzieren können. Dabei lernen Sie, wie Sie mit Google Cloud-Produkten und Open-Source-Tools Best Practices für eine verantwortungsbewusste Anwendung von KI umsetzen.
In diesem Kurs lernen Sie KI-basierte Suchtechnologien, Tools und Anwendungen kennen. Er umfasst folgende Themen: die semantische Suche mithilfe von Vektoreinbettungen, die Hybridsuche, bei der semantische und stichwortbezogene Ansätze kombiniert werden, und Retrieval-Augmented Generation (RAG), die KI-Halluzinationen durch einen fundierten KI-Agenten minimiert. Sie sammeln praktische Erfahrungen mit der Vektorsuche in Vertex AI zum Entwickeln einer intelligenten Suchmaschine.
Dieser Kurs bietet eine Einführung in Vertex AI Studio, ein Tool für die Interaktion mit generativen KI-Modellen sowie das Prototyping von Geschäftsideen und ihre Umsetzung. Anhand eines eindrucksvollen Anwendungsfalls, ansprechender Lektionen und einer praktischen Übung lernen Sie den Lebenszyklus vom Prompt bis zum Produkt kennen und erfahren, wie Sie Vertex AI Studio für multimodale Gemini-Anwendungen, Prompt-Design, Prompt Engineering und Modellabstimmung einsetzen können. Ziel ist es, Ihnen aufzuzeigen, wie Sie das Potenzial von generativer KI in Ihren Projekten mit Vertex AI Studio ausschöpfen.
In diesem Kurs erfahren Sie, wie Sie mithilfe von Deep Learning ein Modell zur Bilduntertitelung erstellen. Sie lernen die verschiedenen Komponenten eines solchen Modells wie den Encoder und Decoder und die Schritte zum Trainieren und Bewerten des Modells kennen. Nach Abschluss dieses Kurses haben Sie folgende Kompetenzen erworben: Erstellen eigener Modelle zur Bilduntertitelung und Verwenden der Modelle zum Generieren von Untertiteln
Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.
Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.
In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.
In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.
In diesem Kurs wird eine Lösung für Retrieval-Augmented Generation (RAG) in BigQuery vorgestellt, die KI-Halluzinationen minimiert. Sie lernen einen RAG-Workflow kennen, der die Erstellung von Einbettungen, die Suche in einem Vektorraum und die Generierung verbesserter Antworten umfasst. Darüber hinaus werden die konzeptionellen Gründe für diese Schritte und ihre praktische Umsetzung mit BigQuery erklärt. Am Ende des Kurses werden Sie in der Lage sein, eine RAG-Pipeline mithilfe von BigQuery und generativen KI-Modellen wie Gemini zu erstellen und Modelle einzubetten, um KI-Halluzinationen zu verhindern.
„Ihre Organisation mit generativen KI-Agenten voranbringen“ ist der fünfte und letzte Kurs des Lernpfads „Gen AI Leader“. In diesem Kurs erfahren Sie, wie Unternehmen mit benutzerdefinierten generativen KI-Agenten spezifische geschäftliche Herausforderungen meistern können. Sie lernen, wie Sie einen einfachen Agenten für generative KI erstellen, und machen sich mit den Komponenten dieser Agenten vertraut, z. B. mit Modellen, Reasoning Loops und Tools.
„Generative KI-Apps heben Ihre Arbeit auf das nächste Level“ ist der vierte Kurs des Lernpfads „Generative AI Leader“. In diesem Kurs werden die auf generativer KI basierenden Anwendungen von Google vorgestellt, zum Beispiel Gemini für Workspace und NotebookLM. Darin werden Konzepte wie Fundierung, Retrieval-Augmented Generation, das Erstellen effektiver Prompts und das Entwickeln automatisierter Workflows erläutert.
„Die vielfältigen Formen generativer KI“ ist der dritte Kurs des Lernpfads „Generative AI Leader“. Generative KI verändert die Art und Weise, wie wir arbeiten und mit der Welt um uns herum interagieren. Aber wie können Sie als Führungskraft die Möglichkeiten von KI nutzen, um echte Geschäftsergebnisse zu erzielen? In diesem Kurs lernen Sie die verschiedenen Ebenen der Entwicklung von generativen KI-Lösungen, die Angebote von Google Cloud und die Faktoren kennen, die bei der Auswahl einer Lösung zu berücksichtigen sind.
„Generative KI: Grundlegende Konzepte“ ist der zweite Kurs des Lernpfads „Generative AI Leader“. In diesem Kurs lernen Sie die grundlegenden Konzepte der generativen KI kennen. Sie erfahren, wie sich KI, ML und generative KI unterscheiden und wie generative KI geschäftliche Herausforderungen mithilfe verschiedener Datentypen bewältigt. Außerdem erhalten Sie Einblicke in die Strategien von Google Cloud, um die Einschränkungen von Foundation Models zu überwinden, und in die wichtigsten Herausforderungen für eine verantwortungsbewusste und sichere KI-Entwicklung und ‑Bereitstellung.
„Generative KI ist mehr als nur Chatbots“ ist der erste Kurs des Lernpfads „Generative AI Leader“ und hat keine Voraussetzungen. In diesem Kurs geht es nicht nur um die Grundlagen von Chatbots, sondern auch um das wahre Potenzial von generativer KI für Ihr Unternehmen. Sie lernen Konzepte wie Foundation Models und Prompt Engineering kennen, die für die Nutzung der Leistungsfähigkeit von generativer KI entscheidend sind. Außerdem werden wichtige Überlegungen behandelt, die Sie bei der Entwicklung einer erfolgreichen Strategie für generative KI für Ihr Unternehmen berücksichtigen sollten.
Google Cloud : Prompt Engineering Guide examines generative AI tools, how they work. We'll explore how to combine Google Cloud knowledge with prompt engineering to improve Gemini responses.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
In diesem Einführungskurs im Microlearning-Format wird untersucht, was Large Language Models (LLM) sind, für welche Anwendungsfälle sie genutzt werden können und wie die LLM-Leistung durch Feinabstimmung von Prompts gesteigert werden kann. Darüber hinaus werden Tools von Google behandelt, die das Entwickeln eigener Anwendungen basierend auf generativer KI ermöglichen.
In diesem Einführungskurs im Microlearning-Format wird erklärt, was generative KI ist, wie sie genutzt wird und wie sie sich von herkömmlichen Methoden für Machine Learning unterscheidet. Darüber hinaus werden Tools von Google behandelt, mit denen Sie eigene Anwendungen basierend auf generativer KI entwickeln können.
This course explores the benefits of using Vertex AI Feature Store, how to improve the accuracy of ML models, and how to find which data columns make the most useful features. This course also includes content and labs on feature engineering using BigQuery ML, Keras, and TensorFlow.
This course explores what ML is and what problems it can solve. The course also discusses best practices for implementing machine learning. You’re introduced to Vertex AI, a unified platform to quickly build, train, and deploy AutoML machine learning models. The course discusses the five phases of converting a candidate use case to be driven by machine learning, and why it’s important to not skip them. The course ends with recognizing the biases that ML can amplify and how to recognize them.
This course introduces the Google Cloud big data and machine learning products and services that support the data-to-AI lifecycle. It explores the processes, challenges, and benefits of building a big data pipeline and machine learning models with Vertex AI on Google Cloud.