Maggie Nanyonga
Mitglied seit 2026
Silver League
12674 Punkte
Mitglied seit 2026
In this Google DeepMind course, you will learn the fundamentals of language models and gain a high-level understanding of the machine learning development pipeline. You will consider the strengths and limitations of traditional n-gram models and advanced transformer models. Practical coding labs will enable you to develop insights into how machine learning models work and how they can be used to generate text and identify patterns in language. Through real-world case studies, you will build an understanding around how research engineers operate. Drawing on these insights you will identify problems that you wish to tackle in your own community and consider how to leverage the power of machine learning responsibly to address these problems within a global and local context.
Welcome to the "AI Infrastructure: Networking Techniques" course. In this course, you'll learn to leverage Google Cloud's high-bandwidth, low-latency infrastructure to optimize data transfer and communication between all the components of your AI system. By the end, you'll grasp the critical role networking plays across the entire AI pipeline from data ingestion and training to inference and be able to apply best practices to ensure your workloads run at maximum speed.
In this course, you’ll take a comprehensive journey through the storage solutions available on Google Cloud, specifically tailored for AI and high-performance computing (HPC) workloads. You’ll learn how to choose the right storage for each stage of the ML lifecycle. You’ll explore how to optimize for I/O performance during training, manage massive datasets for data preparation, and serve model artifacts with low latency. Through practical examples and demonstrations, you’ll gain the expertise to design robust storage solutions that accelerate your AI innovation.
This course provides a comprehensive guide to deploying, managing, and optimizing AI and high-performance computing (HPC) workloads on Google Cloud. Through a series of lessons and practical demonstrations, you’ll explore diverse deployment strategies, ranging from highly customizable environments using Google Compute Engine (GCE) to managed solutions like Google Kubernetes Engine (GKE). Specifically, you’ll learn how to create clusters and deploy GKE for inference.
Willkommen beim Kurs „Cloud TPUs“. Wir sehen uns die Vor- und Nachteile von TPUs in verschiedenen Szenarien an und vergleichen unterschiedliche TPU-Beschleuniger, um Ihnen bei der Auswahl des richtigen Produkts zu helfen. Sie lernen Strategien zur Maximierung der Leistung und Effizienz Ihrer KI-Modelle sowie die Bedeutung der GPU/TPU-Interoperabilität für flexible Machine-Learning-Workflows kennen. Mithilfe ansprechender Inhalte und praktischer Demos zeigen wir Ihnen Schritt für Schritt, wie Sie TPUs effektiv einsetzen können.
Möchten Sie mehr über die leistungsstarke Hardware hinter KI erfahren? Dieses Modul erklärt die Funktionsweise von leistungsoptimierten KI-Computern und zeigt Ihnen, warum sie so wichtig sind. Wir gehen dabei darauf ein, wie CPUs, GPUs und TPUs die Ausführung von KI-Aufgaben extrem beschleunigen, was die einzelnen Komponenten auszeichnet und wie deren Potenzial durch KI-Software optimal genutzt werden kann. Am Ende dieses Moduls wissen Sie genau, wie Sie die richtige GPU für Ihre KI-Projekte auswählen, und können so die optimale Lösung für Ihre KI-Workloads finden.
Sind Sie bereit, mit AI Hypercomputer loszulegen? Dieser Grundlagenkurs erleichtert Ihnen den Einstieg. Er vermittelt Ihnen, was AI Hypercomputer ist und wie damit KI bei KI-Arbeitslasten unterstützt wird. Sie lernen die verschiedenen Komponenten eines Hypercomputers kennen, wie GPUs, TPUs und CPUs, und erfahren, wie Sie den richtigen Ansatz hinsichtlich der Bereitstellung Ihren Anforderungen entsprechend auswählen.
In diesem Kurs werden Konzepte für die verantwortungsbewusste Anwendung von KI und KI-Grundsätze vorgestellt. Es werden Techniken behandelt, wie Sie Fairness und Verzerrung (Bias) in der Praxis erkennen sowie Verzerrung in KI- und ML-Anwendungen reduzieren können. Dabei lernen Sie, wie Sie mit Google Cloud-Produkten und Open-Source-Tools Best Practices für eine verantwortungsbewusste Anwendung von KI umsetzen.
In diesem Kurs werden wichtige Themen zu Datenschutz und Sicherheit beim Einsatz von künstlicher Intelligenz vorgestellt. Dabei lernen Sie, wie Sie mit Google Cloud-Produkten und Open-Source-Tools empfohlene Vorgehensweisen im Zusammenhang mit Datenschutz und Sicherheit beim Einsatz von KI umsetzen.
Künstliche Intelligenz (KI) bietet revolutionäre Möglichkeiten, geht aber auch mit neuen Sicherheitsherausforderungen einher. In diesem Kurs lernen Führungskräfte im Bereich Sicherheit und Datenschutz Strategien für den sicheren Umgang mit KI in ihren Unternehmen kennen. Es wird ein Framework für das proaktive Erkennen und Mindern KI-spezifischer Risiken, den Schutz sensibler Daten, das Einhalten rechtlicher Vorgaben und den Aufbau einer robusten KI-Infrastruktur vorgestellt. Anhand von Anwendungsfällen aus vier verschiedenen Branchen wird gezeigt, wie sich diese Strategien auf reale Szenarien anwenden lassen.
In diesem Kurs werden Konzepte in Bezug auf die Interpretierbarkeit und Transparenz von künstlicher Intelligenz vorgestellt. Sie erfahren, warum die Transparenz der KI für Entwickler-Teams wichtig ist. Dabei lernen Sie praktische Techniken und Tools kennen, mit denen Sie sowohl die Interpretierbarkeit als auch die Transparenz von Daten und KI-Modellen optimieren können.
In diesem Kurs werden die wichtigsten Sicherheitsfunktionen von Model Armor vorgestellt. Außerdem lernen Sie, wie Sie den Dienst nutzen können. Sie erfahren mehr über die Sicherheitsrisiken, die mit LLMs verbunden sind, und wie Model Armor Ihre KI-Anwendungen schützt.
Da die Nutzung von künstlicher Intelligenz und Machine Learning in Unternehmen weiter zunimmt, wird auch deren verantwortungsbewusste Entwicklung ein immer wichtigeres Thema. Dabei ist es für viele schwierig, die Überlegungen zur verantwortungsbewussten Anwendung von KI in die Praxis umzusetzen. Wenn Sie wissen möchten, wie sich die verantwortungsbewusste Anwendung von KI in die Praxis umsetzen, also operationalisieren lässt, finden Sie in diesem Kurs entsprechende Hilfestellungen. In diesem Kurs erfahren Sie, wie dies mit Google Cloud heutzutage möglich ist, inklusive entsprechender Best Practices und Erkenntnisse. Es wird gezeigt, welches Framework Google Cloud bietet, um einen eigenen Ansatz für die verantwortungsbewusste Anwendung von KI zu entwickeln.
This course equips learners with the essential knowledge and practical tools to develop and implement artificial intelligence (AI) responsibly. Through an exploration of ethical considerations, best practices, and governance procedures, participants will gain an understanding of how to navigate the complex landscape of AI while upholding ethical standards and minimizing potential risks.
„Ihre Organisation mit generativen KI-Agenten voranbringen“ ist der fünfte und letzte Kurs des Lernpfads „Gen AI Leader“. In diesem Kurs erfahren Sie, wie Unternehmen mit benutzerdefinierten generativen KI-Agenten spezifische geschäftliche Herausforderungen meistern können. Sie lernen, wie Sie einen einfachen Agenten für generative KI erstellen, und machen sich mit den Komponenten dieser Agenten vertraut, z. B. mit Modellen, Reasoning Loops und Tools.
„Generative KI-Apps heben Ihre Arbeit auf das nächste Level“ ist der vierte Kurs des Lernpfads „Generative AI Leader“. In diesem Kurs werden die auf generativer KI basierenden Anwendungen von Google vorgestellt, zum Beispiel Gemini für Workspace und NotebookLM. Darin werden Konzepte wie Fundierung, Retrieval-Augmented Generation, das Erstellen effektiver Prompts und das Entwickeln automatisierter Workflows erläutert.
„Die vielfältigen Formen generativer KI“ ist der dritte Kurs des Lernpfads „Generative AI Leader“. Generative KI verändert die Art und Weise, wie wir arbeiten und mit der Welt um uns herum interagieren. Aber wie können Sie als Führungskraft die Möglichkeiten von KI nutzen, um echte Geschäftsergebnisse zu erzielen? In diesem Kurs lernen Sie die verschiedenen Ebenen der Entwicklung von generativen KI-Lösungen, die Angebote von Google Cloud und die Faktoren kennen, die bei der Auswahl einer Lösung zu berücksichtigen sind.
„Generative KI: Grundlegende Konzepte“ ist der zweite Kurs des Lernpfads „Generative AI Leader“. In diesem Kurs lernen Sie die grundlegenden Konzepte der generativen KI kennen. Sie erfahren, wie sich KI, ML und generative KI unterscheiden und wie generative KI geschäftliche Herausforderungen mithilfe verschiedener Datentypen bewältigt. Außerdem erhalten Sie Einblicke in die Strategien von Google Cloud, um die Einschränkungen von Foundation Models zu überwinden, und in die wichtigsten Herausforderungen für eine verantwortungsbewusste und sichere KI-Entwicklung und ‑Bereitstellung.
„Generative KI ist mehr als nur Chatbots“ ist der erste Kurs des Lernpfads „Generative AI Leader“ und hat keine Voraussetzungen. In diesem Kurs geht es nicht nur um die Grundlagen von Chatbots, sondern auch um das wahre Potenzial von generativer KI für Ihr Unternehmen. Sie lernen Konzepte wie Foundation Models und Prompt Engineering kennen, die für die Nutzung der Leistungsfähigkeit von generativer KI entscheidend sind. Außerdem werden wichtige Überlegungen behandelt, die Sie bei der Entwicklung einer erfolgreichen Strategie für generative KI für Ihr Unternehmen berücksichtigen sollten.
Erstellen Sie Ihre erste Gemini Enterprise-Anwendung! Verknüpfen Sie verschiedene Datenquellen mit Ihrer Anwendung. Wenden Sie erweiterte Funktionen wie Deep Research-Agenten, Ideenfindung mit mehreren KI-Agenten und NotebookLM für fokussierte Analysen souverän an.
Erfahren Sie, wie KI-Agenten den Geschäftserfolg steigern können. Anschließend erfahren Sie, wie Gemini Enterprise Sie in die Lage versetzt, die richtigen KI-Agenten zu erstellen und zu orchestrieren – von No-Code- bis hin zu High-Code-Lösungen.
KI‑Agenten stellen einen bedeutenden Wandel gegenüber traditionellen Large Language Models (LLMs) dar: Anstatt lediglich textbasierte Lösungen zu generieren, können sie diese Lösungen auch selbstständig ausführen. Dieser Kurs behandelt die Grundlagen von KI‑Agenten und zeigt, wie sie sich von LLM-APIs unterscheiden und in der realen Welt einen Mehrwert bieten. Er basiert auf dem Whitepaper zu Agenten von Google und bietet eine theoretische Grundlage, die man kennen sollte, bevor man die ersten Zeilen Code für einen KI‑Agenten schreibt. Der Kurs ist somit ideal für Personen in der Softwareentwicklung und -Architektur sowie für all diejenigen, die technische Entscheidungen fällen müssen und KI‑Systeme im Kontext von selbstständigen, zielorientierten Handlungen (Anstatt nur als Textgeneratoren) verstehen möchten. In unserem Community-Forum können Sie sich am Diskurs beteiligen.
Sie erhalten einen konzeptionellen Überblick über KI-Agenten. Wir zeigen Ihnen, wie KI-Agenten autonomes Handeln und logisches Denken nutzen, um komplexe Probleme zu lösen.
Dieser Kurs gibt Machine-Learning-Anwendern alle grundlegenden Tools, Techniken und Best Practices zur Bewertung von generativen und prädiktiven KI-Modellen an die Hand. Die Modellbewertung ist ein wichtiger Schritt, bei dem geprüft wird, ob ML-Systeme in der Produktion zuverlässige, genaue und leistungsstarke Ergebnisse erzielen. Die Teilnehmer erwerben fundierte Kenntnisse über verschiedene Bewertungsmesswerte und -methoden und lernen, sie auf unterschiedliche Modelltypen und Aufgaben anzuwenden. Im Kurs wird schwerpunktmäßig auf die besonderen Herausforderungen generativer KI-Modelle eingegangen und es werden Strategien vorgestellt, wie sich diese effektiv bewältigen lassen. Die Teilnehmer lernen auf der Plattform Vertex AI von Google Cloud, robuste Bewertungsprozesse zur Auswahl, Optimierung und kontinuierlichen Überwachung des Modells zu implementieren.
Dieser Kurs vermittelt Ihnen das Wissen und die nötigen Tools, um die speziellen Herausforderungen zu erkennen, mit denen MLOps-Teams bei der Bereitstellung und Verwaltung von Modellen basierend auf generativer KI konfrontiert sind. Sie erfahren, wie KI-Teams durch Vertex AI dabei unterstützt werden, MLOps-Prozesse zu optimieren und mit Projekten erfolgreich zu sein, in denen generative KI zum Einsatz kommt.