KI-Inferenz ist ein Prozess, bei dem mithilfe eines trainierten ML-Modells erlernte Muster genutzt werden, um Vorhersagen zu neuen, unbekannten Daten zu treffen. Dieser Kurs richtet sich an Entwicklerinnen und Entwickler, Data Scientists und ML-Entwicklungsteams, die daran interessiert sind, Dienste für KI-Inferenzen schnell auf Cloud Run bereitzustellen. Er ist hilfreich für Nutzende, die mit cloudbasierten serverlosen Lösungen zur Anwendungsbereitstellung vertraut sind, aber unter Umständen keine Erfahrung mit der Ausführung von KI-Inferenzen durch Verwendung serverloser Google Cloud-Produkte haben. Der Kurs bietet Beispiele, bei denen ein Modell für KI-Inferenzen mit GPUs zum Einsatz kommt und generative KI-Anwendungen in Datenspeicherdienste eingebunden werden.
In diesem Kurs erfahren Sie, wie Gemini, ein auf generativer KI basierendes Produkt von Google Cloud, Sie bei der Nutzung von Google-Produkten und -Diensten zum Entwickeln, Testen, Bereitstellen und Verwalten von Anwendungen unterstützen kann. Sie lernen, wie Sie mit Gemini eine Webanwendung entwickeln und debuggen, Tests entwickeln und Daten abfragen können. In einem praxisorientierten Lab können Sie sich davon überzeugen, wie der Softwareentwicklungs-Lebenszyklus durch Gemini verbessert werden kann. Duet AI wurde umbenannt in Gemini, unser Modell der nächsten Generation.
Dieser Kurs vermittelt Ihnen das Wissen und die nötigen Tools, um die speziellen Herausforderungen zu erkennen, mit denen MLOps-Teams bei der Bereitstellung und Verwaltung von Modellen basierend auf generativer KI konfrontiert sind. Sie erfahren, wie KI-Teams durch Vertex AI dabei unterstützt werden, MLOps-Prozesse zu optimieren und mit Projekten erfolgreich zu sein, in denen generative KI zum Einsatz kommt.