Dhruvil Patel
Jest członkiem od 2025
Liga srebrna
3212 pkt.
Jest członkiem od 2025
Im szerzej wykorzystuje się w firmach sztuczną inteligencję i systemy uczące się, tym większej wagi nabiera odpowiedzialne podejście do opracowywania tych technologii. Wielu organizacjom trudniej jest jednak wprowadzić zasady odpowiedzialnej AI w praktyce niż tylko o tym rozmawiać. To szkolenie jest przeznaczone dla osób, które chcą się dowiedzieć, jak wdrożyć odpowiedzialną AI w swojej organizacji. W jego trakcie dowiesz się, jak robimy to w Google Cloud, oraz poznasz sprawdzone metody i wnioski z naszych działań w tym zakresie. Pomoże Ci to opracować własne podejście do odpowiedzialnej AI.
Celem tego szybkiego szkolenia dla początkujących jest wyjaśnienie, czym jest odpowiedzialna AI i dlaczego jest ważna, oraz przedstawienie, jak Google wprowadza ją w swoich usługach. Szkolenie zawiera także wprowadzenie do siedmiu zasad Google dotyczących sztucznej inteligencji.
To szybkie szkolenie dla początkujących wyjaśnia, czym są duże modele językowe (LLM) oraz jakie są ich zastosowania. Przedstawia również możliwości zwiększenia ich wydajności przez dostrajanie przy użyciu promptów oraz narzędzia Google, które pomogą Ci tworzyć własne aplikacje korzystające z generatywnej AI.
Celem tego szybkiego szkolenia dla początkujących jest wyjaśnienie, czym jest generatywna AI oraz jakie są jej zastosowania. Szkolenie przedstawia również różnice pomiędzy tą technologią a tradycyjnymi systemami uczącymi się, a także narzędzia Google, które pomogą Ci tworzyć własne aplikacje korzystające z generatywnej AI.
Na tym szkoleniu przedstawiamy koncepcje odpowiedzialnej AI i zasad dotyczących AI. Omawiamy praktyczne metody identyfikowania obiektywności i uprzedzeń, a także ograniczania występowania uprzedzeń podczas używania AI/ML. W trakcie szkolenia przedstawiamy też praktyczne techniki i narzędzia, które umożliwiają wdrożenie sprawdzonych metod w zakresie odpowiedzialnej AI przy użyciu usług Google Cloud oraz narzędzi open source.
This course equips machine learning practitioners with the essential tools, techniques, and best practices for evaluating both generative and predictive AI models. Model evaluation is a critical discipline for ensuring that ML systems deliver reliable, accurate, and high-performing results in production. Participants will gain a deep understanding of various evaluation metrics, methodologies, and their appropriate application across different model types and tasks. The course will emphasize the unique challenges posed by generative AI models and provide strategies for tackling them effectively. By leveraging Google Cloud's Vertex AI platform, participants will learn how to implement robust evaluation processes for model selection, optimization, and continuous monitoring.
This course is dedicated to equipping you with the knowledge and tools needed to uncover the unique challenges faced by MLOps teams when deploying and managing Generative AI models, and exploring how Vertex AI empowers AI teams to streamline MLOps processes and achieve success in Generative AI projects.
Moving to the cloud creates numerous opportunities to start working in a new way and it empowers the workforce to better collaborate and innovate. But it’s also a big change. Sometimes the success of the change hinges not on the change itself, but on how it’s managed. This course will help people managers to understand some of the key challenges associated with cloud adoption, and provide them with a verified in-the-field framework that will assist them in supporting their teams on the change journey. By addressing the human factor of moving to the cloud, organizations increase their chances of realizing business objectives and investing in their future talent.
This course is for developers interested in learning how to use TPUs for inference—from architecture to deployment, and how to solve common implementation challenges.
This course is designed for developers looking to build an optimized AI inference stack on Google Cloud. Whether you’re working with GPUs or TPUs, you’ll explore the fundamental components of an inference stack, learn design principles for maximizing performance and reliability, and explore practical techniques to take your workloads from 0 to 1.