Dhruvil Patel
成为会员时间:2025
白银联赛
3212 积分
成为会员时间:2025
随着企业对人工智能和机器学习的应用越来越广泛,以负责任的方式构建这些技术也变得更加重要。但对很多企业而言,真正践行 Responsible AI 并非易事。如果您有意了解如何在组织内践行 Responsible AI,本课程正适合您。 本课程将介绍 Google Cloud 目前如何践行 Responsible AI,以及从中总结的最佳实践和经验教训,便于您以此为框架构建自己的 Responsible AI 方法。
这是一节入门级微课程,旨在解释什么是负责任的 AI、它的重要性,以及 Google 如何在自己的产品中实现负责任的 AI。此外,本课程还介绍了 Google 的 7 个 AI 开发原则。
这是一节入门级微学习课程,探讨什么是大型语言模型 (LLM)、适合的应用场景以及如何使用提示调整来提升 LLM 性能,还介绍了可以帮助您开发自己的 Gen AI 应用的各种 Google 工具。
这是一节入门级微课程,旨在解释什么是生成式 AI、它的用途以及与传统机器学习方法的区别。该课程还介绍了可以帮助您开发自己的生成式 AI 应用的各种 Google 工具。
本课程介绍了 Responsible AI 的概念和 AI 原则,还介绍了在 AI/机器学习实践中识别公平性与偏见以及减少偏见的实用技巧,同时探索了使用 Google Cloud 产品和开源工具来实施 Responsible AI 最佳实践的实用方法和工具。
本课程能让机器学习从业者掌握评估生成式和预测式 AI 模型的基本工具、方法和最佳实践。要确保机器学习系统在实际运用中提供可靠、准确、高效的结果,做好模型评估至关重要。 学员将深入了解各项评估指标、方法及如何在不同模型类型和任务中适当应用这些指标和方法。课程将着重介绍生成式 AI 模型带来的独特挑战,并提供有效解决这些挑战的策略。通过利用 Google Cloud 的 Vertex AI Platform,学员可学习如何在模型选择、优化和持续监控工作中实施卓有成效的评估流程。
本课程致力于为您提供所需的知识和工具,让您能够了解 MLOps 团队在部署和管理生成式 AI 模型以及探索 Vertex AI 如何帮助 AI 团队简化 MLOps 流程时面临的独特挑战,并帮助您在生成式 AI 项目中取得成功。
Moving to the cloud creates numerous opportunities to start working in a new way and it empowers the workforce to better collaborate and innovate. But it’s also a big change. Sometimes the success of the change hinges not on the change itself, but on how it’s managed. This course will help people managers to understand some of the key challenges associated with cloud adoption, and provide them with a verified in-the-field framework that will assist them in supporting their teams on the change journey. By addressing the human factor of moving to the cloud, organizations increase their chances of realizing business objectives and investing in their future talent.
This course is for developers interested in learning how to use TPUs for inference—from architecture to deployment, and how to solve common implementation challenges.
This course is designed for developers looking to build an optimized AI inference stack on Google Cloud. Whether you’re working with GPUs or TPUs, you’ll explore the fundamental components of an inference stack, learn design principles for maximizing performance and reliability, and explore practical techniques to take your workloads from 0 to 1.