Rushil Arora
회원 가입일: 2025
골드 리그
6840포인트
회원 가입일: 2025
이 과정에서는 Model Armor의 필수 보안 기능을 검토하고 서비스를 사용할 수 있도록 준비합니다. LLM과 관련된 보안 위험과 Model Armor가 AI 애플리케이션을 보호하는 방법을 알아봅니다.
인공지능(AI)은 혁신적인 가능성을 제공하지만 새로운 보안 문제의 원인이 되기도 합니다. 이 과정에서는 보안 및 데이터 보호 리더가 조직 내에서 AI를 안전하게 관리하는 데 필요한 전략을 살펴봅니다. AI 관련 위험을 사전에 식별 및 완화하고, 민감한 정보를 보호하며, 규정을 준수하고, 복원력 높은 AI 인프라를 빌드하는 프레임워크를 학습합니다. 이러한 전략이 실제 시나리오에서 어떻게 적용되는지 살펴보기 위해 4가지 산업별 사례를 선별했습니다.
이 과정에서는 AI 개인 정보 보호 및 안전에 관한 중요한 주제를 소개합니다. Google Cloud 제품과 오픈소스 도구를 사용하여 AI 개인 정보 보호 및 안전 권장사항을 구현하는 실용적인 방법과 도구를 살펴봅니다.
이 과정에서는 AI 해석 가능성과 투명성의 개념을 소개합니다. 개발자와 엔지니어에게 AI 투명성이 얼마나 중요한지를 설명합니다. 데이터와 AI 모델 모두에서 해석 가능성과 투명성을 구현하는 데 도움이 되는 실용적인 방법과 도구를 살펴봅니다.
이 과정에서는 책임감 있는 AI라는 개념과 AI 원칙을 소개합니다. 공정성과 편향을 실질적으로 식별하고 AI/ML 실무에서 편향을 완화하는 기법을 알아봅니다. Google Cloud 제품과 오픈소스 도구를 사용하여 책임감 있는 AI 권장사항을 구현하는 실용적인 방법과 도구를 살펴봅니다.
이 과정은 머신러닝 실무자에게 생성형 AI 모델과 예측형 AI 모델을 평가하는 데 필요한 도구, 기술, 권장사항을 제공합니다. 모델 평가는 프로덕션 단계의 ML 시스템이 안정적이고 정확하고 성능이 우수한 결과를 제공할 수 있게 하는 중요한 분야입니다. 강의 참가자는 다양한 평가 측정항목, 방법, 각각 다른 모델 유형과 작업에 적합한 애플리케이션에 대해 깊이 있게 이해할 수 있습니다. 이 과정에서는 생성형 AI 모델의 고유한 문제를 강조하고 이를 효과적으로 해결하기 위한 전략을 소개합니다. 강의 참가자는 Google Cloud의 Vertex AI Platform을 활용해 모델 선택, 최적화, 지속적인 모니터링을 위한 견고한 평가 프로세스를 구현하는 방법을 알아볼 수 있습니다.
이 과정에서는 생성형 AI 모델을 배포하고 관리할 때 MLOps팀이 직면하는 고유한 과제를 파악하는 데 필요한 지식과 도구를 제공하고 Vertex AI가 어떻게 AI팀이 MLOps 프로세스를 간소화하고 생성형 AI 프로젝트에서 성공을 거둘 수 있도록 지원하는지 살펴봅니다.
'생성형 AI: 챗봇 그 이상의 가치'는 생성형 AI 리더 학습 과정의 첫 번째 과정이며 요구되는 기본 요건이 없습니다. 이 과정은 챗봇에 대한 기본적인 이해를 넘어 조직을 위한 생성형 AI의 진정한 잠재력을 살펴보는 것을 목표로 합니다. 생성형 AI의 강력한 기능을 활용하는 데 중요한 파운데이션 모델 및 프롬프트 엔지니어링과 같은 개념을 살펴봅니다. 또한 조직을 위한 성공적인 생성형 AI 전략을 개발할 때 고려해야 할 중요한 사항도 안내합니다.
Google Cloud : Prompt Engineering Guide examines generative AI tools, how they work. We'll explore how to combine Google Cloud knowledge with prompt engineering to improve Gemini responses.