시작하기 전에
- 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
- 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
- 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.
Enable the Model Armor API
/ 10
Create a Model Armor template
/ 20
Input a user prompt to screen Responsible AI
/ 10
Input a user prompt to screen Malicious URI
/ 10
Input a user prompt to screen DLP
/ 10
Input a model response to screen DLP
/ 20
Execute a file-based prompt to sanitize a file
/ 20
Google Cloud Platform의 Model Armor는 유해한 콘텐츠, 프롬프트 인젝션, 민감한 데이터 유출과 같은 위험이 있는지 사용자 프롬프트와 LLM 대답을 모두 검사하여 AI 안전을 강화합니다. 조직은 이를 통해 AI 애플리케이션의 보안 정책을 중앙에서 관리하고 시행할 수 있으며, 상호작용이 안전하고 규정을 준수하는지 확인하는 필터 역할을 합니다. 이 서비스는 통합된 가시성을 위해 Security Command Center와 통합되며 AI 모델의 무단 노출 또는 조작으로부터 보호하는 데 도움이 됩니다.
이 실습에서는 Model Armor를 사용하여 프롬프트와 그 대답을 정리하는 방법을 살펴봅니다.
이 실습에서는 다음 작업을 수행할 수 있는 능력을 입증해야 합니다.
다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지를 표시합니다.
실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.
이 실습을 완료하려면 다음을 준비해야 합니다.
실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 대화상자가 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 창이 있습니다.
Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).
실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.
팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.
필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.
실습 세부정보 창에서도 사용자 이름을 확인할 수 있습니다.
다음을 클릭합니다.
아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.
실습 세부정보 창에서도 비밀번호를 확인할 수 있습니다.
다음을 클릭합니다.
이후에 표시되는 페이지를 클릭하여 넘깁니다.
잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.
Model Armor를 사용하려면 먼저 API를 사용 설정해야 합니다.
Google Cloud 콘솔에서 Cloud Shell을 활성화합니다.
다음 명령어를 실행합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
Google Cloud 콘솔의 탐색 메뉴()에서 Vertex AI > Workbench를 클릭합니다.
Workbench 인스턴스의 JupyterLab 인터페이스가 새 브라우저 탭에서 열립니다.
1. JupyterLab의 브라우저 탭을 닫고 Workbench 홈페이지로 돌아갑니다.
2. 인스턴스 이름 옆의 체크박스를 선택하고 재설정을 클릭합니다.
3. JupyterLab 열기 버튼이 다시 사용 설정되면 1분 정도 기다린 후 JupyterLab 열기를 클릭합니다.
Select Kernel(커널 선택) 대화상자에서 사용 가능한 커널 목록 중 Python 3를 선택합니다.
노트북의 Getting Started(시작하기) 및 Import libraries(라이브러리 가져오기) 섹션을 실행합니다.
이 작업에서는 AI 상호작용에 대한 보안 및 콘텐츠 필터링 규칙을 정의하기 위해 Model Armor 템플릿 ma-template을 만듭니다. 이 템플릿은 민감한 데이터 노출을 감지하고 완화하는 정책을 수립하여 데이터 보호 표준을 준수하도록 보장합니다.
노트북의 Model Armor 템플릿 만들기 섹션을 실행하여 제공된 필터 구성을 사용해 ma-template을 만듭니다. 완료되면 여기로 돌아와서 진행 상황과 목표를 확인합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
이 작업에서는 다양한 사용자 프롬프트를 테스트하여 Model Armor가 사전 정의된 Sensitive Data Protection(SDP) infoType을 기반으로 다양한 유형의 민감한 데이터를 감지하고 선별하는 방법을 평가합니다. 이 프로세스는 Model Armor가 무단 데이터 노출을 효과적으로 필터링하고 보호하는 데 도움이 됩니다.
노트북의 Validating User Prompts with Model Armor 섹션을 살펴보고 다양한 보안 기능에 대해 사용자 프롬프트를 정리하는 여러 명령어를 실행합니다. 완료되면 여기로 돌아와서 진행 상황과 목표를 확인합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
Model Armor 템플릿을 만드는 과제를 완료했으며 다양한 사용자 프롬프트를 실행하여 여러 Sensitive Data Protection(SDP) infoType을 검사했습니다.
설명서 최종 업데이트: 2025년 11월 25일
실습 최종 테스트: 2025년 11월 25일
Copyright 2026 Google LLC. All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.
현재 이 콘텐츠를 이용할 수 없습니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
감사합니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
한 번에 실습 1개만 가능
모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.