GSP1327

Visão geral
O Model Armor no Google Cloud Platform aumenta a segurança da IA ao verificar comandos do usuário e respostas de LLMs em busca de riscos como conteúdo nocivo, injeção de comandos e vazamentos de dados sensíveis. Ele permite que as organizações gerenciem e apliquem políticas de segurança de forma centralizada para os aplicativos de IA, atuando como um filtro para garantir que as interações sejam seguras e estejam em conformidade. Esse serviço se integra ao Security Command Center para oferecer visibilidade unificada e ajudar a proteger contra exposição ou manipulação não autorizada de modelos de IA.
Neste laboratório, você vai aprender a higienizar comandos e respostas usando o Model Armor.
Objetivos
Neste laboratório, você vai demonstrar sua capacidade de fazer o seguinte:
- Ativar a API Model Armor.
- Criar um modelo do Model Armor.
- Executar vários comandos para higienizar comandos do usuário em relação a diferentes recursos de segurança.
Configuração e requisitos
Antes de clicar no botão Começar o Laboratório
Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é ativado quando você clica em Iniciar laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.
Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, e não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.
Confira os requisitos para concluir o laboratório:
- Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima (recomendado) ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e de estudante, o que poderia causar cobranças extras na sua conta pessoal.
- Tempo para concluir o laboratório: não se esqueça que, depois de começar, não será possível pausar o laboratório.
Observação: use apenas a conta de estudante neste laboratório. Se usar outra conta do Google Cloud, você poderá receber cobranças nela.
Como iniciar seu laboratório e fazer login no console do Google Cloud
-
Clique no botão Começar o laboratório. Se for preciso pagar por ele, uma caixa de diálogo vai aparecer para você selecionar a forma de pagamento.
No painel Detalhes do Laboratório, à esquerda, você vai encontrar o seguinte:
- O botão Abrir Console do Google Cloud
- O tempo restante
- As credenciais temporárias que você vai usar neste laboratório
- Outras informações, se forem necessárias
-
Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.
O laboratório ativa os recursos e depois abre a página Fazer Login em outra guia.
Dica: coloque as guias em janelas separadas lado a lado.
Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta.
-
Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.
{{{user_0.username | "Username"}}}
Você também encontra o nome de usuário no painel Detalhes do Laboratório.
-
Clique em Próxima.
-
Copie a Senha abaixo e cole na caixa de diálogo de Olá.
{{{user_0.password | "Password"}}}
Você também encontra a senha no painel Detalhes do Laboratório.
-
Clique em Próxima.
Importante: você precisa usar as credenciais fornecidas no laboratório, e não as da sua conta do Google Cloud.
Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais.
-
Acesse as próximas páginas:
- Aceite os Termos e Condições.
- Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
- Não se inscreva em testes gratuitos.
Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.
Observação: para acessar os produtos e serviços do Google Cloud, clique no Menu de navegação ou digite o nome do serviço ou produto no campo Pesquisar.
Tarefa 1: ativar a API Model Armor
Antes de começar a usar o Model Armor, você precisa ativar a API.
-
No console do Google Cloud, ative o Cloud Shell.
-
Execute o seguinte comando:
PROJECT=$(gcloud config get-value project)
gcloud services enable modelarmor.googleapis.com --project=$PROJECT
Clique em Verificar meu progresso para conferir o objetivo.
Ativar a API Model Armor
Tarefa 2: abrir o notebook no Vertex AI Workbench
-
No menu de navegação (
) do console do Google Cloud, clique em Vertex AI > Workbench.
-
Ache a instância e clique no botão Abrir o JupyterLab.
A interface do JupyterLab para sua instância do Workbench é aberta em uma nova guia do navegador.
Observação: se você não encontrar notebooks no JupyterLab, siga estas etapas para redefinir a instância:
1. Feche a guia do JupyterLab no navegador e volte à página inicial do Workbench.
2. Marque a caixa de seleção ao lado do nome da instância e clique em Redefinir.
3. Depois que o botão Abrir o JupyterLab for ativado novamente, aguarde um minuto e clique em Abrir o JupyterLab.
Tarefa 3: configurar o notebook
-
Abra o arquivo .
-
Na caixa de diálogo Selecionar Kernel, escolha Python 3 na lista de kernels disponíveis.
-
Execute as seções Vamos começar e Importar bibliotecas do notebook.
- Para ID do projeto, use , e em Local, use .
Observação: é possível pular as células do notebook que tenham a indicação Somente Colab. Se você receber uma resposta 429 de uma das execuções de células do notebook, aguarde 1 minuto antes de executar a célula novamente para prosseguir.
Tarefa 4: criar um modelo do Model Armor
Nesta tarefa, você vai criar um modelo do Model Armor ma-template para definir regras de segurança e filtragem de conteúdo em interações com IA. Esse modelo estabelece políticas para detectar e reduzir a exposição de dados sensíveis, garantindo a conformidade com os padrões de proteção de dados.
Leia a seção Criar um modelo do Model Armor do notebook para criar o ma-template no local usando a configuração de filtro fornecida. Depois de concluir, volte aqui para verificar seu progresso e confirmar o objetivo.
Observação: antes de clicar no botão Verificar meu progresso, salve o arquivo do notebook.
Clique em Verificar meu progresso para conferir o objetivo.
Criar um modelo do Model Armor
Tarefa 5: validar comandos do usuário com o Model Armor
Nesta tarefa, você vai testar vários comandos de usuário para avaliar como o Model Armor detecta e filtra diferentes tipos de dados sensíveis com base nos InfoTypes predefinidos da Proteção de Dados Sensíveis (SDP). Esse processo ajuda a garantir que o Model Armor filtre e proteja de maneira eficaz contra a exposição não autorizada de dados.
Acesse a seção Validar comandos do usuário com o Model Armor do notebook para executar vários comandos e higienizar comandos do usuário em relação a diferentes recursos de segurança. Depois de concluir, volte aqui para verificar seu progresso e conferir os objetivos.
Observação: antes de clicar no botão Verificar meu progresso, salve o arquivo do notebook.
- Insira um comando do usuário para o Model Armor analisar a IA responsável.
Clique em Verificar meu progresso para conferir o objetivo.
Insira um comando do usuário para analisar a IA responsável
- Insira um comando do usuário para o Model Armor analisar o URI mal-intencionado.
Clique em Verificar meu progresso para conferir o objetivo.
Insira um comando do usuário para verificar o URI mal-intencionado
- Insira um comando do usuário para o Model Armor analisar a DLP.
Clique em Verificar meu progresso para conferir o objetivo.
Inserir um comando do usuário para analisar a DLP
- Insira uma resposta do modelo para o Model Armor analisar a DLP.
Clique em Verificar meu progresso para conferir o objetivo.
Insira uma resposta do modelo para analisar a DLP
- Execute um comando baseado em arquivo para usar o Model Armor e limpar um comando do usuário no formato de arquivo especificado.
Clique em Verificar meu progresso para conferir o objetivo.
Executar um comando baseado em arquivo para limpar um formato de arquivo
Parabéns!
Você concluiu o desafio de criar um modelo do Model Armor e executou diferentes comandos do usuário para verificar vários infoTypes da Proteção de Dados Sensíveis (SDP).
Manual atualizado em 25 de novembro de 2025
Laboratório testado em 25 de novembro de 2025
Copyright 2026 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.