Instruções e requisitos de configuração do laboratório
Proteja sua conta e seu progresso. Sempre use uma janela anônima do navegador e suas credenciais para realizar este laboratório.

Identifique e proteja dados sensíveis em todo o ecossistema: laboratório com desafio

Laboratório 30 minutos universal_currency_alt 5 créditos show_chart Intermediário
info Este laboratório pode incorporar ferramentas de IA para ajudar no seu aprendizado.
Este conteúdo ainda não foi otimizado para dispositivos móveis.
Para aproveitar a melhor experiência, acesse nosso site em um computador desktop usando o link enviado a você por e-mail.

GSP522

Logotipo dos laboratórios autoguiados do Google Cloud

Visão geral

Nos laboratórios com desafio, apresentamos uma situação e um conjunto de tarefas. Para concluí-las, em vez de seguir instruções detalhadas, você usará o que aprendeu nos laboratórios do curso. Um sistema automático de pontuação (mostrado nesta página) vai avaliar seu desempenho.

Nos laboratórios com desafio, não ensinamos novos conceitos do Google Cloud. O objetivo dessas tarefas é aprimorar aquilo que você já aprendeu, como a alteração de valores padrão ou a leitura e pesquisa de mensagens para corrigir seus próprios erros.

Para alcançar a pontuação de 100%, você precisa concluir todas as tarefas no tempo definido.

Este laboratório é recomendado para estudantes que se inscreveram no curso Identifique e proteja dados sensíveis em todo o ecossistema. Tudo pronto para começar o desafio?

Cenário do desafio

Você é engenheiro de dados na concessionária americana Cymbal Cars e seu trabalho é identificar e proteger dados sensíveis dos clientes (donos dos carros) em todo o ecossistema de dados da organização.

Seus colegas já fizeram parte do trabalho de identificar e encobrir dados sensíveis nos arquivos do Cloud Storage e nas tabelas do BigQuery (principalmente números de CPF) e nas respostas do modelo de IA generativa da organização.

Para garantir que os arquivos do Cloud Storage e os recursos do BigQuery continuem sendo verificados e protegidos periodicamente, você decide configurar a descoberta da Proteção de Dados Sensíveis e executar jobs para identificar e ocultar outros dados sensíveis, como números de cartão de crédito.

Para os modelos de IA generativa, você também decide continuar o trabalho já feito por seus colegas e encobrir as respostas em que credenciais tenham sido identificadas.

Neste desafio, você vai usar seu conhecimento das ferramentas de Proteção de Dados Sensíveis para implementar a descoberta e a proteção de dados no Cloud Storage e no BigQuery. Além disso, vai usar o cliente Python da API Cloud Data Loss Prevention (DLP) para identificar e encobrir respostas de modelos de IA generativa que contenham credenciais.

Conhecimentos avaliados

  • Como criar e programar configurações de verificação de descoberta para o Cloud Storage
  • Como criar modelos e executar jobs de desidentificação em arquivos do Cloud Storage
  • Como criar tags do IAM para dados sensíveis e aplicá-las aos dados do BigQuery para conceder acesso condicional
  • Como escrever funções Python para encobrir e bloquear respostas de modelos de IA generativa que contenham dados sensíveis identificados pela API Cloud Data Loss Prevention (DLP)

Configuração e requisitos

Use os seguintes detalhes para este ambiente de laboratório:

  • Faça login no console do Google Cloud como usuário 1 ().
  • Em ID do projeto, use:
  • Em Local, use: (a menos que especificado de outra forma)

Antes de clicar no botão Começar o Laboratório

Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é ativado quando você clica em Iniciar laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.

Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, e não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.

Confira os requisitos para concluir o laboratório:

  • Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima (recomendado) ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e de estudante, o que poderia causar cobranças extras na sua conta pessoal.
  • Tempo para concluir o laboratório: não se esqueça que, depois de começar, não será possível pausar o laboratório.
Observação: use apenas a conta de estudante neste laboratório. Se usar outra conta do Google Cloud, você poderá receber cobranças nela.

Tarefa 1: ativar a proteção de dados sensíveis no Cloud Storage

Sua equipe tem um bucket do Cloud Storage chamado gs://-car-owners com arquivos de interações com os donos dos carros. Os dados sensíveis da maioria desses arquivos já foram encobertos pelos seus colegas, mas foram adicionados ao bucket alguns arquivos CSV (.csv) novos com números de cartão de crédito (por exemplo, sample-chat-log-data-10.csv).

Seu objetivo é identificar e encobrir os números de cartão de crédito dos arquivos CSV novos e ativar a descoberta diária do bucket para monitorar novas instâncias de dados sensíveis no futuro.

Para ajudá-lo a alcançar esses objetivos, conclua as subtarefas a seguir.

Confira as dicas abaixo para receber informações úteis antes de começar!

Crie e programe uma configuração de verificação de descoberta para ser executada diariamente no Cloud Storage

Dica útil para a verificação de descoberta:

Propriedade Valor
Selecionar escopo Verificar o projeto selecionado
Programações gerenciadas Editar a Programação padrão para especificar Gerar um novo perfil diariamente em De acordo com uma programação e Ao inspecionar mudanças no modelo
Selecionar modelo de inspeção Criar um novo modelo de inspeção
Salvar cópias do perfil dos dados no BigQuery Definir o ID do conjunto de dados como cs_discovery e o ID da tabela como cs_data_profiles no projeto atual
Definir o local para armazenar a configuração Multi_region > us (várias regiões nos Estados Unidos)
Nome de exibição da configuração Descoberta diária do Cloud Storage

Crie um modelo de desidentificação para encobrir números de cartão de crédito em dados estruturados (como arquivos CSV)

Dica útil para o modelo de desidentificação:

Propriedade Valor
ID do modelo us_ccn_deidentify
Tipo de transformação de dados Gravar
Nome de exibição Desidentificar números de cartão de crédito
Tipo de local Multi_region > global (Global)
Campo da regra de transformação message
Tipo de transformação Correspondência no infoType
Método de transformação Substituir pelo nome do InfoType

Use o modelo para executar um job de desidentificação nos arquivos CSV no bucket do Cloud Storage

Dica útil para o job de desidentificação:

Propriedade Valor
ID do job us_ccn_deidentify
Tipo de local Multi_region > us (várias regiões nos Estados Unidos)
URL gs://-car-owners/
Verificação recursiva Ativar esta opção
Amostragem 100%
Método de amostragem Sem amostras
Modelo de desidentificação estruturado Especificar o caminho para o modelo de desidentificação criado na etapa 2
Exportar detalhes da transformação para o BigQuery Definir o ID do conjunto de dados como cs_transformations e o ID da tabela como deidentify_ccn no projeto atual
Local de saída do Cloud Storage gs://-car-owners-transformed

Clique em Verificar meu progresso para conferir o objetivo. Ativar a proteção de dados sensíveis no Cloud Storage.

Tarefa 2: ativar a proteção de dados sensíveis no BigQuery

Os dados sobre os donos dos carros e suas compras também são armazenados no BigQuery para análise, e alguns dos conjuntos de dados contêm dados sensíveis. Sua tarefa é criar uma tag no IAM para informações sensíveis de identificação pessoal (SPII) e usá-la para conceder acesso condicional a determinados usuários para que eles acessem apenas conjuntos de dados do BigQuery com uma tag de SPII com valor Não.

Para ajudá-lo a alcançar esse objetivo, conclua as subtarefas a seguir.

Confira as dicas abaixo para receber informações úteis antes de começar!

Crie uma tag no IAM para informações sensíveis de identificação pessoal (SPII)

Dica útil para criar a tag:

Propriedade Valor
Chave de tag SPII
Descrição da chave de tag Sinalizar informações sensíveis de identificação pessoal (SPII)
Valor 1 da chave de tag Sim
Descrição do valor 1 da chave de tag Contém informações sensíveis de identificação pessoal (SPII)
Valor 2 da chave de tag Não
Descrição do valor 2 da chave de tag Não contém informações sensíveis de identificação pessoal (SPII)

Conceda acesso condicional ao usuário 2 apenas aos conjuntos de dados do BigQuery com uma tag de SPII com valor Não

Dica útil para conceder acesso condicional:

  1. Atualize as configurações do IAM para o usuário 2 () para adicionar uma condição (acesso apenas a conjuntos de dados do BigQuery com a tag de SPII com valor Não).
Propriedade Valor
Papéis do IAM para o usuário 2 Substituir Leitor por Navegador e manter Leitor de dados do BigQuery para adicionar uma condição.
Título da condição Acesso apenas a SPII com valor Não
Tipo de condição 1 e operador Selecionar tag e tem o valor
Caminho do valor para o tipo de condição 1 /SPII/No
  1. Marque o conjunto de dados do BigQuery chamado orders com o valor Não para SPII.

Ao contrário do conjunto de dados car_owners, o conjunto de dados orders não contém SPII, apenas detalhes sobre pedidos.

Teste opcional: se quiser ver o acesso condicional em ação, faça login no projeto como usuário 2 e acesse o BigQuery. Atualize a página até que o conjunto de dados chamado orders seja o único restante na lista em Análises, porque o usuário 2 agora só tem acesso a conjuntos de dados com a tag Não para SPII.

Pode levar alguns minutos para que a condição seja aplicada.

Clique em Verificar meu progresso para conferir o objetivo. Ativar a proteção de dados sensíveis no BigQuery.

Tarefa 3: proteger dados sensíveis nas respostas do modelo de IA generativa

Sua equipe já tem uma função Python que identifica e encobre ou bloqueia tipos de dados sensíveis nas respostas do modelo de IA generativa. Você recebeu a tarefa de expandir a função para bloquear respostas de modelos de IA generativa que contenham números de chassi – dados sensíveis que consistem em um código exclusivo de 17 dígitos atribuído a cada automóvel em uso nos Estados Unidos.

Para ajudá-lo a alcançar esse objetivo, conclua as subtarefas a seguir usando o bloco fornecido neste ambiente de laboratório:

  1. Atualize uma função Python atual para bloquear respostas do modelo quando um chassi dos EUA for incluído.
  2. Gere um exemplo de texto com o seguinte comando para testar a função atualizada: Is 4Y1SL65848Z411439 an example of a US Vehicle Identification Number (VIN)? (4Y1SL65848Z411439 é um exemplo de número de chassi dos EUA?)
    • Ao gerar a resposta, defina a temperatura como 0 para que os resultados de maior probabilidade sejam retornados para a verificação de progresso abaixo.

Use o bloco pré-criado chamado deidentify-model-response-challenge-lab.ipynb na instância do workbench chamada vertex-ai-jupyterlab.

  • Em ID do projeto, use:
  • Em Local, use:
Observação: se você não encontrar blocos no JupyterLab, siga estas etapas para redefinir a instância:

1. Feche a guia do JupyterLab no navegador e volte à página inicial do Workbench.

2. Marque a caixa de seleção ao lado do nome da instância e clique em Redefinir.

3. Depois que o botão Abrir o JupyterLab for ativado novamente, aguarde um minuto e clique em Abrir o JupyterLab.

Dica útil para atualizar e testar a função Python:

Dica útil para definir a temperatura como 0:

Clique em Verificar meu progresso para conferir o objetivo. Proteger dados sensíveis nas respostas do modelo de IA generativa.

Parabéns!

Neste laboratório, você criou e programou uma configuração de verificação de descoberta para o Cloud Storage e, em seguida, gerou um modelo de desidentificação que foi usado para executar um job de desidentificação em arquivos do Cloud Storage. Também criou tags do IAM e as aplicou aos dados do BigQuery para conceder acesso condicional. Por fim, você atualizou uma função Python para encobrir e bloquear respostas de modelos de IA generativa contendo dados sensíveis identificados pela API Cloud Data Loss Prevention (DLP).

Selo de habilidade "Identifique e proteja dados sensíveis em todo o ecossistema"

Treinamento e certificação do Google Cloud

Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.

Manual atualizado em 30 de outubro de 2025

Laboratório testado em 30 de outubro de 2025

Copyright 2025 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.

Antes de começar

  1. Os laboratórios criam um projeto e recursos do Google Cloud por um período fixo
  2. Os laboratórios têm um limite de tempo e não têm o recurso de pausa. Se você encerrar o laboratório, vai precisar recomeçar do início.
  3. No canto superior esquerdo da tela, clique em Começar o laboratório

Usar a navegação anônima

  1. Copie o nome de usuário e a senha fornecidos para o laboratório
  2. Clique em Abrir console no modo anônimo

Fazer login no console

  1. Faça login usando suas credenciais do laboratório. Usar outras credenciais pode causar erros ou gerar cobranças.
  2. Aceite os termos e pule a página de recursos de recuperação
  3. Não clique em Terminar o laboratório a menos que você tenha concluído ou queira recomeçar, porque isso vai apagar seu trabalho e remover o projeto

Este conteúdo não está disponível no momento

Você vai receber uma notificação por e-mail quando ele estiver disponível

Ótimo!

Vamos entrar em contato por e-mail se ele ficar disponível

Um laboratório por vez

Confirme para encerrar todos os laboratórios atuais e iniciar este

Use a navegação anônima para executar o laboratório

A melhor maneira de executar este laboratório é usando uma janela de navegação anônima ou privada. Isso evita conflitos entre sua conta pessoal e a conta de estudante, o que poderia causar cobranças extras na sua conta pessoal.